Künstliche Intelligenz
c’t-Workshop: DHCP-Automatisierung mit Kea und Stork
Der DHCP-Dienst bildet das Rückgrat moderner Netzwerke. In vielen Umgebungen verteilen sich Verwaltungsdaten jedoch auf mehrere Systeme – etwa IP-Adressmanagement, Inventardatenbanken, VoIP-Plattformen oder Deployment-Werkzeuge. Mit Kea-DHCP und der Weboberfläche Stork führen Admins diese Daten zusammen und synchronisieren sie über APIs mit dem DHCP-Dienst. So automatisieren sie wiederkehrende Konfigurationsaufgaben.
Weiterlesen nach der Anzeige
Im Workshop DHCP-Automatisierung mit Kea und Stork binden die Teilnehmer Kea-DHCP mit Open-Source-Werkzeugen in automatisierte Netzwerkumgebungen ein.
Von der Installation bis zum Monitoring
Der Workshop deckt den gesamten Lebenszyklus einer Kea-DHCP-Umgebung ab. Die Teilnehmer installieren Kea, richten ein Datenbank-Backend mit MySQL oder PostgreSQL ein und konfigurieren Subnetze sowie Adresspools. Danach bauen sie einen Hochverfügbarkeits-Cluster auf, testen Failover und prüfen den Status der Instanzen.
Anschließend setzen sie typische DHCP-Szenarien um: PXE-basierter Netzwerkboot, Vendor- und VIVSO-Optionen sowie dynamische DNS-Updates. Danach aktivieren sie die Kea-API, sichern den Zugriff ab und verwalten darüber Subnetze, Optionen, Client-Klassen und Reservierungen.
Mit Stork administrieren sie ihre Kea-Instanzen zentral und kontrollieren Versionen sowie HA-Zustände. Für Metriken und Alerts binden sie Monitoring-Werkzeuge wie Prometheus, Grafana, Zabbix und Uptime-Kuma ein. Ergänzend analysieren sie Logs und DHCP-Leases.
Direkt anwendbares Know-how
Die Teilnehmer erwerben Wissen, das sie unmittelbar im Produktivbetrieb einsetzen können. Sie lernen, typische Stolperfallen zu erkennen, bevor diese im laufenden Betrieb Probleme verursachen. Außerdem gewinnen sie ein tieferes Verständnis für Skalierbarkeit, Hochverfügbarkeit und Betriebssicherheit ihrer DHCP-Infrastruktur.
Weiterlesen nach der Anzeige
Durch den Workshop führt Carsten Strotmann von der sys4 AG. Er betreut seit über 25 Jahren Unix- und Windows-Netzwerke. Zu seinen Schwerpunkten zählen DNS, DNSSEC und IPv6. Als Trainer arbeitet er unter anderem für das Internet Systems Consortium, das Linuxhotel und Men & Mice.
Voraussetzungen und Anmeldung
Der Workshop richtet sich an Systemadministratoren, Netzwerkingenieure und DevOps-Teams mit Linux- und TCP/IP-Grundkenntnissen. Erfahrung mit JSON-APIs und DHCP erleichtert den Einstieg.
Die Teilnehmerzahl ist auf 20 Personen begrenzt. Die Veranstaltung am 2. und 3. Juni jeweils von 9:00 bis 17:00 Uhr online über Zoom statt. Zur Teilnahme genügen ein aktueller Browser mit JavaScript sowie ein Mikrofon oder Headset; ein SSH-Client ist hilfreich. Wer bis zum 05.05.2026 bucht, sichert sich einen Frühbucher-Rabatt von 10 Prozent und zahlt 792,00 Euro. Weitere Informationen und Details zur Anmeldung finden Sie auf der Seite zum Workshop.
(abr)
Künstliche Intelligenz
Mindestalter für Social Media: Kommission legt Bestandsaufnahme vor
Es ist eine umfangreiche Fleißarbeit, welche die im Spätsommer eingesetzte Expertenkommission „Kinder- und Jugendschutz in der digitalen Welt“ abgeliefert hat: auf über 120 Seiten hat sie auftragsgemäß einen umfangreichen Überblick über die Komplexität der Thematik erarbeitet – was vom frühestens Kindesalter bis zum Heranwachsenden tatsächlich als gefährlich, was als bedenklich und was als wissenschaftlich umstritten gilt.
Weiterlesen nach der Anzeige
In dem Dokument zeigen sich gleich mehrere Muster: Zum einen, dass die Nutzung oft durch das soziale Umfeld und die Eltern bestimmt wird. So werde fast jedes fünfte Kind bereits im Alter von fünf bis sieben Monaten Bildschirmmedien ausgesetzt, referenzieren die Autoren den Forschungsstand: „Erhöhte elterliche Nutzung steht dabei im negativen Zusammenhang mit der kindlichen Entwicklung“.
Auch für viele andere Altersstufen und Phänomenbereiche haben die Autoren der deutschen Kommission einen lesenswerten und keineswegs eindimensionalen Überblick über den bisherigen Stand an Forschung und Studien erstellt. Dabei merken sie auch an, wo diese womöglich methodische Schwächen haben oder nicht untereinander vergleichbar sind. So wird etwa dargestellt, wie die Daten zu Lernleistungen zu verstehen sind, die in der Debatte immer wieder gerne angeführt werden. „Werden […] digitale Medien im außerschulischen Bereich für lernirrelevante Aktivitäten eingesetzt, so geht dies erwartungskonform mit einer Reduzierung der Lernleistung einher“, heißt es darin etwas umständlich formuliert. Soll heißen: Wer fachfremd herumdaddelt, lernt dabei nichts für die Schule – keine überraschende, in Zeiten aufgeheizter politischer Debatten gleichwohl relevante Feststellung.
Zugleich räumen die Autoren auch mit der Idee auf, dass die Verfügbarkeit digitaler Lernoptionen alleine schon irgendeinen positiven Effekt habe: nur zielgerichtet eingesetzt und in gutem Unterricht eingebettet seien digitale Technologien gut für das Lernen, im ungünstigen Fall könnten sie sogar nachteilige Effekte haben, heißt es in einem Abschnitt der Bestandsaufnahme deutlich. „Nicht die Bildschirmzeit allein ist entscheidend, sondern welche Inhalte Kinder und Jugendliche sehen, wie Plattformen gestaltet sind und wie gut Kinder und Jugendliche begleitet werden“, sagt Olaf Köller, Co-Vorsitzender der Kommission. Der Psychologe fordert in dem Zusammenhang, dass Medienbildung nicht dem Zufall überlassen werden dürfe.
Rechtlicher Rahmen
In der Bestandsaufnahme wird unter anderem auch der rechtliche Rahmen dargelegt, in dem sich der deutsche Gesetzgeber bewegt. Die Beteiligten skizzieren dabei unter anderem, dass ein Großteil der Regulierungskompetenz auf europäischer Ebene verortet sei, was für den nationalen Gesetzgeber nur einen engen Spielraum lasse. Derzeit gibt es in vielen EU-Mitgliedstaaten Überlegungen für die Einführung eines Social-Media-Mindestalters – die EU-Kommission hatte am vergangenen Donnerstag allerdings bei der Vorstellung ihrer Altersverifikationslösung bereits klargestellt, dass sie das vor allem als Geld- und Zeitverschwendung betrachtet, weil den Nationalstaaten hier die Zuständigkeit fehle und im Europarecht bereits Vorgaben vorhanden seien.
„Wirksamer Kinder- und Jugendschutz entsteht nur, wenn Regulierung, Bildung und technische Vorsorge zusammenwirken“, sagt Nadine Schön, die andere Co-Vorsitzende der Kommission. Digitale Räume seien für Kinder und Jugendliche längst Lebensräume, sagt die ehemalige CDU-Bundestagsabgeordnete: „Wir müssen sie so gestalten, dass Schutz und Teilhabe zusammengehen.“
Empfehlungen sollen Ende Juni vorliegen
Weiterlesen nach der Anzeige
Genau darum soll es in den Empfehlungen gehen, welche die Kommission nun im nächsten Schritt vor der Sommerpause vorlegen soll, bevor sie im September ihren Abschlussbericht veröffentlicht. Ein Sprecher des Bundesministeriums für Bildung, Familie, Senioren, Frauen und Jugend (BMBFSFJ) bekräftigte am Mittag in Berlin, dass Bundesfamilienministerin Karin Prien (CDU) vor weiteren Schlussfolgerungen den endgültigen Bericht der Kommission abwarten wolle.
Prien, die sich selbst bereits als Sympathisantin einer Mindestaltersvorgabe offen gezeigt hatte, befürworte aber europäische Lösungen, wenn diese möglich seien. Die Ministerin selbst ließ sich mit den Worten zitieren, dass es nunmehr darum gehen müsse, „bestehende rechtliche Instrumente konsequent durchzusetzen und diese durch einen breiten Instrumentenkasten auf verschiedenen Ebenen zu ergänzen.“ Nur so könne den Herausforderungen begegnet „und zugleich die sichere, kompetente Teilhabe junger Menschen in der digitalen Welt gewährleistet werden.“
Lesen Sie auch
(nie)
Künstliche Intelligenz
Rheinmetall-Tochter Blohm+Voss baut Überwasserdrohnen | heise online
Überwasserdrohnen für zivile und militärische Anwendungen baut Blohm+Voss. Der deutsche Rüstungskonzern Rheinmetall hat angekündigt, dass auf der Hamburger Werft die Serienfertigung des Unmanned Surface Vessel (USV) Kraken K3 Scout angelaufen ist.
Weiterlesen nach der Anzeige
Kraken K3 Scout ist 8,50 Meter lang und knapp 2 Meter breit. Als Antrieb dient ein Dieselmotor, der das Boot auf maximal 55 Knoten, knapp 102 Kilometer pro Stunde beschleunigt. Bei einer Geschwindigkeit von 25 Knoten (etwa 46 Kilometer pro Stunde) soll die Reichweite 650 Seemeilen, etwa 1200 Kilometer betragen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Kraken K3 Scout
Das unbemannte Überwasserfahrzeug kann für militärische oder zivile Zwecke ausgestattet werden. Die Einsätze sollen, ja nach Mission, bis zu 30 Tage dauern. Dabei wird das USV ferngesteuert. In Zukunft soll es aber operieren können.
Zivile und militärische Anwendungen
Je nach Ausstattung kann es laut Rheinmetall „zur Überwachung von Seegebieten, zum Schutz kritischer Infrastruktur oder als Waffenträger für militärische Operationen eingesetzt werden.“
Auch der Transport von Menschen und Material soll möglich sein. Die maximale Zuladung beträgt 600 Kilogramm, die maximale Verdrängung 2,5 Tonnen. Für die Nutzlasten stehen zwei unterschiedlich ausgelegte Bereiche zur Verfügung.
Blohm+Voss werde zunächst rund 200 Stück der USVs pro Jahr bauen, sagte Tim Wagner, Chef von Rheinmetall Naval Systems. „Je nach Auftragslage können wir die Produktion auf bis zu 1000 Einheiten jährlich hochfahren.“
Weiterlesen nach der Anzeige
Kraken K3 Scout wurde von dem britischen Unternehmen Kraken Technology entwickelt. Das Unternehmen stellte das USV im vergangenen Jahr vor. Für die Serienfertigung haben Kraken Technology und Rheinmetall im vergangenen Jahr das Joint Venture Rheinmetall Kraken GmbH gegründet. Blohm+Voss wurde von der Bremer Lürssen Werft übernommen. 2025 kaufte Rheinmetall die Marinesparte von Lürssen, zu der neben weiteren Werften auch Blohm+Voss gehört.
(wpl)
Künstliche Intelligenz
KIare Regeln statt Blackbox: Deterministische Steuerung von KI-Agenten
Salesforce erweitert seine Plattform Agent Fabric um Funktionen zur Integration, Verwaltung und Kontrolle von KI-Agenten. Somit sollen sich mehrere Agenten über verschiedene Systeme und Plattformbetreiber hinweg zentral steuern lassen.
Weiterlesen nach der Anzeige
Die zentrale Neuerung zur Orchestrierung von KI-Agenten ist die Integration von Agentforce Script in Agent Broker. Damit überträgt Salesforce den sogenannten geführten Determinismus auf die plattformübergreifende Multi-Agenten-Steuerung. Dabei definieren Entwickler ihre Übergaben als festen Code, dazwischen übernehmen Sprachmodelle die Verarbeitung.
Über eine grafische Oberfläche lassen sich alle Multi-Agenten-Workflows mittels Drag-and-Drop steuern und menschliche Freigabepunkte einsehen. Ebenfalls gibt es eine Integration von MuleSoft Vibes zur Steuerung der Abläufe in natürlicher Sprache. Unabhängige Daten zur Leistungsfähigkeit des Brokers liegen bislang nicht vor. Für die Abrechnung nutzt Salesforce die sogenannten „Agentic Work Units“. Sie erfassen Nutzung und Interaktionen, nicht aber den Geschäftswert.

Übersicht über die Verwaltung von Agenten, Richtlinien und Modellen in Agent Fabric
(Bild: Salesforce)
Governance und Integration für Agenten
Mit dem AI Gateway führt Salesforce eine zentrale Instanz zur Steuerung von Sprachmodellen ein. Routing zwischen Modellen, Token-Budgets sowie Sicherheits- und Compliance-Vorgaben lassen sich in einem Werkzeug festlegen. Dabei bleibt die Plattform modellagnostisch. Neben vordefinierten Modellen können Unternehmen selbst gewählte LLMs anbinden. Neben Modellen von OpenAI, Anthropic oder Google lassen sich so auch eigene Sprachmodelle verwenden.
Außerdem erhält die Plattform mit MCP Bridge eine Schnittstelle zur Integration bestehender Systeme. Sie setzt vorhandene REST-APIs ohne Codeänderung als MCP-Endpunkte um. Zudem übernimmt Agent Fabric die Authentifizierung und das Rate Limiting. Darüber hinaus führt Salesforce mit Trusted Agent Identity ein Berechtigungsmodell für KI-Agenten ein. Aktionen erfolgen im Kontext konkreter Benutzerrechte. Für kritische Vorgänge, etwa finanzielle Transaktionen oder rechtliche Freigaben, ist zudem eine Bestätigung über das Smartphone erforderlich. Zusätzlich protokolliert Agent Fabric alle Aktionen.
Externe Agenten in der Registry
Weiterlesen nach der Anzeige
Die Agent Scanner erfassen externe KI-Agenten und tragen sie in eine zentrale Registrierungsdatenbank ein. Über OAuth unterstützen sie nun Agenten von Amazon Bedrock, Microsoft Foundry und GoDaddy. Dabei regelt eine sogenannte „Controlled Registration“, welche Agenten das Tool in die Registry aufnimmt. Ebenfalls liefern MCP-Server Datenqualitäts- und Governance-Funktionen direkt aus der Registry. Alle registrierten Agenten sowie deren Richtlinien und Modellnutzung lassen sich über Dashboards einsehen.
Salesforce nennt als Praxisbeispiel eine Anbindung an den Instant-Messaging-Dienst Slack. Hier geben Anwender einen Prompt ein und anschließend wählt Agent Fabric passende Agenten oder externe Systeme über MCP-Schnittstellen aus. Das US-Unternehmen führt auch weitere mögliche Einsatzzwecke an. So sollen Anwender etwa mit KI-Unterstützung Workshops vorbereiten, Softwareanforderungen erstellen oder sich bei der Entwicklung unterstützen lassen können.
Stärkerer Fokus auf Multi-Vendor-Umgebungen
Mit den Erweiterungen in Agent Fabric überträgt Salesforce bestehende Konzepte aus dem API-Management auf agentische Systeme, darunter Gateway, Registry und Policy Engine. Gleichzeitig wolle man sich stärker auf Multi-Vendor-Umgebungen ausrichten, erklärt John Kucera, SVP Product Management bei Salesforce. Kunden würden nicht auf eine einzige Agenten-Plattform setzen.
Dennoch bleibt die Agent Fabric durch die MuleSoft-Infrastruktur und das Agentforce-Script-Format eng an die Infrastruktur von Salesforce gebunden. Bislang unklar ist die Reife der Protokolle MCP und A2A, die beide weniger als zwei Jahre alt und zwischen Anbietern uneinheitlich umgesetzt sind.
AI Gateway, MCP Bridge und Trusted Agent Identity sind ab sofort allgemein verfügbar. Die deterministische Orchestrierung im Agent Broker startet im April 2026 als Beta, mit visuellem Authoring-Canvas und Unterstützung für Salesforce-Modelle soll sie ab Juni 2026 für alle Kunden bereitstehen.
Die Agent Scanner für Amazon Bedrock, Azure AI Foundry und GoDaddy sind ab sofort nutzbar, MCP-Server-Support folgt im Mai, die breitere OAuth-Integration im Juni 2026. Ebenfalls ist Agent Fabric nun in den Serverregionen Kanada und Japan verfügbar und erlaubt den Betrieb auf MuleSoft Runtime Fabric in Private-Cloud- und On-Premises-Umgebungen.
(sfe)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
