Connect with us

Künstliche Intelligenz

Kurz erklärt: Das steckt hinter dem Modewort KI-Agenten


Während die Reasoning-Fähigkeiten großer Sprachmodelle (Large Language Models, LLMs) total 2024 sind, betonen die Modellanbieter jetzt die agentische Natur ihrer Systeme. Gemeint ist damit, dass die Modelle komplexe Aufgaben autonom lösen und dazu selbstständig weitere LLMs oder andere Werkzeuge hinzuziehen. Das kann vom Browser und der Taschenrechner-App über die Dokumentenablage bis zur Entwicklungsumgebung reichen.

Ziel der autonomen agentischen LLMs ist laut Werbeversprechen, die bisherige Arbeitswelt umzukrempeln, die Digitalisierung der Wirtschaft und Verwaltung abzuschließen und schlussendlich Menschen bei vielen Tätigkeiten zu ersetzen – was Kosten einspart. Nicht nur bei öden, repetitiven Aufgaben – auch komplexe Geschäftsprozesse, Softwareentwicklung und Forschung sind das Ziel der Agenten. Während die Wirtschaft – vom KMU bis zum Megakonzern – damit einen Wachstumsschub erfahren soll, würden die Systeme Angestellten dann Zeit für andere Aufgaben geben, die bislang ständig hinten runterfallen. Unterm Strich soll die Technik alle noch effizienter machen und die Lücke der Fachkräfte füllen, erklären die Eltern des Gedanken.

Abstrakt annähern kann man die Fähigkeiten der agentischen LLMs am besten über einen Vergleich mit den Stufen des autonomen Fahrens (siehe Kasten). Werbung und Release Notes versprechen voll automatisierte KI-Systeme (Stufe 4). Glaubt man dem Hype, wird Artificial General Intelligence (AGI) spätestens mit GPT-5 den Menschen obsolet machen (Stufe 5). Erfahrungsberichte klingen eher nach einer Automatisierung zwischen den Stufen 2 und 3. Nutzer müssen jederzeit eingreifen können, wenn sich die Sprachmodelle verlaufen, oder die Modelle prompten bei bestimmten Entscheidungen die Nutzer und warten dann, bis die Menschen gutgläubig ihre Kreditkartendaten und Passwörter eingegeben haben.

Stufe 0: Manuelles Fahren.

Stufe 1: Assistiert. Fahrer führen die Lenkbewegungen aus, das Fahrzeugsystem erledigt Aktivitäten wie Bremsen, Blinken oder Beschleunigen.

Stufe 2: Teilautomatisiert. Ein Mensch muss das System dauerhaft überwachen und im Zweifelsfall eingreifen.

Stufe 3: Hoch automatisiert. Ein Mensch muss am Platz sein, aber das System nicht dauerhaft überwachen.

Stufe 4: Voll automatisiert. Das System kann in speziellen Situationen alle Fahranforderungen selbstständig bewältigen.

Wie es um die tatsächlichen Fähigkeiten der Sprachmodelle bestellt ist, läuft auf eine Glaubensfrage hinaus. Fans der Technik heben ihren Produktionszuwachs hervor, zeigen erfolgreiche Prototypen oder präsentieren in sozialen Netzwerken erstaunliche Ergebnisse von künstlicher Intelligenz. Auf der anderen Seite sehen die Kritiker LLMs als stochastische Sprachwürfelmaschinen, die sich in manchen Bereichen besser schlagen als in anderen, unterm Strich aber meist enttäuschen – es sei denn, man würfelt so lange, bis das Ergebnis vorzeigbar genug ist, wobei mit jedem Würfelwurf Kosten entstehen.

Strukturiertere Erkenntnisse bieten die gängigen Benchmarks für große Sprachmodelle (etwa GPQA, AIME, SWE-bench oder MMLU). Hier erstrecken sich die Testfelder über das Programmieren, Recherchieren und Fachwissen in den Naturwissenschaften. Geschlossene Modelle erreichen bei jedem Release neue Höchstwerte, offenere Modelle kommen an die proprietären Konkurrenten heran – der Spielraum ist in beiden Fällen zwei bis drei Prozentpunkte. Während die Benchmarks den LLMs grundsätzlich gute bis sehr gute allgemeine Fähigkeiten bescheinigen, sind die genauen Zahlen mit Vorsicht zu genießen. Seit einer Weile besteht der Verdacht, dass Anbieter ihre Modelle speziell auf die Tests trainieren, also Benchmaxing betreiben – bei keinem Flaggschiffmodell sind die Trainingsdaten bekannt. Dann gibt es noch die LMArena, in der Menschen bei Blindtests den Stil und die Qualität von Modellen bei beliebigen Prompts bewerten. Ein Leaderboard drückt das Ergebnis mit einer ELO aus. Auch hier haben Anbieter zuletzt mit besonders gefälligen Varianten getrickst, dennoch lassen sich hier Trends quantifiziert ablesen.

Für die Qualität der Modelle in Produktion gibt es bisher nur anekdotische Evidenz, kein Unternehmen rückt mit Messungen zum Effizienzzuwachs raus, für das Programmieren scheint das aktuell umstritten zu sein. Zwar kein guter Indikator für den deutschen Mittelstand, aber für die Lage in der Branche sind die aktuellen Quartalszahlen von Meta und Microsoft. Meta verdient sein Geld fast ausschließlich mit Werbung, Microsoft wächst besonders stark im Bereich Azure Cloud, in dem man auch die KI-Workloads verrechnet, schlüsselt das jedoch nicht genauer auf. Es ist anzunehmen, dass besonders Microsoft hohe Gewinne durch LLMs und andere KI-Produkte seiner Konkurrenz und den Aktionären unter die Nase reiben würde.

Derweil gibt es Techniken, die die Ausgabequalität oder den Nutzen der großen Sprachmodelle für den Unternehmenseinsatz steigern. Mit Retrieval Augmented Generation (RAG) nähert man die Sprachmodelle mit den eigenen Dokumenten an die richtige Problemdomäne an, was Halluzinationen reduzieren kann. Mit Agentenframeworks und zuletzt dem MCP gibt es Mittel, mit denen sich Sprachmodelle strukturiert miteinander oder mit allen denkbaren Werkzeugen verbinden lassen. Hier gibt man den Modellen jedoch eine Auswahl vor, sie können sich nicht autonom beliebige Werkzeuge aussuchen. Diese Konstrukte muss man in Produktion testen – hier gibt es zwar positive Erfahrungsberichte, aber keine Benchmarks oder Zahlen. Ob sich das Skalieren der Anwendungen dann rechnet, ist ebenfalls erst in Produktion ersichtlich.

Wer jetzt ein Agentic-AI-Produkt für den Unternehmenseinsatz kauft, wird höchstwahrscheinlich teilautomatisierte Abläufe bekommen; im besten Fall passt die Unternehmensstruktur und die Angestellten müssen die automatisierten Prozesse nur noch überwachen. Das muss dabei nicht immer mit LLMs zu tun haben. Auf dem Stand der Digitalisierung in Verwaltung und KMUs ist auch mit klassischen Mitteln noch viel zu holen. Sogar die Analysten bei Gartner, die selbst gerne Hypes pushen und verkaufen, warnen davor, dass von 1.000 geprüften Produkten für KI-Agenten nur 130 mehr als heiße Luft vorweisen konnten.

Ihre Stärken haben die großen Sprachmodelle bei der Textarbeit, der Dokumentensuche und dem Zusammenfassen von Inhalten. Während die reinen Sprachfähigkeiten der LLMs außer Frage stehen, bewegen sich sehr gute Ergebnisse beim Programmieren je nach Benchmark und Modell zwischen 30 und 90 Prozent, bei Recherche und Naturwissenschaften zwischen 50 und 85 Prozent. Natürlich erreicht nicht jeder Mensch dieselbe Bewertung bei diesen Aufgaben. Gerade bei exotischen Spezialfällen knicken die LLMs dann häufig ein – genau bei den Problemen, für die man Facharbeiter oder Domänenexperten beschäftigt.

LLMs enthalten eine gewaltige Bandbreite an Wissen zu den verschiedensten Themen – schließlich sind die Topmodelle der großen Anbieter mit allem digital verfügbaren Wissen der Menschheit trainiert und lassen sich danach abfragen. Offen ist jedoch: Erreichen LLMs mit dem ungenauen Werkzeug Sprache über eine statistische Annäherung am Ende ein eindeutiges Ergebnis? Reicht ein System, das überzeugend spricht, aber nur in der Hälfte oder drei Viertel der Fälle richtig liegt, für autonome Lösungsfindung? Oder bleiben diese Systeme wie die selbstfahrenden Pkws auf Stufe 3 der Autonomie stecken?


(pst)



Source link

Künstliche Intelligenz

c’t-Workshop: Kea im Praxiseinsatz – moderne DHCP-Administration


Kea hat sich als moderner DHCP-Server etabliert. Mit seiner schlanken, modularen Architektur verarbeitet er DHCPv4- und DHCPv6-Anfragen schnell und zuverlässig – selbst in großen Netzen. Flexible Konfigurationsoptionen ermöglichen eine passgenaue Anpassung an individuelle Anforderungen. Änderungen lassen sich im laufenden Betrieb vornehmen, ganz ohne Neustart. Zusätzlich bindet Kea externe Datenbanken ein, was die Integration in bestehende Infrastrukturen erleichtert und die Verwaltung spürbar vereinfacht.

Weiterlesen nach der Anzeige

Im c’t-Workshop lernen die Teilnehmer, Kea von Grund auf zu installieren, zu konfigurieren und produktiv einzusetzen. Sie frischen ihr Wissen zu DHCPv4 auf, vertiefen ihre Kenntnisse zu DHCPv6 und üben Schritt für Schritt:
  • IP-Pools einrichten
  • statische Host-Reservierungen verwalten
  • Hochverfügbarkeitslösungen aufsetzen
  • DHCP-Leases in SQL-Datenbanken speichern
  • Konfigurationen über die API automatisieren
  • Fehler systematisch analysieren

Ein weiterer Schwerpunkt liegt auf der Migration bestehender ISC-DHCP-Setups.

Der Workshop entstand in enger Kooperation mit dem Internet Systems Consortium (ISC) und dem Kea-Entwicklungsteam. Er richtet sich an IT-Administratoren, Netzwerkverantwortliche und technische Fachkräfte, die Kea in ihre Infrastruktur einführen oder bestehende DHCP-Server modernisieren wollen.

Carsten Strotmann begleitet Sie durch den Workshop. Der erfahrene Unix-Spezialist mit Fokus auf Netzwerkdienste und IPv6-Sicherheit berät seit vielen Jahren Kunden zu DHCP, DNS und IP-Adressmanagement. Er vermittelt praxisnah das gesamte Spektrum der Kea-Administration und geht auf typische Herausforderungen im Unternehmenseinsatz ein.

Weiterlesen nach der Anzeige

Teilnehmer sollten sicher mit Linux/Unix, der Kommandozeile und Terminal-Editoren wie vi, emacs oder nano umgehen können. Fundierte TCP/IP-Kenntnisse sind ebenfalls erforderlich. Für die aktive Teilnahme benötigen Sie eine Kamera sowie ein Headset oder Mikrofon für den Austausch mit Referent und Gruppe.

  • Termin: 26. und 27. November
  • Uhrzeit:jeweils von 9 bis 17 Uhr
  • Preis: 1.550,00 Euro
  • kleine Gruppengröße: maximal 20 Teilnehmer

Weitere Informationen zu Ablauf und Anmeldung finden Sie auf der Workshop-Seite der heise academy.


(abr)



Source link

Weiterlesen

Künstliche Intelligenz

Wissen clever organisieren: Notion, Obsidian und Anytype im Vergleich


Privat steht ein Umzug an, beruflich muss ein wichtiges Projekt starten – der Teamleiter will Erfolge sehen! Doch auf den Post-its häufen sich die Aufgaben: Müll rausbringen, Vogelspinne striegeln und nebenbei auch noch eine Hochzeit planen. Es gibt immer viel zu tun.

  • Notion, Obsidian und Anytype helfen dabei, Ideen zu sammeln und Projekte zu organisieren.
  • Alle drei Apps sind komplexer als simple Notizen-Apps und bieten Funktionen wie Datenbanken.
  • Notion ist komplett cloudbasiert, während Obsidian und Anytype auch lokal funktionieren.
  • Welche App sich für wen und welchen Zweck eignet, ergründet dieser Ratgeber.

Einst mussten die Menschen ihr Leben auf Zetteln planen und mit der Hand schreiben. Schrecklich! Das ist heute natürlich anders, da hilft auch KI kräftig bei der Organisation mit. Notion ist eines der bekanntesten Tools, um Notizen zu ordnen, Projekte zu planen, persönliches Wissen zu sammeln und ganz allgemein Beruf und Alltag effizienter zu managen. Zudem gibt es mit Obsidian und Anytype zwei starke Alternativen, die mit einem etwas anderen Fokus überzeugen möchten.

Dieser Ratgeber beantwortet die Frage, wer bei Notion bleiben und wer lieber die Alternativen ausprobieren sollte. Trotz einiger Nachteile wie dem Cloud-Zwang hat Notion berechtigterweise viele Fans: Das Tool ist äußerst flexibel, kostenlos und ziemlich mächtig.


Das war die Leseprobe unseres heise-Plus-Artikels „Wissen clever organisieren: Notion, Obsidian und Anytype im Vergleich“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

comments_outline_white


Mit dem rasanten Wachstum von APIs steigt auch die Notwendigkeit für deren qualitativ hochwertige Entwicklung. Doch viele APIs sind schlecht programmiert, was zu einer ineffizienten Nutzung und schlechter Developer Experience führt. In unserem Workshop API-Design und -Entwicklung mit HTTP, REST und OpenAPI zeigen wir Ihnen, wie Sie effiziente und benutzerfreundliche APIs entwickeln und geben Ihnen Best Practices für das Design von HTTP-basierten REST-Schnittstellen.

Weiterlesen nach der Anzeige

Der Workshop umfasst eine Einführung in HTTP und REST sowie das Design von RESTful APIs. Sie lernen, wie Sie HTTP- und REST-Standards korrekt anwenden, standardisierte Referenzdokumentationen erstellen und für API-Konsistenz sorgen. Sie machen sich mit der OpenAPI-Spezifikation vertraut und lernen, wie Sie OpenAPI-Beschreibungen für REST APIs erstellen und die Qualität dieser Beschreibungen überprüfen können.

Der Workshop ist interaktiv gestaltet und besteht aus Theorie- und Praxisblöcken. Während der Übungen arbeiten Sie in Kleingruppen und wenden die Standards und Werkzeuge praktisch an. Anhand von Beispielen aus der langjährigen Praxiserfahrung der Trainer können Sie das Gelernte direkt anwenden und vertiefen.

Dezember
02.12. – 03.12.2025
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 03. Nov. 2025

Diese Schulung richtet sich an Entwickler und Entwicklerinnen, die HTTP, REST und OpenAPI noch nicht angewendet haben oder ihr Wissen bezüglich dieser Standards auffrischen möchten. Besonders wichtig sind diese Standards für Entwicklungsteams, deren APIs von anderen Teams oder sogar Externen verwendet werden.

Ihre Trainer Daniel Kocot und Miriam Greis arbeiten gemeinsam in einem Team der codecentric AG und betreuen dort Kunden im Bereich API-Entwicklung mit dem Schwerpunkt API Experience & Operations. Ein besonderes Augenmerk liegt dabei auf der kontinuierlichen Verbesserung und Automatisierung von Prozessen.


Upgrade for Skills

Upgrade for Skills


(ilk)



Source link

Weiterlesen

Beliebt