Connect with us

Entwicklung & Code

Eclipse ADL: Standardisierte Sprache für Entwurf und Steuerung von KI-Agenten


Die Eclipse Foundation hat eine offene, dezidierte Beschreibungssprache für die Planung, die Definition von Verhaltensmustern und die Steuerung von KI-Agentensystemen vorgestellt. Agent Definition Language (ADL) beschreibt Agentensysteme in einfachen, standardisierten Kategorien und Begrifflichkeiten, die ein strukturiertes Deployment und einen geregelten Betrieb ermöglichen sollen.

Weiterlesen nach der Anzeige

Laut der Ankündigung von Eclipse ist ein solcher offener und transparenter Standard im Markt bisher nicht vorhanden, der es Unternehmen ermöglicht, hersteller- und modellunabhängige Agentensysteme einzuführen und zu unterhalten.

Im Konzept trennt ADL die Definition von Agentensystemen vom konkreten Prompting, wobei der Entwurf mit ADL in den Fachabteilungen geschieht, während im Idealfall ein Compiler die Umsetzung automatisiert in Prompts vollzieht und für die Lösung der Aufgabe benötigte Tools einbindet.


Schema ADL

Schema ADL

ADL trennt die Beschreibung von Agenten vom Prompting, das ein Compiler umsetzt.

Begrifflich gliedert die Sprache die Agenten in Use Cases ein, innerhalb derer sich verschiedene Szenarien ereignen. Hier agieren Nutzer mit Agenten oder Agenten untereinander. Die formalen Definitionen umfassen dabei:

  • UseCase Name: Eine prägnante, beschreibende Kennung, die den Anwendungsfall eindeutig identifiziert.
  • Description: Eine detaillierte Erläuterung der Situation oder Anfragen der Nutzerinnen und Nutzer.
  • Steps (optional): Eine Abfolge von Schritten, die der Agent ausführen muss, bevor er die endgültige Lösung bereitstellt.
  • Solution: Die empfohlene Lösung, um die Anfrage zu erfüllen.
  • Alternative Solution (optional): Eine alternative Lösung, die der Agent ausprobieren sollte, wenn der erste Vorschlag scheitert.
  • Fallback Solution (optional): Diese finale Ausweichmöglichkeit soll verhindern, dass der Agent in einer Schleife hängen bleibt, in der er immer wieder dieselben Vorschläge anbietet.
  • Examples (optional): Dieser Abschnitt stellt zusätzlichen Kontext bereit.

Weiterlesen nach der Anzeige

Im Code:


### UseCase: password_reset
#### Description
Customer has forgotten their password and needs to reset it.

#### Steps
- Ask the customer for their registered email address.
- Send a password reset link to the provided email address.

#### Solution
Guide the customer through the password reset process defined on the webpage 

#### Fallback Solution
If the customer cannot access their email, escalate the issue to a higher tier of support.

#### Examples
 - I forgot my password.


Weitere Elemente sind beispielsweise Flow Options, mit denen Anwenderinnen und Anwender Entscheidungsbäume implementieren:

[option 1] command
[option 2] command 2

Zum Ausprobieren bietet Eclipse einen Playground, in dem bereits ein erster Use Case „Automobile Example“ hinterlegt ist. Tiefergehende Infos finden sich in der technischen Doku.


ADL Playground

ADL Playground

Der Playground enthält bereits ein Beispiel für eine Anwendung mit ADL.

ADL bettet sich als Konzept in die Eclipse-Agentenplattform Language Model Operating System (LMOS), die zwei weitere Komponenten enthält: das ARC Agent Framework und die LMOS-Plattform. ARC bietet ein JVM-natives Framework mit Kotlin-Laufzeitumgebung zum Entwickeln, Testen und Erweitern von KI-Agenten mit visueller Schnittstelle. Diese hat ADL bereits implementiert.

Die LMOS-Plattform befindet sich noch im Alphastadium und soll als offene Orchestrierungsschicht für die Infrastruktur dienen und basiert auf den Open-Source-Tools aus dem Ökosystem der CNCF (Cloud Native Computing Foundation). LMOS ist bereits bei der Telekom als Basis für den Chatbot „Frag Magenta“ im Einsatz.


(who)



Source link

Entwicklung & Code

Red Hat integriert Nvidia CUDA in Enterprise-Linux und OpenShift


Red Hat und Nvidia haben eine erweiterte Partnerschaft angekündigt, die das CUDA-Toolkit direkt in Red Hats Produktportfolio integriert. Entwickler können künftig über die offiziellen Repositories von Red Hat Enterprise Linux (RHEL), OpenShift und Red Hat AI auf die essenziellen Werkzeuge für GPU-beschleunigte Anwendungen zugreifen. Das soll die Installation vereinfachen und Abhängigkeiten automatisch auflösen.

Weiterlesen nach der Anzeige

Die Integration adressiert eine zentrale Herausforderung beim Einsatz von KI-Systemen in Unternehmensumgebungen: die operative Komplexität beim Zusammenspiel verschiedener Komponenten. Entwickler müssen bislang einigen Aufwand betreiben, um kompatible Treiber zu identifizieren, Abhängigkeiten zu managen und Workloads zuverlässig auf unterschiedlichen Systemen zum Laufen zu bringen. Durch die direkte Distribution über Red Hats Plattformen entfällt dieser Integrationsaufwand weitgehend.

Das CUDA-Toolkit umfasst Compiler, Bibliotheken und Entwicklerwerkzeuge für die Programmierung auf Nvidia-GPUs. Die Bereitstellung erfolgt nun über einen einheitlichen, getesteten Software-Stack, der laut Red Hat eine konsistente Umgebung für KI-Workloads bietet – unabhängig davon, ob diese lokal, in Public Clouds oder am Edge betrieben werden. Dieser Ansatz entspricht Red Hats bisheriger Hybrid-Cloud-Strategie.

Red Hat betont den Open-Source-Charakter der Zusammenarbeit. Das Unternehmen positioniert sich als Brücke zwischen der Open-Hybrid-Cloud und Nvidias KI-Plattform, ohne dabei ein geschlossenes Ökosystem aufzubauen. Die Integration soll Unternehmen die Wahlfreiheit bei Tools und Technologien erhalten, während gleichzeitig eine stabile und sichere Plattform bereitgestellt wird.

Details zur Verfügbarkeit und zum genauen Zeitplan der Integration nannte Red Hat in der Ankündigung nicht.


(fo)



Source link

Weiterlesen

Entwicklung & Code

programmier.bar: Call for Papers mit Mirjam Aulbach


Der Call for Papers – oder Proposals/Participation – (CfP) entscheidet, welche Stimmen auf einer Konferenz gehört werden und welche nicht. Was passiert zwischen Einreichung und Entscheidung? Wer trifft die Auswahl und nach welchen Kriterien?

Weiterlesen nach der Anzeige

Mirjam Aulbach kennt den CfP aus beiden Perspektiven: von der Bühne und aus dem Programmbeirat, etwa bei der enterJS. Sie hat auf unzähligen Konferenzen präsentiert und war unter den Entscheiderinnen und Entscheidern diverser Konferenzen. Sie erklärt, warum ein CfP so wichtig ist und welche sonstigen Wege es für die Speaker-Akquise gibt. Gemeinsam mit Garrelt Mock und Jan Gregor Emge-Triebel spricht sie über die Herausforderung, faire Prozesse zu gestalten und warum am Ende trotzdem Kompromisse nötig sind.


enterJS 2026

enterJS 2026

(Bild: jaboy/123rf.com)

Call for Proposals für die enterJS 2026 am 16. und 17. Juni in Mannheim: Die Veranstalter iX und dpunkt.verlag suchen nach Vorträgen und Workshops rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Seit 2021 ist Mirjam Aulbach im Programmbeirat.

Zum Abschluss teilt Mirjam Aulbach ihre besten Tipps für alle, die schon länger mit dem Gedanken spielen, selbst einen Talk bei einer Konferenz einzureichen, und noch auf den richtigen Moment gewartet haben.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Call for Papers mit Mirjam Aulbach„. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.


(mai)





Source link

Weiterlesen

Entwicklung & Code

GitHub: „Generative KI ist jetzt der Standard“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

GitHub wächst. Laut eigenen Angaben hat die Entwicklerplattform mittlerweile mehr als 180 Millionen Nutzer und hostet 630 Millionen Softwareprojekte. Über die vergangenen zwölf Monate seien mehr als 36 Millionen Nutzer dazugekommen – auch dank KI, glaubt GitHub.

Die Zahlen stammen aus GitHubs jährlichem Octoverse-Bericht. Den hat die Microsoft-Tochter am 28. Oktober 2025 auf seiner Entwicklerkonferenz GitHub Universe in San Francisco vorgestellt. Jede Minute entstehen demnach 230 neue Repositorys, monatlich werden 43 Millionen Änderungsvorschläge angenommen. Insgesamt gab es 2025 bereits rund eine Milliarde Commits.

Sein Wachstum verdankt GitHub laut Report auch seinem Copilot. Fast 80 Prozent der neuen Nutzer setzen GitHubs KI-Coding-Assistenten bereits in der ersten Woche ein. „Generative KI ist jetzt der Standard bei der Entwicklung“, schreibt das Unternehmen. Außerdem lockt sie Entwickler an: Sechs der zehn aktivsten Open-Source-Projekte sind KI-Werkzeuge wie Codex oder Ollama.

Laut COO Kyle Daigle ist Copilot in Githubs eigener Codebasis bereits der größte Contributor. Nutzer setzen Copilot zum Code-Review ein. Knapp 73 Prozent der von GitHub befragten Entwickler gaben an, dass sie ihre Effektivität damit höher einstufen. Die Zahlen sind jedoch mit Vorsicht zu genießen, eine Studie von METR aus dem Sommer legt den Schluss nahe, dass solche anekdotischen Selbsteinschätzungen zu hoch liegen.

Nachdem 2024 erstmals Python den Spitzenplatz als meistgenutzte Programmiersprache errang, rückt nun TypeScript auf die Eins. Im August 2025 wurde die Skriptsprache erstmals mehr genutzt als Python und JavaScript. Diese Verschiebung schreibt GitHub der steigenden Verwendung KI-unterstützter Programmierung zu. „Der Aufstieg verdeutlicht, wie Entwickler zunehmend auf typisierte Sprachen umsteigen, die das agentenunterstützte Coden in der Produktion zuverlässiger machen“, schreibt GitHub.

Weiterlesen nach der Anzeige

Es gebe laut GitHub Zusammenhänge zwischen der Verbreitung von KI-Tools und wandelnden Sprachpräferenzen: „Diese und andere Veränderungen deuten darauf hin, dass KI nicht nur Einfluss darauf hat, wie schnell Code geschrieben wird, sondern auch darauf, welche Sprachen und Tools Entwickler verwenden.“ GitHubs auf der letzten Universe-Konferenz angekündigte KI-Coding-App Spark setzt ebenfalls auf TypeScript. Spark erzeugt Webanwendungen auf Basis von textbasierten Prompts in natürlicher Sprache.

Der Fokus auf KI schlägt sich auch in GitHubs eigener Produktentwicklung nieder. Das Unternehmen kündigte mit „Agent HQ“ die Möglichkeit an, externe KI-Agenten von Anthropic, OpenAI, Google, xAI und anderen in GitHub-Projekten einzusetzen. Die Funktion steht zahlenden Copilot-Abonnenten ab dieser Woche bereit.

Ob KI-unterstützt oder nicht, was für Code auf GitHub liegt, ist nur teilweise öffentlich. Private Repositorys machen mit rund 82 Prozent den Großteil des auf GitHub gehosteten Quellcodes aus. Insgesamt sind es fast 5 Milliarden Projekte, die von kostenpflichtigen Unternehmens- und Team-Accounts genutzt werden.

GitHub betont dennoch die Wichtigkeit von Open-Source-Projekten. Diese machten zwar einen kleineren Anteil aus, aber „stellen die Bibliotheken, Modelle und Workflows bereit, die das gesamte Ökosystem antreiben.“ Deutschland liegt übrigens auf Platz 5 der Herkunftsländer mit den meisten Beitragenden zu öffentlichen Repositorys, angeführt wird die Liste von Indien und den USA.

Entwickler, die erstmals Code veröffentlichen, tun das bei bestehenden Open-Source-Projekten. Neben der weiterhin beliebten Heimautomatisierungs-Software Home Assistant fand unter anderem der Zen Browser starken Zuwachs. Die meisten Contributors finden sich bei KI-Infrastruktur-Projekten wie VLLM, Codex, Hugging Face oder Ollama.


(dzi)



Source link

Weiterlesen

Beliebt