Künstliche Intelligenz
AGENTS.md: Hilfreiches Agentenbriefing oder Tokenfresser?
Die Datei AGENTS.md ist ein Readme für KI-Agenten: Ein fester Ort im Repository, an dem Build‑Schritte, Testkommandos, Tooling, Architekturlinien und Coding-Guidelines speziell für autonome Coding-Agenten beschrieben sind. Die Idee ist, dass Agenten diese Datei früh lesen und dadurch schneller verstehen, wie sie Tests ausführen, den Code strukturieren und welche Konventionen sie beachten müssen.
Weiterlesen nach der Anzeige
Anbieter wie OpenAI, Anthropic, GitHub und Qwen bewerben dieses Muster offensiv. Zudem bringen viele Frameworks Kommandozeilenbefehle wie /init mit, die aus einem bestehenden Repository automatisch eine AGENTS.md oder eine ähnliche Datei wie CLAUDE.md generieren. Dadurch hat sich der Standard rasant verbreitet: Im Jahr 2025 waren bereits zehntausende öffentliche GitHub-Repositorys mit Kontextdateien ausgestattet, die Tendenz ist steigend. Das AGENTS.md-Repository auf GitHub listet die Vorteile auf und zeigt Beispiele für den Aufbau solch einer Datei.
Ein Team an der ETH Zürich hat den Aufbau und die Nützlichkeit von AGENTS.md unter die Lupe genommen. Die Studie „Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?“ untersucht erstmals systematisch, welchen Effekt solche Dateien auf reale Agentenworkflows haben. Die Forschenden kombinieren dafür zwei Benchmarks: das etablierte SWE‑bench Lite mit 300 Aufgaben aus elf populären Python-Repositorys und das Benchmarktool AgentBench mit 138 Aufgaben aus zwölf weniger bekannten Repos, die alle echte, von Entwicklern geschriebene Kontextdateien enthalten.
Getestet hat das Team der Studie die Coding-Agenten Claude Code mit Sonnet 4.5, OpenAI Codex mit GPT-5.2 und GPT-5.1 mini sowie Qwen Code mit Qwen3-30B-Coder, jeweils in drei Varianten: ohne Kontextdatei, mit automatisch generierter Kontextdatei nach Empfehlung des jeweiligen Agentenentwicklers und – auf AgentBench – mit der real vorhandenen, von Entwicklern gepflegten Kontextdatei. Alle Agenten haben die Datei in ihren Kontext geladen, entweder AGENTS.md (für Codex- und Qwen-Code) oder CLAUDE.md (Claude Code). Die Erfolgsquote hat das Team dabei streng über Testsuites gemessen: Ein Task gilt nur dann als gelöst, wenn alle zugehörigen Tests nach Anwenden des Agentenpatches grün laufen.
Die Erkenntnis: kaum Nutzen, spürbare Kosten
Das Ergebnis ist ernüchternd: LLM‑generierte Kontextdateien reduzieren die Erfolgsrate im Mittel leicht – um etwa 0,5 Prozentpunkte bei SWE‑bench Lite und rund 2 bis 3 Prozentpunkte bei AgentBench, je nach Modell. Gleichzeitig steigen die Inferenzkosten im Schnitt um 20 bis 23 Prozent, weil die Agenten mehr Schritte ausführen und längere Reasoning‑Passagen produzieren.
Auch menschlich gepflegte Kontextdateien schneiden nur moderat besser ab: Sie verbessern die Erfolgsrate auf AgentBench im Mittel um etwa 4 Prozentpunkte gegenüber dem Szenario ganz ohne Kontextdatei, erhöhen aber ebenfalls die Anzahl der Agentenschritte und damit die Kosten – in einzelnen Set-ups um knapp 20 Prozent. Überspitzt formuliert bedeutet das: Für ein paar Prozentpunkte Erfolgsgewinn bezahlt man mit deutlich mehr Tokenverbrauch, längeren Laufzeiten und komplexeren Agenten-Traces.
Die Studie zeigt, dass Agenten die Anweisungen in Kontextdateien ernst nehmen: Sind bestimmte Tools oder Workflows erwähnt, nutzen Agenten sie häufiger – etwa Projektskripte, pytest, uv oder repositoryspezifische Hilfstools. Kontextdateien führen auch zu mehr Tests, mehr Dateizugriffen und ausführlicherer Repositorynavigation. Das Problem ist also nicht, dass die Modelle Kontextinstruktionen ignorieren.
Weiterlesen nach der Anzeige
Die zusätzliche Aktivität macht die Aufgaben jedoch schwieriger: Mehr Anweisungen bedeuten mehr Dinge, die der Agent berücksichtigen und gegeneinander abwägen muss, was sich in mehr Reasoning-Token pro Task niederschlägt. Gleichzeitig funktionieren Kontextdateien schlecht als Repository-Overview: Die Agenten finden die für einen Bugfix relevanten Dateien im Schnitt nicht schneller als ohne AGENTS.md, obwohl viele Dateien explizit Verzeichnisstrukturen, Komponenten und Einstiegspunkte beschreiben.
Redundante Dokumentation statt gezielten Mehrwerts
Eine wichtige Beobachtung des ETH-Teams ist, dass LLM‑generierte Kontextdateien meist redundant zur bestehenden Dokumentation sind: Readme, Contributing, Docs‑Ordner und Beispiele enthalten bereits Build‑und Testhinweise, Architekturübersichten und Stilvorgaben, die die Agenten via Dateizugriff ebenfalls nutzen können. In einem Ablationsexperiment entfernten die Forschenden deshalb alle anderen Dokumentationsdateien aus dem Repository und ließen nur die generierte Kontextdatei stehen. Ein Ablationsexperiment (Ablation Study) ist eine Methode zur Evaluierung von KI-Modellen, bei der gezielt spezifische Komponenten wie ein Feature, ein Layer oder Module entfernt oder verändert wurden, um deren Einfluss auf die Gesamtleistung zu messen.
In solch einem dokumentationsarmen Setting kippt das Bild: Plötzlich verbessern die generierten Kontextdateien die Erfolgsrate der Agenten im Schnitt um rund 2,7 Prozentpunkte und schneiden teilweise sogar besser ab als die ursprünglichen Entwicklerdokumente. Die naheliegende Interpretation: Kontextdateien sind dann hilfreich, wenn sie echte Wissenslücken der Agenten füllen und nicht, wenn sie bereits vorhandene Informationen noch einmal in leicht anderer Form wiederholen.
Eine separate empirische Analyse von über 2.300 Agenten-Readmes aus knapp 2.000 Repositorys zeigt, wie Entwickler solche Dateien heute nutzen (siehe Studie „Agent READMEs: An Empirical Study of Context Files for Agentic Coding“). Am häufigsten enthalten sie funktionalen Kontext: Build‑ und Run‑Kommandos (in gut 60 Prozent der Fälle), Implementationsdetails (knapp 70 Prozent) und Architekturhinweise (rund 68 Prozent).
Deutlich unterrepräsentiert sind dagegen nicht funktionale Anforderungen wie Sicherheit und Performance, die nur jeweils in rund 15 Prozent der Dateien explizit adressiert sind. Zudem sind viele Dateien lang, schwer lesbar und entwickeln sich eher wie Konfigurationsartefakte mit vielen kleinen Ergänzungen als wie klar kuratierte Dokumente – ein weiterer Hinweis darauf, warum generalistische Kontextdateien für Agenten schnell zur kognitiven Last heranwachsen.
Praktische Leitlinien für den Einsatz
Aus Sicht der Praxis ergeben sich daraus einige Empfehlungen für den produktiven Einsatz von AGENTS.md (siehe GitHub-Blogartikel „How to write a great agents.md“):
- Nichts wiederholen, was schon im Readme und in Docs steht. Doppelte Projektbeschreibungen oder lange Architekturexkurse sind zu vermeiden, wenn sie bereits an anderer Stelle gepflegt sind.
- Schwerpunkt auf fehlendem, schwer zu erschließendem Kontext. Dazu gehören projekt- oder teamspezifische Skripte, besondere Test‑Set-ups, nicht offensichtliche Fallstricke oder domänenspezifische Invarianten, die der Agent sonst nur durch intensives Trial and Error lernen würde.
- Minimalistische testbare Regeln statt Wunschliste. Jede zusätzliche Regel erhöht die Suchfläche für den Agenten. Sinnvoll sind wenige, klar begründete Anforderungen, etwa „Tests immer über
make test-cilaufen lassen“ statt eines halben Dutzends alternativer Workflows. - Agentenrolle klar zuschneiden. GitHub berichtet aus der Analyse von über 2.500 AGENTS.md-Dateien, dass spezialisierte Rollen – beispielsweise ein reiner Testagent oder Docs‑Agent – besser funktionieren als generische Anweisungen.
- Iterativ verbessern statt im Vorfeld alles perfektionieren. Erfolgreiche Agenten-Readmes entstehen dadurch, dass Teams typische Fehlervarianten des Agenten beobachten und daraus gezielte, knappe Korrekturanweisungen ableiten.
Zudem kann es hilfreich sein, den Agenten selbst seine eigene AGENTS.md optimieren zu lassen. Das LLM kann eine AGENTS.md analysieren und verbessern, indem es unklare Formulierungen, Widersprüche, Redundanzen oder fehlende Entscheidungsregeln erkennt und präziser formuliert. Die überarbeiteten Anweisungen steuern später das Verhalten eines Agenten. Besonders sinnvoll ist das, wenn das Resultat nicht nur das Umschreiben der Datei ist, sondern diese anschließend auch mit Beispielaufgaben getestet wird, um zu sehen, ob der Agent die gewünschten Regeln tatsächlich besser befolgt. Am zuverlässigsten ist deshalb ein iterativer Prozess, der analysiert, überarbeitet und testet, statt sich nur auf eine sprachlich schönere Version zu verlassen.
Implikationen für Teams mit Coding-Agenten
Für Entwicklungsteams ist AGENTS.md kein kostenloser Produktivitätsturbo, sondern ein Steuerungsinstrument, bei dem sie Kompromisse eingehen müssen. Automatisch generierte, stark redundante Kontextdateien verschlechtern in der aktuellen Evidenzlage die Erfolgsraten, verteuern jeden Agentenlauf und erzeugen komplexere Traces, die schwerer zu debuggen sind.
Hilfreich sind Repositorykontextdateien vor allem dort, wo sie gezielt fehlende Informationen bereitstellen, etwa in schlecht dokumentierten oder speziellen Codebasen, für Nischen-Toolchains oder klar abgegrenzte Agentenrollen. Die Aussage „Readme für KI-Agenten“ der AGENTS.md-Website ist daher wörtlich zu nehmen: nicht als weitere vollständige Dokumentation, sondern als schlanke, präzise Betriebsanleitung, die Agenten genau so viel Kontext gibt, wie sie für robuste Ergebnisse brauchen – und kein Token mehr.
(nb)
Künstliche Intelligenz
Slack statt Salesforce: Slackbot wird CRM-Oberfläche
Salesforce will Slackbot zum Dreh- und Angelpunkt seines „Agentic Enterprise“ machen. Der Assistent soll künftig nicht mehr nur Fragen beantworten, sondern Aufgaben über mehrere Systeme hinweg koordinieren. Nutzer rufen per Text oder Sprache Informationen ab, aktualisieren Datensätze, starten Workflows oder beauftragen KI-Agenten. Dabei müssen sie nicht mehr die Anwendung wechseln.
Weiterlesen nach der Anzeige
Slackbot als MCP-Client
Technisch zentral ist die neue Rolle von Slackbot als Client für das Model Context Protocol (MCP). Der offene Standard verbindet große Sprachmodelle mit externen Tools, Datenquellen und Anwendungen. Slackbot leitet Anfragen an Salesforces KI-Plattform Agentforce oder andere angebundene Agenten und Apps weiter. Konkret heißt das: Wer eine Opportunity aktualisieren, einen Servicefall eskalieren oder einen Bericht abrufen will, tippt die Anfrage in Slack ein. Slackbot ermittelt das zuständige System und führt die Aktion aus.
Neu sind außerdem sogenannte KI-Skills: Das sind vordefinierte Aufgabenbausteine, die Eingaben, Arbeitsschritte und Ausgabeformat einmal festlegen. Typische Anwendungsfälle sind laut Salesforce Pipeline-Zusammenfassungen, Incident-Reports oder Kampagnen-Briefings. Slackbot erkennt, wenn eine Anfrage zu einem vorhandenen Skill passt, und wendet ihn automatisch an. Was ein Teammitglied einmal anlegt, steht damit dem gesamten Team zur Verfügung.
Meeting-Assistent mit CRM-Anbindung
Auf Wunsch nimmt Slackbot Meetings im Hintergrund auf, extrahiert Entscheidungen und Aufgaben und liefert eine strukturierte Zusammenfassung in Slack. Anschließend kann der Assistent automatisch, also ohne manuelle Eingabe durch den Nutzer, Opportunities im CRM aktualisieren, Next Steps erfassen oder Workflows anstoßen.
Slackbot arbeitet künftig auch außerhalb von Slack: Der Assistent erkennt, was auf dem Desktop geöffnet ist, und reagiert darauf. Nutzer können markierte Inhalte zusammenfassen, Risiken hervorheben oder Folgeaktionen vorbereiten lassen. Die bestehenden Berechtigungen und Governance-Regeln aus Slack gelten dabei weiter – neue Zugriffsrichtlinien sind laut Salesforce nicht nötig.
Weiterlesen nach der Anzeige
CRM direkt in Slack
Salesforce bringt CRM-Funktionen stärker in Slack selbst. Kleinere Unternehmen bekommen eine native Kundenverwaltung: Slackbot wertet Gespräche in Kanälen aus und pflegt Kontakte, Deals und Gesprächsnotizen automatisch. Wer mehr braucht, kann später auf das vollständige Salesforce-CRM umsteigen; die Daten sind bereits verknüpft.
Enterprise-Kunden erhalten eine Chat-Oberfläche für Customer 360. Sie können Opportunities bearbeiten, Accounts recherchieren, Cases weiterleiten oder Workflows starten, ohne die Salesforce-Oberfläche zu öffnen.
Darüber hinaus kündigt Salesforce Deep Research, Spracheingabe, teilbare Prompts und eine Memory-Funktion an. Letztere merkt sich Vorlieben und Arbeitsweisen einzelner Nutzer – etwa bevorzugte Ausgabeformate oder häufig genutzte Abläufe – und passt Antworten entsprechend an.
Plattformstrategie und Verfügbarkeit
Slackbot greift laut Salesforce auf mehr als 2600 Apps im Slack Marketplace und über 6000 Integrationen in der Salesforce AppExchange zu. Damit positioniert das Unternehmen Slack als zentrale Zugriffsschicht für Unternehmensanwendungen verschiedener Hersteller.
Slackbot steht ab sofort in den Tarifen Business+ und Enterprise+ bereit. Ab April 2026 bekommen auch Nutzer der Free- und Pro-Pläne ein begrenztes Kontingent an Konversationen. Neue Salesforce-Kunden erhalten Slack ab Sommer 2026 automatisch eingerichtet und mit Salesforce verbunden.
Alle Informationen zu den Ankündigungen finden sich bei Salesforce.
(fo)
Künstliche Intelligenz
Kia EV5 im Test: Solide gemacht auch ohne 800-Volt-Plattform
Elektroautos mit dem Modularen Elektrifizierungs-Baukasten (MEB) aus dem Volkswagen-Konzern dominieren den deutschen Markt: Sie sind inzwischen solide gemacht. Vielleicht etwas langweilig, aber eben erfolgreich. Einen ziemlich guten Ruf als Alternative gerade bei den Elektroautos hat sich vor allem die Hyundai Group mit den Marken Hyundai, Kia und Genesis erarbeitet. Das neueste Angebot ist der Kia EV5, ein geradliniges SUV, aufrecht und schlicht. Der EV5 hat auf dem europäischen Markt in jeder Version eine Traktionsbatterie mit 81,4 kWh Energieinhalt. Genug für eine Normreichweite von 505 bis 530 km. Für den Praxistest hat Kia den EV5 mit Frontantrieb und als „GT Line“ zur Verfügung gestellt. Der offizielle Bruttolistenpreis: 51.990 Euro.
- Der Kia EV5 wird in Deutschland seit Mitte November ausgeliefert.
- Länge/ Breite (ohne Außenspiegel)/ Höhe: 4,61 m/ 1,88 m/ 1,68 m
- Antriebe mit 160 und 195 kW
- Eine Batterie mit 81,4 kWh
- Preis ab 45.990 Euro
- Größte Stärke: Komfortables Fahrverhalten, durchdachte Bedienung
- Größte Schwäche: Zum Teil nervende und wenig brauchbare Assistenzsysteme
Aufrechtes Cruisen
Der EV5 ist kein Crossover, er ist ein SUV. Länge (4,61 m) und Breite (1,88 m ohne Außenspiegel) sind typisch für dieses Segment, die Höhe von 1,68 m fällt dagegen auf: Hier ist die Sitzposition wahrhaft erhöht. Die A-Säule steht relativ steil, und der Blick richtet sich auf die Kanten der Vorderhaube. Das Fahrgefühl ähnelt einem der weltweit meistverkauften SUVs, nämlich dem Toyota RAV4 (Test). Der Kia EV5 ist ein feiner Cruiser. Wer es unbedingt will, kann ihn durch die Kurven hetzen, aber das passt einfach nicht, weil der EV5 komfortabel und weich ausgelegt ist. Am besten funktioniert dieses Elektroauto, wenn man es rollen lässt, leise und angenehm. Dass es bei Bedarf angemessen (in 8,4 Sekunden auf 100 km/h) nach vorne geht, ist eigentlich nicht erwähnenswert, gehört der guten Form halber aber dazu.

Große Kopffreiheit, ebene Ladefläche
Die Karosserieform hat den Vorteil, dass die Menschen bequem sitzen, und zwar inklusive einer großen Kopffreiheit, die auch hinten nicht durch eine abfallende Dachlinie begrenzt wird. Überhaupt, die Rücksitze: Sie sind so montiert, dass es nicht zu den unangenehmen Kniewinkeln kommt, die bei vielen Elektroautos wegen des hohen Fahrzeugbodens zu finden sind. Stattdessen hat Kia eine Konstruktion gebaut, die per Hebel erst den Neigungswinkel der Lehne verstellt und im Weiteren zum vollständigen Umklappen bei zeitgleichem Absenken der Sitzflächen führt. Der Clou: So entsteht ein ebener Ladeboden, auf dem eventuelle Lücken durch Stoff überdeckt werden. Schön zu sehen, wenn jemand so richtig nachgedacht hat. Die Daten des Kofferraums nach VDA-Norm: Das Volumen beträgt 566 Liter und kann auf 1650 Liter erweitert werden. Das Fach unter der Vorderhaube sieht etwas verloren aus und fasst weitere 44,4 Liter. So weit, so gut. Ein ähnlich langer VW ID.4 kommt auf 543 bis 1575 Liter; einen Frunk gibt es für ihn nur im Zubehörhandel.
Das war die Leseprobe unseres heise-Plus-Artikels „Kia EV5 im Test: Solide gemacht auch ohne 800-Volt-Plattform“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Smarte Lesehilfe mit einem Raspberry Pi selber bauen
Ich war auf der Suche nach einer digitalen Lesehilfe mit großem Vergrößerungsfaktor für Menschen mit eingeschränkter Sehkraft. Ich hatte bereits zu Lesehilfen mit Kamera und Display recherchiert.
Kommerzielle Lösungen konnten mich leider nicht überzeugen, vor allem die Displaygröße, die meistens um die fünf Zoll beträgt, war mir einfach zu klein. Zum Glück kann man sich als Maker mit einem Raspberry Pi die perfekte Lösung selbst bauen.
Die Anforderungen an meine Umsetzung waren wie folgt: Man soll den Zoomlevel dynamisch ändern können, alles soll live in der vollen Displaygröße des angeschlossenen Monitors dargestellt werden und der Pi soll das Bild für bessere Lesbarkeit aufbereiten. Genauer gesagt: verbesserter Kontrast und korrigierte Bildverzerrung. Und zur Krönung soll der Text per OCR (Optical character recognition – Texterkennung) erkannt und über den Lautsprecher per TTS (Text-to-Speech) vorgelesen werden. All das verpackt in einem möglichst einfach zu bedienenden Gerät.
Das war die Leseprobe unseres heise-Plus-Artikels „Smarte Lesehilfe mit einem Raspberry Pi selber bauen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Entwicklung & Codevor 4 WochenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
