Künstliche Intelligenz
AGENTS.md: Hilfreiches Agentenbriefing oder Tokenfresser?
Die Datei AGENTS.md ist ein Readme für KI-Agenten: Ein fester Ort im Repository, an dem Build‑Schritte, Testkommandos, Tooling, Architekturlinien und Coding-Guidelines speziell für autonome Coding-Agenten beschrieben sind. Die Idee ist, dass Agenten diese Datei früh lesen und dadurch schneller verstehen, wie sie Tests ausführen, den Code strukturieren und welche Konventionen sie beachten müssen.
Weiterlesen nach der Anzeige
Anbieter wie OpenAI, Anthropic, GitHub und Qwen bewerben dieses Muster offensiv. Zudem bringen viele Frameworks Kommandozeilenbefehle wie /init mit, die aus einem bestehenden Repository automatisch eine AGENTS.md oder eine ähnliche Datei wie CLAUDE.md generieren. Dadurch hat sich der Standard rasant verbreitet: Im Jahr 2025 waren bereits zehntausende öffentliche GitHub-Repositorys mit Kontextdateien ausgestattet, die Tendenz ist steigend. Das AGENTS.md-Repository auf GitHub listet die Vorteile auf und zeigt Beispiele für den Aufbau solch einer Datei.
Ein Team an der ETH Zürich hat den Aufbau und die Nützlichkeit von AGENTS.md unter die Lupe genommen. Die Studie „Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?“ untersucht erstmals systematisch, welchen Effekt solche Dateien auf reale Agentenworkflows haben. Die Forschenden kombinieren dafür zwei Benchmarks: das etablierte SWE‑bench Lite mit 300 Aufgaben aus elf populären Python-Repositorys und das Benchmarktool AgentBench mit 138 Aufgaben aus zwölf weniger bekannten Repos, die alle echte, von Entwicklern geschriebene Kontextdateien enthalten.
Getestet hat das Team der Studie die Coding-Agenten Claude Code mit Sonnet 4.5, OpenAI Codex mit GPT-5.2 und GPT-5.1 mini sowie Qwen Code mit Qwen3-30B-Coder, jeweils in drei Varianten: ohne Kontextdatei, mit automatisch generierter Kontextdatei nach Empfehlung des jeweiligen Agentenentwicklers und – auf AgentBench – mit der real vorhandenen, von Entwicklern gepflegten Kontextdatei. Alle Agenten haben die Datei in ihren Kontext geladen, entweder AGENTS.md (für Codex- und Qwen-Code) oder CLAUDE.md (Claude Code). Die Erfolgsquote hat das Team dabei streng über Testsuites gemessen: Ein Task gilt nur dann als gelöst, wenn alle zugehörigen Tests nach Anwenden des Agentenpatches grün laufen.
Die Erkenntnis: kaum Nutzen, spürbare Kosten
Das Ergebnis ist ernüchternd: LLM‑generierte Kontextdateien reduzieren die Erfolgsrate im Mittel leicht – um etwa 0,5 Prozentpunkte bei SWE‑bench Lite und rund 2 bis 3 Prozentpunkte bei AgentBench, je nach Modell. Gleichzeitig steigen die Inferenzkosten im Schnitt um 20 bis 23 Prozent, weil die Agenten mehr Schritte ausführen und längere Reasoning‑Passagen produzieren.
Auch menschlich gepflegte Kontextdateien schneiden nur moderat besser ab: Sie verbessern die Erfolgsrate auf AgentBench im Mittel um etwa 4 Prozentpunkte gegenüber dem Szenario ganz ohne Kontextdatei, erhöhen aber ebenfalls die Anzahl der Agentenschritte und damit die Kosten – in einzelnen Set-ups um knapp 20 Prozent. Überspitzt formuliert bedeutet das: Für ein paar Prozentpunkte Erfolgsgewinn bezahlt man mit deutlich mehr Tokenverbrauch, längeren Laufzeiten und komplexeren Agenten-Traces.
Die Studie zeigt, dass Agenten die Anweisungen in Kontextdateien ernst nehmen: Sind bestimmte Tools oder Workflows erwähnt, nutzen Agenten sie häufiger – etwa Projektskripte, pytest, uv oder repositoryspezifische Hilfstools. Kontextdateien führen auch zu mehr Tests, mehr Dateizugriffen und ausführlicherer Repositorynavigation. Das Problem ist also nicht, dass die Modelle Kontextinstruktionen ignorieren.
Weiterlesen nach der Anzeige
Die zusätzliche Aktivität macht die Aufgaben jedoch schwieriger: Mehr Anweisungen bedeuten mehr Dinge, die der Agent berücksichtigen und gegeneinander abwägen muss, was sich in mehr Reasoning-Token pro Task niederschlägt. Gleichzeitig funktionieren Kontextdateien schlecht als Repository-Overview: Die Agenten finden die für einen Bugfix relevanten Dateien im Schnitt nicht schneller als ohne AGENTS.md, obwohl viele Dateien explizit Verzeichnisstrukturen, Komponenten und Einstiegspunkte beschreiben.
Redundante Dokumentation statt gezielten Mehrwerts
Eine wichtige Beobachtung des ETH-Teams ist, dass LLM‑generierte Kontextdateien meist redundant zur bestehenden Dokumentation sind: Readme, Contributing, Docs‑Ordner und Beispiele enthalten bereits Build‑und Testhinweise, Architekturübersichten und Stilvorgaben, die die Agenten via Dateizugriff ebenfalls nutzen können. In einem Ablationsexperiment entfernten die Forschenden deshalb alle anderen Dokumentationsdateien aus dem Repository und ließen nur die generierte Kontextdatei stehen. Ein Ablationsexperiment (Ablation Study) ist eine Methode zur Evaluierung von KI-Modellen, bei der gezielt spezifische Komponenten wie ein Feature, ein Layer oder Module entfernt oder verändert wurden, um deren Einfluss auf die Gesamtleistung zu messen.
In solch einem dokumentationsarmen Setting kippt das Bild: Plötzlich verbessern die generierten Kontextdateien die Erfolgsrate der Agenten im Schnitt um rund 2,7 Prozentpunkte und schneiden teilweise sogar besser ab als die ursprünglichen Entwicklerdokumente. Die naheliegende Interpretation: Kontextdateien sind dann hilfreich, wenn sie echte Wissenslücken der Agenten füllen und nicht, wenn sie bereits vorhandene Informationen noch einmal in leicht anderer Form wiederholen.
Eine separate empirische Analyse von über 2.300 Agenten-Readmes aus knapp 2.000 Repositorys zeigt, wie Entwickler solche Dateien heute nutzen (siehe Studie „Agent READMEs: An Empirical Study of Context Files for Agentic Coding“). Am häufigsten enthalten sie funktionalen Kontext: Build‑ und Run‑Kommandos (in gut 60 Prozent der Fälle), Implementationsdetails (knapp 70 Prozent) und Architekturhinweise (rund 68 Prozent).
Deutlich unterrepräsentiert sind dagegen nicht funktionale Anforderungen wie Sicherheit und Performance, die nur jeweils in rund 15 Prozent der Dateien explizit adressiert sind. Zudem sind viele Dateien lang, schwer lesbar und entwickeln sich eher wie Konfigurationsartefakte mit vielen kleinen Ergänzungen als wie klar kuratierte Dokumente – ein weiterer Hinweis darauf, warum generalistische Kontextdateien für Agenten schnell zur kognitiven Last heranwachsen.
Praktische Leitlinien für den Einsatz
Aus Sicht der Praxis ergeben sich daraus einige Empfehlungen für den produktiven Einsatz von AGENTS.md (siehe GitHub-Blogartikel „How to write a great agents.md“):
- Nichts wiederholen, was schon im Readme und in Docs steht. Doppelte Projektbeschreibungen oder lange Architekturexkurse sind zu vermeiden, wenn sie bereits an anderer Stelle gepflegt sind.
- Schwerpunkt auf fehlendem, schwer zu erschließendem Kontext. Dazu gehören projekt- oder teamspezifische Skripte, besondere Test‑Set-ups, nicht offensichtliche Fallstricke oder domänenspezifische Invarianten, die der Agent sonst nur durch intensives Trial and Error lernen würde.
- Minimalistische testbare Regeln statt Wunschliste. Jede zusätzliche Regel erhöht die Suchfläche für den Agenten. Sinnvoll sind wenige, klar begründete Anforderungen, etwa „Tests immer über
make test-cilaufen lassen“ statt eines halben Dutzends alternativer Workflows. - Agentenrolle klar zuschneiden. GitHub berichtet aus der Analyse von über 2.500 AGENTS.md-Dateien, dass spezialisierte Rollen – beispielsweise ein reiner Testagent oder Docs‑Agent – besser funktionieren als generische Anweisungen.
- Iterativ verbessern statt im Vorfeld alles perfektionieren. Erfolgreiche Agenten-Readmes entstehen dadurch, dass Teams typische Fehlervarianten des Agenten beobachten und daraus gezielte, knappe Korrekturanweisungen ableiten.
Zudem kann es hilfreich sein, den Agenten selbst seine eigene AGENTS.md optimieren zu lassen. Das LLM kann eine AGENTS.md analysieren und verbessern, indem es unklare Formulierungen, Widersprüche, Redundanzen oder fehlende Entscheidungsregeln erkennt und präziser formuliert. Die überarbeiteten Anweisungen steuern später das Verhalten eines Agenten. Besonders sinnvoll ist das, wenn das Resultat nicht nur das Umschreiben der Datei ist, sondern diese anschließend auch mit Beispielaufgaben getestet wird, um zu sehen, ob der Agent die gewünschten Regeln tatsächlich besser befolgt. Am zuverlässigsten ist deshalb ein iterativer Prozess, der analysiert, überarbeitet und testet, statt sich nur auf eine sprachlich schönere Version zu verlassen.
Implikationen für Teams mit Coding-Agenten
Für Entwicklungsteams ist AGENTS.md kein kostenloser Produktivitätsturbo, sondern ein Steuerungsinstrument, bei dem sie Kompromisse eingehen müssen. Automatisch generierte, stark redundante Kontextdateien verschlechtern in der aktuellen Evidenzlage die Erfolgsraten, verteuern jeden Agentenlauf und erzeugen komplexere Traces, die schwerer zu debuggen sind.
Hilfreich sind Repositorykontextdateien vor allem dort, wo sie gezielt fehlende Informationen bereitstellen, etwa in schlecht dokumentierten oder speziellen Codebasen, für Nischen-Toolchains oder klar abgegrenzte Agentenrollen. Die Aussage „Readme für KI-Agenten“ der AGENTS.md-Website ist daher wörtlich zu nehmen: nicht als weitere vollständige Dokumentation, sondern als schlanke, präzise Betriebsanleitung, die Agenten genau so viel Kontext gibt, wie sie für robuste Ergebnisse brauchen – und kein Token mehr.
(nb)
Künstliche Intelligenz
Artemis II: Fotos (auch) vom iPhone 17 Pro Max – von der Erde und dem Mond
Die vier Astronauten, die derzeit auf der Artemis-II-Mission zum Mond sind (und am Freitag zurück auf der Erde erwartet werden), haben auch aktuelles Foto-Equipment dabei. Neben einer Nikon Z9, D5 und einer GoPro Hero4 sind es auch insgesamt vier iPhone-17-Pro-Max-Geräte, wie Galerien auf der NASA-Website sowie Flickr zu entnehmen ist. Zu den iPhone-Aufnahmen zählt etwa eine ikonische Aufnahme mit der Erde im Hintergrund sowie Bilder vom Mond selbst – letzteres wurde auch über den NASA-Livestream verbreitet, wo man sehen kann, wie das Bild samt Apples Dynamic Island geschossen wurde.
Weiterlesen nach der Anzeige
Weltraum-PR dank iPhone
Die NASA hatte im Februar mitgeteilt, dass die Mannschaft von Artemis II „die neuesten Smartphone“ an Bord haben werde – zudem die Crew-12-Mission von SpaceX und weitere Missionen. Das iPhone sei erstmals für eine Verwendung im Orbit und darüber hinaus „vollständig von der Weltraumbehörde qualifiziert“ worden, hieß es. Zuvor hatten NASA-Astronauten ihre persönlichen Smartphones nicht ins All mitnehmen dürfen, diverse andere Kameras waren aber erlaubt.
Welche Modelle mitgenommen werden, war zunächst unklar, nun hat sich gezeigt, dass es die aktuell teuersten und besten iPhones sind. Das iPhone 17 Pro Max war im Herbst 2026 erschienen. Der NASA geht es bei der Smartphone-Verwendung explizit darum, dass die Astronauten auch für sich selbst und ihre Familien Schnappschüsse anfertigen können – unter der Hoffnung, dass diese Bilder und Videos dann mit der Welt geteilt werden, also eine Art Weltraum-PR.
Artemis II soll am Freitag zurück sein
Die Mission Artemis II ist für die nächsten Tage vorgesehen. Bis dahin ist der Vorbeiflug am Mond – der Erste seit 1972 – abgeschlossen und die Rückkehr eingeleitet. Die Weltraumkapsel Orion soll dann am 10. April wieder auf der Erde landen – beziehungsweise an Fallschirmen zum Ozean schweben. Eine Landung auf dem Mond ist mit Orion nicht möglich.
Eine solche ist erst für weitere Missionen geplant. Artemis II hatte allerdings bereits einen neuen Rekord erreicht: Kein Mensch war jemals weiter von der Erde entfernt als die vier Besatzungsmitglieder. Damit wurde ein Weltraumrekord von 1970 gebrochen, jener der berühmten Apollo-13-Mission.
Weiterlesen nach der Anzeige
Unser Liveticker zu Artemis II
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.
(bsc)
Künstliche Intelligenz
Microsoft ändert Löschverhalten von OneDrive
Die Cloudspeicher-Software OneDrive von Microsoft soll sich künftig anders verhalten, wenn Dateien in der Cloud gelöscht werden. Sie tauchen dann nur noch im Web-Papierkorb von OneDrive oder SharePoint auf.
Weiterlesen nach der Anzeige
Das hat Microsoft im Microsoft-365-Admin-Center angekündigt (MC1269861, Kopie bei merill.net). Ab Mai 2026 will Microsoft die Verhaltensänderung weltweit einführen und die Verteilung bis Ende des Monats abgeschlossen haben. Dateien, die in OneDrive in der Cloud gelöscht werden, tauchen danach nicht mehr im lokalen Papierkorb auf. Sie lassen sich aus dem OneDrive- oder SharePoint-Web-Papierkorb wiederherstellen.
Lokale Löschvorgänge bleiben davon unberührt, erklärt Microsoft weiter. Admins müssen nichts machen, jedoch empfehlen die Redmonder, dass sie die Nutzer und Nutzerinnen in ihrer Organisation über den neuen Wiederherstellungsprozess informieren sollten.
Bessere Performance und Berechenbarkeit
Als Grund für die Änderung gibt Microsoft an, dass dadurch die Synchronisationsgeschwindigkeit und Vorhersehbarkeit des OneDrive-Verhaltens verbessert würden. Es handelt sich dabei um eine Änderung, wie aus der Cloud initiierte Löschvorgänge lokal gehandhabt werden. Wenn lokal verfügbare Dateien auf einem Gerät in der Cloud gelöscht werden, tauchen sie nicht mehr im lokalen Papierkorb von macOS oder Windows auf. Eine Wiederherstellung ist dann aus dem Web-Papierkorb von OneDrive oder SharePoint möglich – standardmäßig für bis zu 93 Tage.
Keine Änderungen gibt es bei Dateien, die ausschließlich in der Cloud liegen (Files On-Demand). Dateien, die lokal auf dem Gerät gelöscht werden, tauchen jedoch weiterhin im lokalen Papierkorb auf. Für diese Änderung stellt Microsoft keine Einstellungen oder gar ein Opt-Out bereit.
Wer mehr Kontrolle über den eigenen Cloudspeicher möchte, kann sich etwa Nextcloud ansehen. Der damit aufgesetzte Netzspeicher lässt sich zudem mit diversen nützlichen Apps erweitern.
Weiterlesen nach der Anzeige
(dmk)
Künstliche Intelligenz
Slack statt Salesforce: Slackbot wird CRM-Oberfläche
Salesforce will Slackbot zum Dreh- und Angelpunkt seines „Agentic Enterprise“ machen. Der Assistent soll künftig nicht mehr nur Fragen beantworten, sondern Aufgaben über mehrere Systeme hinweg koordinieren. Nutzer rufen per Text oder Sprache Informationen ab, aktualisieren Datensätze, starten Workflows oder beauftragen KI-Agenten. Dabei müssen sie nicht mehr die Anwendung wechseln.
Weiterlesen nach der Anzeige
Slackbot als MCP-Client
Technisch zentral ist die neue Rolle von Slackbot als Client für das Model Context Protocol (MCP). Der offene Standard verbindet große Sprachmodelle mit externen Tools, Datenquellen und Anwendungen. Slackbot leitet Anfragen an Salesforces KI-Plattform Agentforce oder andere angebundene Agenten und Apps weiter. Konkret heißt das: Wer eine Opportunity aktualisieren, einen Servicefall eskalieren oder einen Bericht abrufen will, tippt die Anfrage in Slack ein. Slackbot ermittelt das zuständige System und führt die Aktion aus.
Neu sind außerdem sogenannte KI-Skills: Das sind vordefinierte Aufgabenbausteine, die Eingaben, Arbeitsschritte und Ausgabeformat einmal festlegen. Typische Anwendungsfälle sind laut Salesforce Pipeline-Zusammenfassungen, Incident-Reports oder Kampagnen-Briefings. Slackbot erkennt, wenn eine Anfrage zu einem vorhandenen Skill passt, und wendet ihn automatisch an. Was ein Teammitglied einmal anlegt, steht damit dem gesamten Team zur Verfügung.
Meeting-Assistent mit CRM-Anbindung
Auf Wunsch nimmt Slackbot Meetings im Hintergrund auf, extrahiert Entscheidungen und Aufgaben und liefert eine strukturierte Zusammenfassung in Slack. Anschließend kann der Assistent automatisch, also ohne manuelle Eingabe durch den Nutzer, Opportunities im CRM aktualisieren, Next Steps erfassen oder Workflows anstoßen.
Slackbot arbeitet künftig auch außerhalb von Slack: Der Assistent erkennt, was auf dem Desktop geöffnet ist, und reagiert darauf. Nutzer können markierte Inhalte zusammenfassen, Risiken hervorheben oder Folgeaktionen vorbereiten lassen. Die bestehenden Berechtigungen und Governance-Regeln aus Slack gelten dabei weiter – neue Zugriffsrichtlinien sind laut Salesforce nicht nötig.
Weiterlesen nach der Anzeige
CRM direkt in Slack
Salesforce bringt CRM-Funktionen stärker in Slack selbst. Kleinere Unternehmen bekommen eine native Kundenverwaltung: Slackbot wertet Gespräche in Kanälen aus und pflegt Kontakte, Deals und Gesprächsnotizen automatisch. Wer mehr braucht, kann später auf das vollständige Salesforce-CRM umsteigen; die Daten sind bereits verknüpft.
Enterprise-Kunden erhalten eine Chat-Oberfläche für Customer 360. Sie können Opportunities bearbeiten, Accounts recherchieren, Cases weiterleiten oder Workflows starten, ohne die Salesforce-Oberfläche zu öffnen.
Darüber hinaus kündigt Salesforce Deep Research, Spracheingabe, teilbare Prompts und eine Memory-Funktion an. Letztere merkt sich Vorlieben und Arbeitsweisen einzelner Nutzer – etwa bevorzugte Ausgabeformate oder häufig genutzte Abläufe – und passt Antworten entsprechend an.
Plattformstrategie und Verfügbarkeit
Slackbot greift laut Salesforce auf mehr als 2600 Apps im Slack Marketplace und über 6000 Integrationen in der Salesforce AppExchange zu. Damit positioniert das Unternehmen Slack als zentrale Zugriffsschicht für Unternehmensanwendungen verschiedener Hersteller.
Slackbot steht ab sofort in den Tarifen Business+ und Enterprise+ bereit. Ab April 2026 bekommen auch Nutzer der Free- und Pro-Pläne ein begrenztes Kontingent an Konversationen. Neue Salesforce-Kunden erhalten Slack ab Sommer 2026 automatisch eingerichtet und mit Salesforce verbunden.
Alle Informationen zu den Ankündigungen finden sich bei Salesforce.
(fo)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Entwicklung & Codevor 4 WochenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
