Connect with us

Künstliche Intelligenz

OpenAI sichert sich 122 Milliarden in einer der größten Finanzierungsrunden


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

OpenAI hat seine bislang größte Finanzierungsrunde über 122 Milliarden Dollar abgeschlossen und wird nun mit 852 Milliarden Dollar bewertet.

Weiterlesen nach der Anzeige

Die Finanzierung wird von einer breiten Allianz aus Tech-Konzernen und Finanzinvestoren getragen. Laut Bloomberg hat Amazon 50 Milliarden Dollar investiert, während Nvidia und SoftBank jeweils 30 Milliarden beigetragen haben. Rund 35 Milliarden Dollar von Amazons Beteiligung sind daran geknüpft, dass OpenAI an die Börse geht oder das Ziel einer allgemeinen künstlichen Intelligenz erreicht, berichtet Bloomberg. Die restlichen 12 Milliarden stammen von Investmentfirmen sowie vermögenden Privatanlegern, die über Banken beteiligt wurden.

Parallel sollen Anteile des Unternehmens in börsengehandelte Fonds aufgenommen werden. Zudem hat OpenAI seine bestehende Kreditlinie auf rund 4,7 Milliarden Dollar ausgeweitet. Sie wird von einem internationalen Bankenkonsortium getragen und war zum Abschlusszeitpunkt noch ungenutzt. Damit diversifiziert OpenAI seine Finanzierungsquellen und verbreitert den Zugang zu Kapital über klassische Risikokapitalgeber hinaus.

Die Mittel sollen laut OpenAI vor allem in Rechenzentren und Chips, die Weiterentwicklung der KI-Modelle sowie den Ausbau von Produkten und der Plattform für Unternehmen und Entwickler fließen. Hierfür arbeitet OpenAI mit einem breiten Netzwerk an Partnern zusammen: Während Nvidia weiterhin die Grundlage der Infrastruktur bilden soll, setzt das Unternehmen auf mehrere große Cloud-Anbieter, Chipplattformen und Betreiber von Rechenzentren.

Die Finanzierungsrunde wird als möglicher Schritt in Richtung Börsengang interpretiert, ohne dass OpenAI selbst konkrete Pläne oder einen Zeitrahmen bestätigt hat.

Anlässlich der Ankündigung hat OpenAI auch neue Geschäftszahlen veröffentlicht. Demnach erzielt das Unternehmen inzwischen rund 2 Milliarden Dollar Umsatz pro Monat und verweist dabei auf mehr als 900 Millionen wöchentlich aktive ChatGPT-Nutzer sowie über 50 Millionen zahlende Abonnenten. Das Unternehmensgeschäft ist laut OpenAI ebenfalls gewachsen: Es macht inzwischen mehr als 40 Prozent der Einnahmen aus und soll sich bis Ende 2026 dem Endkundengeschäft annähern.

Weiterlesen nach der Anzeige

Trotz monatlicher Milliardenumsätze ist OpenAI aber weiterhin weit von Profitabilität entfernt. Die hohen Kosten für Rechenleistung, Infrastruktur und Entwicklung dürften einen Großteil der Einnahmen aufzehren. Gleichzeitig mehren sich in der Branche Stimmen, die vor überzogenen Erwartungen und einer möglichen KI-Blase warnen, sollte sich das Wachstum nicht nachhaltig in Gewinne übersetzen lassen.

Dass sich OpenAI der finanziellen Herausforderungen bewusst ist, zeigen zwei jüngste strategische Schritte: die Einführung von Werbung und die Einstellung der Video-App Sora, deren Betrieb als besonders kostenintensiv galt und deren Monetarisierung unklar blieb.

Die aktuelle Strategie zielt laut OpenAI darauf ab, Anwendungen für Unternehmen und Entwickler stärker auszubauen. ChatGPT soll dabei als zentraler Zugangspunkt und Verbreitungskanal dienen, über den neue Funktionen direkt in Alltagsnutzung und den Unternehmenseinsatz überführt werden. Ziel sei es, die verschiedenen Funktionen in einer einheitlichen Anwendung zu bündeln, die ChatGPT, das Coding-Tool Codex, Browsing und agentische Funktionen zu einer „Super-App“ zusammenführt.


(tobe)



Source link

Künstliche Intelligenz

AGENTS.md: Hilfreiches Agentenbriefing oder Tokenfresser?


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Datei AGENTS.md ist ein Readme für KI-Agenten: Ein fester Ort im Repository, an dem Build‑Schritte, Testkommandos, Tooling, Architekturlinien und Coding-Guidelines speziell für autonome Coding-Agenten beschrieben sind. Die Idee ist, dass Agenten diese Datei früh lesen und dadurch schneller verstehen, wie sie Tests ausführen, den Code strukturieren und welche Konventionen sie beachten müssen.

Weiterlesen nach der Anzeige

Anbieter wie OpenAI, Anthropic, GitHub und Qwen bewerben dieses Muster offensiv. Zudem bringen viele Frameworks Kommandozeilenbefehle wie /init mit, die aus einem bestehenden Repository automatisch eine AGENTS.md oder eine ähnliche Datei wie CLAUDE.md generieren. Dadurch hat sich der Standard rasant verbreitet: Im Jahr 2025 waren bereits zehntausende öffentliche GitHub-Repositorys mit Kontextdateien ausgestattet, die Tendenz ist steigend. Das AGENTS.md-Repository auf GitHub listet die Vorteile auf und zeigt Beispiele für den Aufbau solch einer Datei.

Ein Team an der ETH Zürich hat den Aufbau und die Nützlichkeit von AGENTS.md unter die Lupe genommen. Die Studie „Evaluating AGENTS.md: Are Repository-Level Context Files Helpful for Coding Agents?“ untersucht erstmals systematisch, welchen Effekt solche Dateien auf reale Agentenworkflows haben. Die Forschenden kombinieren dafür zwei Benchmarks: das etablierte SWE‑bench Lite mit 300 Aufgaben aus elf populären Python-Repositorys und das Benchmarktool AgentBench mit 138 Aufgaben aus zwölf weniger bekannten Repos, die alle echte, von Entwicklern geschriebene Kontextdateien enthalten.

Getestet hat das Team der Studie die Coding-Agenten Claude Code mit Sonnet 4.5, OpenAI Codex mit GPT-5.2 und GPT-5.1 mini sowie Qwen Code mit Qwen3-30B-Coder, jeweils in drei Varianten: ohne Kontextdatei, mit automatisch generierter Kontextdatei nach Empfehlung des jeweiligen Agentenentwicklers und – auf AgentBench – mit der real vorhandenen, von Entwicklern gepflegten Kontextdatei. Alle Agenten haben die Datei in ihren Kontext geladen, entweder AGENTS.md (für Codex- und Qwen-Code) oder CLAUDE.md (Claude Code). Die Erfolgsquote hat das Team dabei streng über Testsuites gemessen: Ein Task gilt nur dann als gelöst, wenn alle zugehörigen Tests nach Anwenden des Agentenpatches grün laufen.

Das Ergebnis ist ernüchternd: LLM‑generierte Kontextdateien reduzieren die Erfolgsrate im Mittel leicht – um etwa 0,5 Prozentpunkte bei SWE‑bench Lite und rund 2 bis 3 Prozentpunkte bei AgentBench, je nach Modell. Gleichzeitig steigen die Inferenzkosten im Schnitt um 20 bis 23 Prozent, weil die Agenten mehr Schritte ausführen und längere Reasoning‑Passagen produzieren.

Auch menschlich gepflegte Kontextdateien schneiden nur moderat besser ab: Sie verbessern die Erfolgsrate auf AgentBench im Mittel um etwa 4 Prozentpunkte gegenüber dem Szenario ganz ohne Kontextdatei, erhöhen aber ebenfalls die Anzahl der Agentenschritte und damit die Kosten – in einzelnen Set-ups um knapp 20 Prozent. Überspitzt formuliert bedeutet das: Für ein paar Prozentpunkte Erfolgsgewinn bezahlt man mit deutlich mehr Tokenverbrauch, längeren Laufzeiten und komplexeren Agenten-Traces.

Die Studie zeigt, dass Agenten die Anweisungen in Kontextdateien ernst nehmen: Sind bestimmte Tools oder Workflows erwähnt, nutzen Agenten sie häufiger – etwa Projektskripte, pytest, uv oder repositoryspezifische Hilfstools. Kontextdateien führen auch zu mehr Tests, mehr Dateizugriffen und ausführlicherer Repositorynavigation. Das Problem ist also nicht, dass die Modelle Kontextinstruktionen ignorieren.

Weiterlesen nach der Anzeige

Die zusätzliche Aktivität macht die Aufgaben jedoch schwieriger: Mehr Anweisungen bedeuten mehr Dinge, die der Agent berücksichtigen und gegeneinander abwägen muss, was sich in mehr Reasoning-Token pro Task niederschlägt. Gleichzeitig funktionieren Kontextdateien schlecht als Repository-Overview: Die Agenten finden die für einen Bugfix relevanten Dateien im Schnitt nicht schneller als ohne AGENTS.md, obwohl viele Dateien explizit Verzeichnisstrukturen, Komponenten und Einstiegspunkte beschreiben.

Eine wichtige Beobachtung des ETH-Teams ist, dass LLM‑generierte Kontextdateien meist redundant zur bestehenden Dokumentation sind: Readme, Contributing, Docs‑Ordner und Beispiele enthalten bereits Build‑und Testhinweise, Architekturübersichten und Stilvorgaben, die die Agenten via Dateizugriff ebenfalls nutzen können. In einem Ablationsexperiment entfernten die Forschenden deshalb alle anderen Dokumentationsdateien aus dem Repository und ließen nur die generierte Kontextdatei stehen. Ein Ablationsexperiment (Ablation Study) ist eine Methode zur Evaluierung von KI-Modellen, bei der gezielt spezifische Komponenten wie ein Feature, ein Layer oder Module entfernt oder verändert wurden, um deren Einfluss auf die Gesamtleistung zu messen.

In solch einem dokumentationsarmen Setting kippt das Bild: Plötzlich verbessern die generierten Kontextdateien die Erfolgsrate der Agenten im Schnitt um rund 2,7 Prozentpunkte und schneiden teilweise sogar besser ab als die ursprünglichen Entwicklerdokumente. Die naheliegende Interpretation: Kontextdateien sind dann hilfreich, wenn sie echte Wissenslücken der Agenten füllen und nicht, wenn sie bereits vorhandene Informationen noch einmal in leicht anderer Form wiederholen.

Eine separate empirische Analyse von über 2.300 Agenten-Readmes aus knapp 2.000 Repositorys zeigt, wie Entwickler solche Dateien heute nutzen (siehe Studie „Agent READMEs: An Empirical Study of Context Files for Agentic Coding“). Am häufigsten enthalten sie funktionalen Kontext: Build‑ und Run‑Kommandos (in gut 60 Prozent der Fälle), Implementationsdetails (knapp 70 Prozent) und Architekturhinweise (rund 68 Prozent).

Deutlich unterrepräsentiert sind dagegen nicht funktionale Anforderungen wie Sicherheit und Performance, die nur jeweils in rund 15 Prozent der Dateien explizit adressiert sind. Zudem sind viele Dateien lang, schwer lesbar und entwickeln sich eher wie Konfigurationsartefakte mit vielen kleinen Ergänzungen als wie klar kuratierte Dokumente – ein weiterer Hinweis darauf, warum generalistische Kontextdateien für Agenten schnell zur kognitiven Last heranwachsen.

Aus Sicht der Praxis ergeben sich daraus einige Empfehlungen für den produktiven Einsatz von AGENTS.md (siehe GitHub-Blogartikel „How to write a great agents.md“):

  • Nichts wiederholen, was schon im Readme und in Docs steht. Doppelte Projektbeschreibungen oder lange Architekturexkurse sind zu vermeiden, wenn sie bereits an anderer Stelle gepflegt sind.
  • Schwerpunkt auf fehlendem, schwer zu erschließendem Kontext. Dazu gehören projekt- oder teamspezifische Skripte, besondere Test‑Set-ups, nicht offensichtliche Fallstricke oder domänenspezifische Invarianten, die der Agent sonst nur durch intensives Trial and Error lernen würde.
  • Minimalistische testbare Regeln statt Wunschliste. Jede zusätzliche Regel erhöht die Suchfläche für den Agenten. Sinnvoll sind wenige, klar begründete Anforderungen, etwa „Tests immer über make test-ci laufen lassen“ statt eines halben Dutzends alternativer Workflows.
  • Agentenrolle klar zuschneiden. GitHub berichtet aus der Analyse von über 2.500 AGENTS.md-Dateien, dass spezialisierte Rollen – beispielsweise ein reiner Testagent oder Docs‑Agent – besser funktionieren als generische Anweisungen.
  • Iterativ verbessern statt im Vorfeld alles perfektionieren. Erfolgreiche Agenten-Readmes entstehen dadurch, dass Teams typische Fehlervarianten des Agenten beobachten und daraus gezielte, knappe Korrekturanweisungen ableiten.

Zudem kann es hilfreich sein, den Agenten selbst seine eigene AGENTS.md optimieren zu lassen. Das LLM kann eine AGENTS.md analysieren und verbessern, indem es unklare Formulierungen, Widersprüche, Redundanzen oder fehlende Entscheidungsregeln erkennt und präziser formuliert. Die überarbeiteten Anweisungen steuern später das Verhalten eines Agenten. Besonders sinnvoll ist das, wenn das Resultat nicht nur das Umschreiben der Datei ist, sondern diese anschließend auch mit Beispielaufgaben getestet wird, um zu sehen, ob der Agent die gewünschten Regeln tatsächlich besser befolgt. Am zuverlässigsten ist deshalb ein iterativer Prozess, der analysiert, überarbeitet und testet, statt sich nur auf eine sprachlich schönere Version zu verlassen.

Für Entwicklungsteams ist AGENTS.md kein kostenloser Produktivitätsturbo, sondern ein Steuerungsinstrument, bei dem sie Kompromisse eingehen müssen. Automatisch generierte, stark redundante Kontextdateien verschlechtern in der aktuellen Evidenzlage die Erfolgsraten, verteuern jeden Agentenlauf und erzeugen komplexere Traces, die schwerer zu debuggen sind.

Hilfreich sind Repositorykontextdateien vor allem dort, wo sie gezielt fehlende Informationen bereitstellen, etwa in schlecht dokumentierten oder speziellen Codebasen, für Nischen-Toolchains oder klar abgegrenzte Agentenrollen. Die Aussage „Readme für KI-Agenten“ der AGENTS.md-Website ist daher wörtlich zu nehmen: nicht als weitere vollständige Dokumentation, sondern als schlanke, präzise Betriebsanleitung, die Agenten genau so viel Kontext gibt, wie sie für robuste Ergebnisse brauchen – und kein Token mehr.


(nb)



Source link

Weiterlesen

Künstliche Intelligenz

Windows-Update-Vorschau jetzt als Update außer der Reihe verfügbar


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Update-Vorschauen für Windows aus dem März haben für Fehlermeldungen gesorgt, weshalb Microsoft die Verteilung noch am vergangenen Wochenende gestoppt hat. Nun hat Microsoft ein Update außer der Reihe herausgegeben, das das fehlerhafte Updatepaket ersetzt.

Weiterlesen nach der Anzeige

Microsoft erklärt im Message Center der Windows-Release-Health-Notizen, dass das Update aus der Nacht zum Mittwoch das Problem der vorhergehenden Update-Vorschau-Version löst, bei dem sinngemäß die Fehlermeldung auftrat: „Einige Update-Dateien fehlen oder haben Probleme. Wir versuchen, das Update später erneut herunterzuladen. Fehlercode: (0x80073712)“. Das kumulative Update mit der KB-Nummer KB5086672 ersetzt die vorhergehenden Aktualisierungen für Windows 11 25H2 und 24H2. Es enthält laut Microsoft auch die Sicherheits-Patches und Verbesserungen des März-Patchday-Updates.

Die neue Fassung des Updates kommt nun automatisch auf Windows-11-Rechner mit den Builds 25H2 und 24H2, die in den Windows-Update-Einstellungen die Option „Erhalten Sie die neuesten Updates, sobald sie verfügbar sind“ aktiviert haben, führt Microsoft weiter aus. Es ist jedoch auch als optionales Update erhältlich, wenn Interessierte die manuelle Update-Suche starten und die Option nicht angeschaltet haben.

Die Update-Vorschau liefert Verbesserungen wie die Unterstützung von Bildschirmen mit mehr als 1000 Hertz Refresh-Rate, verbesserte automatische Bildrotation und HDR-Zuverlässigkeit sowie verbesserte Effizienz beim Stromverbrauch von mittels USB4 verbundenen Monitoren im Schlafmodus. Der Datei-Explorer gibt den Entwicklern zufolge heruntergeladene Dateien verlässlicher frei und unterstützt die Spracheingabe beim Umbenennen von Dateien.

Zudem haben sie die Dialogboxen in den Einstellungen unter „Konten“ – „Andere Nutzer“ an die moderne Windows-Optik angepasst. Sie unterstützen nun auch den Dark-Mode. Ob diese Dialogboxen verfügbar sind, hängt davon ab, ob das Gerät in einer Domäne hängt oder ein Schulkonto darauf genutzt wird. Die Sprachausgabe gibt nun reichhaltigere Bildbeschreibungen auf Copilot+-PCs aus und funktioniert auf allen Windows-11-Geräten, wodurch Nutzer und Nutzerinnen unmittelbar Beschreibungen auf dem Gerät erhalten oder Copilot zu mehr Details befragen können.

Microsoft hat einen Support-Eintrag für das Update KB5086672 bereitgestellt. Es hebt die Windows-Versionen auf den Stand 26200.8117 (Windows 11 25H2) und 26100.8117 (Windows 11 24H2). Es löst die defekte Update-Vorschau mit dem KB-Eintrag KB5079391 ab, das nun nicht mehr zum Download bereitsteht; das hatte die letzte Zahl der Build-Nummern auf Version 8116 gehievt.

Weiterlesen nach der Anzeige

Die Entwickler haben dort nun auch den Hinweis ergänzt: „Dieses Update wird neuen Geräten aufgrund eines Installationsproblems nach der Veröffentlichung nicht mehr angeboten. Das Problem wurde im Out-of-Band-Update vom 31. März 2026 behoben – KB5086672 (Betriebssystembuilds 26200.8117 und 26100.8117). Dieses neuere Update enthält alle Verbesserungen und Features, die Teil dieses Updates waren, sowie eine Behebung des Installationsproblems.“


(dmk)



Source link

Weiterlesen

Künstliche Intelligenz

50 Jahre Apple: So alt wird sonst kein Apfel | Mac & i-Podcast


Ab und zu totgesagt, oft unterschätzt, gerne missverstanden und inzwischen längst übermächtig: Apple kann pünktlich zum 1. April ganz ohne Scherze auf 50 Jahre Firmengeschichte zurückblicken. In der schnelllebigen IT-Branche ist der Konzern damit ein wahres Urgestein, das gleich mehrfach Computergeschichte geschrieben und zugleich die Welt verändert hat – vom Macintosh bis zum iPhone.

Weiterlesen nach der Anzeige

In Episode 118 blicken Malte Kirchner und Leo Becker ausführlich zurück auf die oft bewegte Apple-Geschichte, die sich praktischerweise gut in Kapitel unterteilen lässt. Wir fangen vorn an, widmen uns aber primär der zweiten Steve-Jobs-Ära, in der Apple ein unglaubliches Innovationstempo mit immer neuer Hardware vorlegte. Natürlich beschäftigt uns ebenso die Ära Cook und der sich abzeichnende nächste Umbruch. Einen Schwenk zu persönlichen Geräte-Highlights können wir uns dabei nicht verkneifen.

Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.

Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio) und bei Spotify. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de.


(lbe)



Source link

Weiterlesen

Beliebt