Entwicklung & Code
Red Hat baut Prototyp für agentisches Betriebssystem
KI-Agenten, die für ihre Betreiber automatisch Aufgaben erfüllen können, sind populär – etwa OpenClaw kann viele Dinge für Nutzerinnen und Nutzer übernehmen. Da die agentische KI auch Dinge machen kann, wie weitere Software installieren, stellen sich zwangsläufig Sicherheitsfragen. Außerdem ist Skalierbarkeit ein weiterer Punkt. Red Hat will das mit einem agentischen Betriebssystem beantworten.
Weiterlesen nach der Anzeige
Die Grundidee ist einfach: Es braucht eine stabile und sichere Betriebssystem-Basis für KI-Agenten wie OpenClaw. Klassische Betriebssysteme verändern sich über die Zeit durch Softwareinstallationen und allgemeine Nutzung, was zu einer Drift der Konfiguration führt. In normalen virtuellen Maschinen wird die Reproduzierbarkeit dadurch schwierig, etwa um sicherzustellen, dass das System wie gewünscht funktioniert und sicher bleibt.
In einem Blog-Beitrag erklärt Red-Hat-Mitarbeiterin Sally O’Malley, wie sie einen Prototyp eines agentischen Betriebssystems in Form einer Containerdatei erstellt hat. Das setzt auf fedora-bootc auf, einem Community-Projekt, das ein bootbares Linux-Betriebssystem direkt in einer Containerdatei wie Docker-Container verfrachtet. Die Abbilder sollen sich auch in vollständige Disk-Images umwandeln lassen, etwa QCOW2 (QEMU Copy On Write version 2), AMI (Amazon Machine Image), ISO-9660-Image zum Brennen auf DVD oder CD, Google-Cloud-Image und weitere.
Agentisches Betriebssystem: Zielsetzung Sicherheit
Das Betriebssystem wird dadurch zum Build-Zeitpunkt definiert und zur Laufzeit ist man beschränkt auf Änderungen, die zuvor explizit erlaubt wurden. Nach dem Start stellt das Container-Abbild das Betriebssystem dar, mit Kernel, init-Prozess und root-Dateisystem. Der Großteil des Dateisystems ist im Nur-Lese-Zugriff. Es handelt sich damit um gehärtete Umgebungen, die einem definierten Standard folgen – ein unveränderliches System, was der Reproduzierbarkeit dient. Das unterbindet zudem die „Systemdrift“, wodurch einzelne Installationen voneinander aufgrund unterschiedlicher installierter Zusatzsoftware abweichen. Durch das agentische Betriebssystem sind im Beispiel der OpenClaw-Dienst, Helfer-Skripte, Nutzerkonten und systemd-Units zum Build-Zeitpunkt festgelegt und strikt von den veränderlichen Daten getrennt.
Updates der Umgebungen werden vereinheitlicht und kontrollierbar, da zur Aktualisierung einfach das neue Image in die Registry eingestellt wird. Alle laufenden Maschinen ziehen sich die Aktualisierung und booten sie. Updates werden dadurch transaktional, O’Malley vergleicht sie mit einem Git-Commit, wodurch auch Rollbacks trivial werden. Die Secrets, OpenClaw-Status und SSH-Keys bleiben unangetastet und intakt, während sich das Betriebssystem weiterentwickelt.
Der Ansatz macht agentische KI zudem skalierbar. Es lassen sich zahlreiche Abbilder etwa auf Server-Clustern starten, die zudem nicht alle einzeln individuell konfiguriert werdenmüssen. Alle Maschinen starten OpenClaw und der KI-Agent läuft dann genau wie erwartet. Versionen und Konfigurationen bleiben synchronisiert.
O’Malley will damit zunächst das Konzept eines agentischen Betriebssystems demonstrieren und vorstellen. Das steht jedoch auch auf der Roadmap von Red Hat. Konkret plant Red Hat dafür ein Projekt namens Kagenti als Teil von Red Hat AI – mit einer Preview noch 2026. Wer das mal ausprobieren möchte, findet die Dateien und Dokumentation im Repository von Red Hat.
Weiterlesen nach der Anzeige
(dmk)
Entwicklung & Code
Geld für KI statt Open Source: pgBackRest-Projekt gibt auf
David Steele, der Maintainer des weitverbreiteten Postgres-Backup-Tools pgBackRest, hat keine Finanzierung für sein Projekt gefunden und es deswegen bei GitHub archiviert. Es ist nur noch lesbar.
Weiterlesen nach der Anzeige
Steele schreibt auf GitHub, er habe „nach einer Stelle gesucht, die es mir erlauben würde, die Arbeit fortzusetzen, aber bisher war ich nicht erfolgreich. Auch meine Bemühungen, mir Sponsoren zu sichern, haben nicht zu dem geführt, was ich brauche, um das Projekt gangbar zu halten.“ Außerdem fordert er Interessenten an Forks dazu auf, sich einen neuen Namen zu suchen.
Kritik am einseitigen Ausnutzen von Open Source
Beobachter aus der Community erwarten Forks des im Postgres-Umfeld essenziellen Programms, kritisieren aber auch die IT-Industrie in ihrem Umgang mit Open Source. Laetitia Avrot, ehemaliges Mitglied des Postgres Code of Conduct Committee, weist beispielsweise darauf hin: „Das Open-Source-Modell funktioniert, wenn die Leute, die den Wert abschöpfen, auch zum Erhalt beitragen“. Große Firmen haben enorm von pgBackRest profitiert, aber: „Der KI-Goldrausch hat offensichtlich gründlich durchgerüttelt, was Firmen als bezahlenswert ansehen.“ Derzeit sei es offensichtlich wichtiger, RAM und GPUs bereitzustellen.
Weiterlesen nach der Anzeige
In der Community beginnt nun die Suche nach einer Alternative. Für Anwenderinnen und Anwender bedeutet es, vorerst abzuwarten. Derzeit gibt es keine neuen Funktionen für pgBackRest und auch keine Bugfixes mehr. Probleme werden daher vermutlich spätestens mit neuen Versionen von Postgres auftauchen.
Ein grafischer Aufruf mit einer überarbeiteten Version des bekannten xkcd-Comics „Dependency“ appelliert daran, Open-Source-Projekte der Infrastruktur wie pgBackRest auch angemessen finanziell zu unterstützen.

(Bild: xkcd.com/2347/)
(who)
Entwicklung & Code
Mistral AI: Neues Sprachmodell Medium 3.5 und Cloud-Coding-Agenten
Ein agentischer Chatbot, KI-Coding in der Cloud und ein starkes neues Open-Weights-Modell: Das französische KI-Start-up Mistral hat gleich drei Neuigkeiten vorgestellt. Im Mittelpunkt steht das neue Sprachmodell Mistral Medium 3.5, das im Selbst-Hosting bereits mit nur vier GPUs betrieben werden kann.
Weiterlesen nach der Anzeige
Mistral Medium 3.5 ist ein Modell mit 128 Milliarden Parametern mit einem Kontextfenster von 256.000 Token, das Instruktionsbefolgung, Reasoning und Coding in einem einzigen Modell vereint. Das Besondere daran: Der Rechenaufwand für das Reasoning lässt sich pro Anfrage konfigurieren, sodass dasselbe Modell sowohl eine schnelle Chat-Antwort liefern als auch komplexe Agentenaufgaben durcharbeiten kann. Mistral Medium 3.5 ist damit der Nachfolger einer wachsenden Modellfamilie: Mit Mistral 3 hatte das Unternehmen Ende 2025 vier neue Modelle vorgestellt, die es mit US- und China-Konkurrenz aufnehmen sollten.
Datensouveränität und niedrige API-Preise
Das Modell ersetzt Devstral 2 im Vibe-CLI und wird zudem zum neuen Standardmodell in Le Chat, dem KI-Assistenten von Mistral. Mistral baut dabei auf einem Framework zur Entwicklung von KI-Agenten auf, das das Unternehmen bereits im vergangenen Jahr vorgestellt hatte. Die Gewichte werden unter einer modifizierten MIT-Lizenz als Open Weights auf Hugging Face veröffentlicht. Über die API kostet das Modell 1,50 US-Dollar pro Million Eingabe-Token und 7,50 US-Dollar pro Million Ausgabe-Token. Zum Vergleich: DeepSeek-V4 kostet in der Pro-Variante 1,74 US-Dollar pro Million Eingabe-Token – liegt damit in ähnlicher Preisklasse, bietet aber ein deutlich größeres Kontextfenster.
Mistral positioniert das Modell vor allem für Kunden, die europäische Datensouveränität, niedrige API-Kosten und die Option auf Selbst-Hosting über die reine Benchmarkleistung stellen. Um diese Infrastruktur langfristig in Europa zu sichern, investiert Mistral massiv: Das Unternehmen nimmt 830 Millionen US-Dollar Kredit für ein Rechenzentrum nahe Paris auf.
Coding-Sessions in die Cloud teleportieren
Bislang liefen Coding-Agenten wie Vibe ausschließlich lokal. Das ändert sich nun: Sessions können in der Cloud laufen, mehrere parallel, und benachrichtigen den Nutzer, wenn sie fertig sind. Laufende lokale CLI-Sessions lassen sich dabei in die Cloud „teleportieren“, samt Sitzungsverlauf, Aufgabenstatus und ausstehenden Genehmigungen. Damit können Nutzer fließend zwischen lokaler Bearbeitung und Cloud wechseln.
Weiterlesen nach der Anzeige
Jede Coding-Session läuft in einer isolierten Sandbox. Ist die Arbeit erledigt, kann der Agent automatisch einen Pull-Request auf GitHub öffnen und den Entwickler benachrichtigen – sodass dieser nur noch das Ergebnis überprüft, nicht jeden einzelnen Schritt.
Agent erledigt Aufgaben selbstständig
Neu ist außerdem ein „Work Mode“ für den Le-Chat-Assistenten. Der Modus ermöglicht es dem Agenten, mehrere Tools gleichzeitig zu nutzen und komplexe, mehrstufige Aufgaben vollständig abzuarbeiten – etwa E-Mails und Kalender in einem Durchlauf zu überblicken, Recherchen über Web und interne Dokumente zu kombinieren oder Zusammenfassungen direkt in Slack zu senden.
Jeder Tool-Aufruf und die zugehörige Reasoning-Begründung sollen dabei sichtbar bleiben. Bei Aktionen wie dem Versenden einer Nachricht oder dem Ändern von Daten fragt der Agent explizit um Erlaubnis.
(mki)
Entwicklung & Code
Samsung erzielt höchsten Gewinn in Unternehmensgeschichte
Samsung Electronics hat dank des anhaltenden KI-Booms seinen höchsten Gewinn seit Unternehmensgründung erzielt. In seinen aktuellen Geschäftszahlen weist Südkoreas größtes Unternehmen einen Betriebsgewinn in Höhe von 57,2 Billionen Won (umgerechnet rund 32,9 Milliarden Euro) für den Zeitraum Januar bis März aus – in etwa das Achtfache des Vorjahreszeitraums.
Weiterlesen nach der Anzeige
Erwartungen des Marktes deutlich übertroffen
Samsungs Quartalszahlen haben damit selbst die bereits hohen Erwartungen des Marktes deutlich übertroffen. Laut einer von der südkoreanischen Nachrichtenagentur Yonhap durchgeführten Umfrage lag der Nettogewinn des Konzerns im Schnitt über 20 Prozent über den Schätzungen der befragten Ökonomen. Die Märkte reagierten positiv auf den Geschäftsbericht: Direkt nach Handelsstart am Donnerstagmorgen Ortszeit stieg der südkoreanische Leitindex Kospi um über 0,7 Prozent an, ehe er wieder etwas fiel.
Der Rekordgewinn von Samsung wird vor allem von der anhaltend starken Nachfrage nach Computerchips angetrieben. Chip-Engpässe haben die Preise stark in die Höhe getrieben. Allein 53,7 Billionen Won des Betriebsgewinns – und damit fast 94 Prozent des Gesamtgewinns – wurden von der Halbleitersparte des Unternehmens erzielt. Samsung Electronics ist einer der weltweit führenden Produzenten von Halbleitern, insbesondere im Segment leistungsstarker Speicherchips.
(afl)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
