Entwicklung & Code
Mistral AI: Neues Sprachmodell Medium 3.5 und Cloud-Coding-Agenten
Ein agentischer Chatbot, KI-Coding in der Cloud und ein starkes neues Open-Weights-Modell: Das französische KI-Start-up Mistral hat gleich drei Neuigkeiten vorgestellt. Im Mittelpunkt steht das neue Sprachmodell Mistral Medium 3.5, das im Selbst-Hosting bereits mit nur vier GPUs betrieben werden kann.
Weiterlesen nach der Anzeige
Mistral Medium 3.5 ist ein Modell mit 128 Milliarden Parametern mit einem Kontextfenster von 256.000 Token, das Instruktionsbefolgung, Reasoning und Coding in einem einzigen Modell vereint. Das Besondere daran: Der Rechenaufwand für das Reasoning lässt sich pro Anfrage konfigurieren, sodass dasselbe Modell sowohl eine schnelle Chat-Antwort liefern als auch komplexe Agentenaufgaben durcharbeiten kann. Mistral Medium 3.5 ist damit der Nachfolger einer wachsenden Modellfamilie: Mit Mistral 3 hatte das Unternehmen Ende 2025 vier neue Modelle vorgestellt, die es mit US- und China-Konkurrenz aufnehmen sollten.
Datensouveränität und niedrige API-Preise
Das Modell ersetzt Devstral 2 im Vibe-CLI und wird zudem zum neuen Standardmodell in Le Chat, dem KI-Assistenten von Mistral. Mistral baut dabei auf einem Framework zur Entwicklung von KI-Agenten auf, das das Unternehmen bereits im vergangenen Jahr vorgestellt hatte. Die Gewichte werden unter einer modifizierten MIT-Lizenz als Open Weights auf Hugging Face veröffentlicht. Über die API kostet das Modell 1,50 US-Dollar pro Million Eingabe-Token und 7,50 US-Dollar pro Million Ausgabe-Token. Zum Vergleich: DeepSeek-V4 kostet in der Pro-Variante 1,74 US-Dollar pro Million Eingabe-Token – liegt damit in ähnlicher Preisklasse, bietet aber ein deutlich größeres Kontextfenster.
Mistral positioniert das Modell vor allem für Kunden, die europäische Datensouveränität, niedrige API-Kosten und die Option auf Selbst-Hosting über die reine Benchmarkleistung stellen. Um diese Infrastruktur langfristig in Europa zu sichern, investiert Mistral massiv: Das Unternehmen nimmt 830 Millionen US-Dollar Kredit für ein Rechenzentrum nahe Paris auf.
Coding-Sessions in die Cloud teleportieren
Bislang liefen Coding-Agenten wie Vibe ausschließlich lokal. Das ändert sich nun: Sessions können in der Cloud laufen, mehrere parallel, und benachrichtigen den Nutzer, wenn sie fertig sind. Laufende lokale CLI-Sessions lassen sich dabei in die Cloud „teleportieren“, samt Sitzungsverlauf, Aufgabenstatus und ausstehenden Genehmigungen. Damit können Nutzer fließend zwischen lokaler Bearbeitung und Cloud wechseln.
Weiterlesen nach der Anzeige
Jede Coding-Session läuft in einer isolierten Sandbox. Ist die Arbeit erledigt, kann der Agent automatisch einen Pull-Request auf GitHub öffnen und den Entwickler benachrichtigen – sodass dieser nur noch das Ergebnis überprüft, nicht jeden einzelnen Schritt.
Agent erledigt Aufgaben selbstständig
Neu ist außerdem ein „Work Mode“ für den Le-Chat-Assistenten. Der Modus ermöglicht es dem Agenten, mehrere Tools gleichzeitig zu nutzen und komplexe, mehrstufige Aufgaben vollständig abzuarbeiten – etwa E-Mails und Kalender in einem Durchlauf zu überblicken, Recherchen über Web und interne Dokumente zu kombinieren oder Zusammenfassungen direkt in Slack zu senden.
Jeder Tool-Aufruf und die zugehörige Reasoning-Begründung sollen dabei sichtbar bleiben. Bei Aktionen wie dem Versenden einer Nachricht oder dem Ändern von Daten fragt der Agent explizit um Erlaubnis.
(mki)
Entwicklung & Code
Red Hat baut Prototyp für agentisches Betriebssystem
KI-Agenten, die für ihre Betreiber automatisch Aufgaben erfüllen können, sind populär – etwa OpenClaw kann viele Dinge für Nutzerinnen und Nutzer übernehmen. Da die agentische KI auch Dinge machen kann, wie weitere Software installieren, stellen sich zwangsläufig Sicherheitsfragen. Außerdem ist Skalierbarkeit ein weiterer Punkt. Red Hat will das mit einem agentischen Betriebssystem beantworten.
Weiterlesen nach der Anzeige
Die Grundidee ist einfach: Es braucht eine stabile und sichere Betriebssystem-Basis für KI-Agenten wie OpenClaw. Klassische Betriebssysteme verändern sich über die Zeit durch Softwareinstallationen und allgemeine Nutzung, was zu einer Drift der Konfiguration führt. In normalen virtuellen Maschinen wird die Reproduzierbarkeit dadurch schwierig, etwa um sicherzustellen, dass das System wie gewünscht funktioniert und sicher bleibt.
In einem Blog-Beitrag erklärt Red-Hat-Mitarbeiterin Sally O’Malley, wie sie einen Prototyp eines agentischen Betriebssystems in Form einer Containerdatei erstellt hat. Das setzt auf fedora-bootc auf, einem Community-Projekt, das ein bootbares Linux-Betriebssystem direkt in einer Containerdatei wie Docker-Container verfrachtet. Die Abbilder sollen sich auch in vollständige Disk-Images umwandeln lassen, etwa QCOW2 (QEMU Copy On Write version 2), AMI (Amazon Machine Image), ISO-9660-Image zum Brennen auf DVD oder CD, Google-Cloud-Image und weitere.
Agentisches Betriebssystem: Zielsetzung Sicherheit
Das Betriebssystem wird dadurch zum Build-Zeitpunkt definiert und zur Laufzeit ist man beschränkt auf Änderungen, die zuvor explizit erlaubt wurden. Nach dem Start stellt das Container-Abbild das Betriebssystem dar, mit Kernel, init-Prozess und root-Dateisystem. Der Großteil des Dateisystems ist im Nur-Lese-Zugriff. Es handelt sich damit um gehärtete Umgebungen, die einem definierten Standard folgen – ein unveränderliches System, was der Reproduzierbarkeit dient. Das unterbindet zudem die „Systemdrift“, wodurch einzelne Installationen voneinander aufgrund unterschiedlicher installierter Zusatzsoftware abweichen. Durch das agentische Betriebssystem sind im Beispiel der OpenClaw-Dienst, Helfer-Skripte, Nutzerkonten und systemd-Units zum Build-Zeitpunkt festgelegt und strikt von den veränderlichen Daten getrennt.
Updates der Umgebungen werden vereinheitlicht und kontrollierbar, da zur Aktualisierung einfach das neue Image in die Registry eingestellt wird. Alle laufenden Maschinen ziehen sich die Aktualisierung und booten sie. Updates werden dadurch transaktional, O’Malley vergleicht sie mit einem Git-Commit, wodurch auch Rollbacks trivial werden. Die Secrets, OpenClaw-Status und SSH-Keys bleiben unangetastet und intakt, während sich das Betriebssystem weiterentwickelt.
Der Ansatz macht agentische KI zudem skalierbar. Es lassen sich zahlreiche Abbilder etwa auf Server-Clustern starten, die zudem nicht alle einzeln individuell konfiguriert werdenmüssen. Alle Maschinen starten OpenClaw und der KI-Agent läuft dann genau wie erwartet. Versionen und Konfigurationen bleiben synchronisiert.
O’Malley will damit zunächst das Konzept eines agentischen Betriebssystems demonstrieren und vorstellen. Das steht jedoch auch auf der Roadmap von Red Hat. Konkret plant Red Hat dafür ein Projekt namens Kagenti als Teil von Red Hat AI – mit einer Preview noch 2026. Wer das mal ausprobieren möchte, findet die Dateien und Dokumentation im Repository von Red Hat.
Weiterlesen nach der Anzeige
(dmk)
Entwicklung & Code
Samsung erzielt höchsten Gewinn in Unternehmensgeschichte
Samsung Electronics hat dank des anhaltenden KI-Booms seinen höchsten Gewinn seit Unternehmensgründung erzielt. In seinen aktuellen Geschäftszahlen weist Südkoreas größtes Unternehmen einen Betriebsgewinn in Höhe von 57,2 Billionen Won (umgerechnet rund 32,9 Milliarden Euro) für den Zeitraum Januar bis März aus – in etwa das Achtfache des Vorjahreszeitraums.
Weiterlesen nach der Anzeige
Erwartungen des Marktes deutlich übertroffen
Samsungs Quartalszahlen haben damit selbst die bereits hohen Erwartungen des Marktes deutlich übertroffen. Laut einer von der südkoreanischen Nachrichtenagentur Yonhap durchgeführten Umfrage lag der Nettogewinn des Konzerns im Schnitt über 20 Prozent über den Schätzungen der befragten Ökonomen. Die Märkte reagierten positiv auf den Geschäftsbericht: Direkt nach Handelsstart am Donnerstagmorgen Ortszeit stieg der südkoreanische Leitindex Kospi um über 0,7 Prozent an, ehe er wieder etwas fiel.
Der Rekordgewinn von Samsung wird vor allem von der anhaltend starken Nachfrage nach Computerchips angetrieben. Chip-Engpässe haben die Preise stark in die Höhe getrieben. Allein 53,7 Billionen Won des Betriebsgewinns – und damit fast 94 Prozent des Gesamtgewinns – wurden von der Halbleitersparte des Unternehmens erzielt. Samsung Electronics ist einer der weltweit führenden Produzenten von Halbleitern, insbesondere im Segment leistungsstarker Speicherchips.
(afl)
Entwicklung & Code
Visual Studio 2026 erhält Cloud-Agenten-Integration
Microsoft hat seine Entwicklungsumgebung Visual Studio 2026 mit dem April-Update versehen, das die Cloud-Agenten-Integration einführt. Weitere Updates betreffen die C++-Entwicklung, benutzerdefinierte Agenten und die Verwendung von IntelliSense.
Weiterlesen nach der Anzeige
Updates für GitHub Copilot
Im neuen Release können Visual-Studio-User neue Remote-Coding-Sessions direkt aus der Entwicklungsumgebung heraus starten. Dazu wählen sie Cloud aus dem Agenten-Picker im Chatfenster und spezifizieren ihre Anforderungen. Daraufhin beginnt der Workflow mit der Rückfrage um Erlaubnis, ein Issue im Repository anlegen zu dürfen, und der Cloud-Agent bereitet einen entsprechenden Pull Request vor. Währenddessen können Nutzerinnen und Nutzer weiter in Visual Studio arbeiten oder die IDE schließen. Sie erhalten eine Benachrichtigung, sobald der Pull Request bereit zur Ansicht ist.
Cloud-Agenten laufen auf Remote-Infrastruktur und sollen eine skalierbare, isolierte Ausführung ermöglichen. Dahinter steht GitHub Copilot, sodass sich die Nutzerinnen und Nutzer in einem GitHub-Repository befinden müssen, in dem Copilot die Befugnis zum Erstellen von Issues besitzt.
Seit dem März-Update lassen sich zudem in Visual Studio benutzerdefinierte Agenten mit Repository-basierten .agent.md-Dateien erstellen. Nun wurde diese Funktion um User-Level-Agenten erweitert, die sich über unterschiedliche Projekte hinweg nutzen lassen. Sie werden standardmäßig in %USERPROFILE%/.github/agents/ gespeichert.
Neuerungen für C++ und IntelliSense
Die C++-Codeeditierungs-Tools für GitHub Copilot sind nun allgemein verfügbar. Das ermöglicht es dem Copiloten, mit Class-Inheritance-Hierarchien umzugehen und beim Refaktorieren oder Modifizieren von Code Function-Call-Ketten zu folgen. Hierzu müssen Entwicklerinnen und Entwickler ein C++-Projekt mit konfiguriertem IntelliSense öffnen und die C++-Tools im Copilot-Chat aktivieren:
Weiterlesen nach der Anzeige

Aktivierung der C++-Tools in Visual Studio: get_symbol_call_hierarchy und get_symbol_class_hierarchy.
(Bild: Microsoft)
Ein weiteres Update betrifft die allgemeine Verwendung des Codevervollständigungs-Tools IntelliSense. Bisher konnten User sowohl die Vorschläge von IntelliSense als auch von Copilot gleichzeitig sehen, was laut Feedback ablenkend sein konnte. Daher priorisiert der Editor nun die IntelliSense-Vervollständigungsliste und unterdrückt Copilot-Vorschläge. Nach dem Annehmen oder Ablehnen der IntelliSense-Auswahl erscheinen automatisch die Copilot-Vorschläge.
Alle weiteren Informationen zum neuen Visual-Studio-Update bietet Microsofts Entwicklerblog.
Siehe auch:
(mai)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
