Entwicklung & Code
Mistral AI: Neues Sprachmodell Medium 3.5 und Cloud-Coding-Agenten
Ein agentischer Chatbot, KI-Coding in der Cloud und ein starkes neues Open-Weights-Modell: Das französische KI-Start-up Mistral hat gleich drei Neuigkeiten vorgestellt. Im Mittelpunkt steht das neue Sprachmodell Mistral Medium 3.5, das im Selbst-Hosting bereits mit nur vier GPUs betrieben werden kann.
Weiterlesen nach der Anzeige
Mistral Medium 3.5 ist ein Modell mit 128 Milliarden Parametern mit einem Kontextfenster von 256.000 Token, das Instruktionsbefolgung, Reasoning und Coding in einem einzigen Modell vereint. Das Besondere daran: Der Rechenaufwand für das Reasoning lässt sich pro Anfrage konfigurieren, sodass dasselbe Modell sowohl eine schnelle Chat-Antwort liefern als auch komplexe Agentenaufgaben durcharbeiten kann. Mistral Medium 3.5 ist damit der Nachfolger einer wachsenden Modellfamilie: Mit Mistral 3 hatte das Unternehmen Ende 2025 vier neue Modelle vorgestellt, die es mit US- und China-Konkurrenz aufnehmen sollten.
Datensouveränität und niedrige API-Preise
Das Modell ersetzt Devstral 2 im Vibe-CLI und wird zudem zum neuen Standardmodell in Le Chat, dem KI-Assistenten von Mistral. Mistral baut dabei auf einem Framework zur Entwicklung von KI-Agenten auf, das das Unternehmen bereits im vergangenen Jahr vorgestellt hatte. Die Gewichte werden unter einer modifizierten MIT-Lizenz als Open Weights auf Hugging Face veröffentlicht. Über die API kostet das Modell 1,50 US-Dollar pro Million Eingabe-Token und 7,50 US-Dollar pro Million Ausgabe-Token. Zum Vergleich: DeepSeek-V4 kostet in der Pro-Variante 1,74 US-Dollar pro Million Eingabe-Token – liegt damit in ähnlicher Preisklasse, bietet aber ein deutlich größeres Kontextfenster.
Mistral positioniert das Modell vor allem für Kunden, die europäische Datensouveränität, niedrige API-Kosten und die Option auf Selbst-Hosting über die reine Benchmarkleistung stellen. Um diese Infrastruktur langfristig in Europa zu sichern, investiert Mistral massiv: Das Unternehmen nimmt 830 Millionen US-Dollar Kredit für ein Rechenzentrum nahe Paris auf.
Coding-Sessions in die Cloud teleportieren
Bislang liefen Coding-Agenten wie Vibe ausschließlich lokal. Das ändert sich nun: Sessions können in der Cloud laufen, mehrere parallel, und benachrichtigen den Nutzer, wenn sie fertig sind. Laufende lokale CLI-Sessions lassen sich dabei in die Cloud „teleportieren“, samt Sitzungsverlauf, Aufgabenstatus und ausstehenden Genehmigungen. Damit können Nutzer fließend zwischen lokaler Bearbeitung und Cloud wechseln.
Weiterlesen nach der Anzeige
Jede Coding-Session läuft in einer isolierten Sandbox. Ist die Arbeit erledigt, kann der Agent automatisch einen Pull-Request auf GitHub öffnen und den Entwickler benachrichtigen – sodass dieser nur noch das Ergebnis überprüft, nicht jeden einzelnen Schritt.
Agent erledigt Aufgaben selbstständig
Neu ist außerdem ein „Work Mode“ für den Le-Chat-Assistenten. Der Modus ermöglicht es dem Agenten, mehrere Tools gleichzeitig zu nutzen und komplexe, mehrstufige Aufgaben vollständig abzuarbeiten – etwa E-Mails und Kalender in einem Durchlauf zu überblicken, Recherchen über Web und interne Dokumente zu kombinieren oder Zusammenfassungen direkt in Slack zu senden.
Jeder Tool-Aufruf und die zugehörige Reasoning-Begründung sollen dabei sichtbar bleiben. Bei Aktionen wie dem Versenden einer Nachricht oder dem Ändern von Daten fragt der Agent explizit um Erlaubnis.
(mki)
Entwicklung & Code
Samsung erzielt höchsten Gewinn in Unternehmensgeschichte
Samsung Electronics hat dank des anhaltenden KI-Booms seinen höchsten Gewinn seit Unternehmensgründung erzielt. In seinen aktuellen Geschäftszahlen weist Südkoreas größtes Unternehmen einen Betriebsgewinn in Höhe von 57,2 Billionen Won (umgerechnet rund 32,9 Milliarden Euro) für den Zeitraum Januar bis März aus – in etwa das Achtfache des Vorjahreszeitraums.
Weiterlesen nach der Anzeige
Erwartungen des Marktes deutlich übertroffen
Samsungs Quartalszahlen haben damit selbst die bereits hohen Erwartungen des Marktes deutlich übertroffen. Laut einer von der südkoreanischen Nachrichtenagentur Yonhap durchgeführten Umfrage lag der Nettogewinn des Konzerns im Schnitt über 20 Prozent über den Schätzungen der befragten Ökonomen. Die Märkte reagierten positiv auf den Geschäftsbericht: Direkt nach Handelsstart am Donnerstagmorgen Ortszeit stieg der südkoreanische Leitindex Kospi um über 0,7 Prozent an, ehe er wieder etwas fiel.
Der Rekordgewinn von Samsung wird vor allem von der anhaltend starken Nachfrage nach Computerchips angetrieben. Chip-Engpässe haben die Preise stark in die Höhe getrieben. Allein 53,7 Billionen Won des Betriebsgewinns – und damit fast 94 Prozent des Gesamtgewinns – wurden von der Halbleitersparte des Unternehmens erzielt. Samsung Electronics ist einer der weltweit führenden Produzenten von Halbleitern, insbesondere im Segment leistungsstarker Speicherchips.
(afl)
Entwicklung & Code
Visual Studio 2026 erhält Cloud-Agenten-Integration
Microsoft hat seine Entwicklungsumgebung Visual Studio 2026 mit dem April-Update versehen, das die Cloud-Agenten-Integration einführt. Weitere Updates betreffen die C++-Entwicklung, benutzerdefinierte Agenten und die Verwendung von IntelliSense.
Weiterlesen nach der Anzeige
Updates für GitHub Copilot
Im neuen Release können Visual-Studio-User neue Remote-Coding-Sessions direkt aus der Entwicklungsumgebung heraus starten. Dazu wählen sie Cloud aus dem Agenten-Picker im Chatfenster und spezifizieren ihre Anforderungen. Daraufhin beginnt der Workflow mit der Rückfrage um Erlaubnis, ein Issue im Repository anlegen zu dürfen, und der Cloud-Agent bereitet einen entsprechenden Pull Request vor. Währenddessen können Nutzerinnen und Nutzer weiter in Visual Studio arbeiten oder die IDE schließen. Sie erhalten eine Benachrichtigung, sobald der Pull Request bereit zur Ansicht ist.
Cloud-Agenten laufen auf Remote-Infrastruktur und sollen eine skalierbare, isolierte Ausführung ermöglichen. Dahinter steht GitHub Copilot, sodass sich die Nutzerinnen und Nutzer in einem GitHub-Repository befinden müssen, in dem Copilot die Befugnis zum Erstellen von Issues besitzt.
Seit dem März-Update lassen sich zudem in Visual Studio benutzerdefinierte Agenten mit Repository-basierten .agent.md-Dateien erstellen. Nun wurde diese Funktion um User-Level-Agenten erweitert, die sich über unterschiedliche Projekte hinweg nutzen lassen. Sie werden standardmäßig in %USERPROFILE%/.github/agents/ gespeichert.
Neuerungen für C++ und IntelliSense
Die C++-Codeeditierungs-Tools für GitHub Copilot sind nun allgemein verfügbar. Das ermöglicht es dem Copiloten, mit Class-Inheritance-Hierarchien umzugehen und beim Refaktorieren oder Modifizieren von Code Function-Call-Ketten zu folgen. Hierzu müssen Entwicklerinnen und Entwickler ein C++-Projekt mit konfiguriertem IntelliSense öffnen und die C++-Tools im Copilot-Chat aktivieren:
Weiterlesen nach der Anzeige

Aktivierung der C++-Tools in Visual Studio: get_symbol_call_hierarchy und get_symbol_class_hierarchy.
(Bild: Microsoft)
Ein weiteres Update betrifft die allgemeine Verwendung des Codevervollständigungs-Tools IntelliSense. Bisher konnten User sowohl die Vorschläge von IntelliSense als auch von Copilot gleichzeitig sehen, was laut Feedback ablenkend sein konnte. Daher priorisiert der Editor nun die IntelliSense-Vervollständigungsliste und unterdrückt Copilot-Vorschläge. Nach dem Annehmen oder Ablehnen der IntelliSense-Auswahl erscheinen automatisch die Copilot-Vorschläge.
Alle weiteren Informationen zum neuen Visual-Studio-Update bietet Microsofts Entwicklerblog.
Siehe auch:
(mai)
Entwicklung & Code
Ubuntu integriert lokale KI | heise online
Jon Seager, VP of Engineering bei Canonical, hat in seinem Beitrag The future of AI in Ubuntu erläutert, wie Canonical KI in kommende Ubuntu-Versionen integrieren möchte. Dabei sollen lokal installierte Open-Weight-Modelle zum Einsatz kommen, um bestehende Funktionen wie Speech-to-Text für Barrierefreiheit zu verbessern und neue KI-Funktionen wie Unterstützung bei Fehlern und Automatisierungen durch agentische Workflows einzuführen. Auch kontextsensitive Hilfen etwa bei der Fehlersuche oder bei komplexen Aufgaben sind angedacht.
Weiterlesen nach der Anzeige
Schon die aktuelle LTS-Version Ubuntu 26.04 erleichtert die Nutzung von lokaler KI: Entwickler können die KI-Stacks für Nvidia- und AMD-Hardware (CUDA und ROCm) mit einem einfachen apt-Befehl aus den Standard-Paketquellen installieren. Dazu kommen die Inference Snaps, mit denen sich eine Reihe von KI-Modellen einfach lokal installieren lassen, darunter das multimodale KI-Modell Qwen VL, das Reasoning-Modell DeepSeek R1, das offene Google-Modell Gemma 3 sowie die Nvidia-Modelle Nemotron 3 Nano und Nemotron 3 Nano Omni. Das System soll dabei das gewünschte Modell in einer Variante und Quantisierung installieren, die zur eigenen Hardware passt. Dazu arbeitet Canonical mit CPU- und GPU-Herstellern zusammen. Wie alle Snaps laufen die KI-Modelle in einer Sandbox mit beschränktem Zugriff aufs System.
Positive Reaktionen aus der Community
Die Community-Reaktionen auf Seagers Beitrag sind überwiegend positiv. Die Ubuntu-Nutzer loben den maßvollen Einsatz von KI und den Verzicht darauf, KI-Funktionen aufzudrängen. Der Einsatz lokaler Modelle statt der großen KI-Modelle aus der Cloud wird begrüßt – auch wenn auf vielen Notebooks und PCs nur kleine, weniger leistungsfähige Modelle laufen.
In einem späteren Beitrag stellt Seager klar, dass alle integrierten KI-Funktionen in Ubuntu als deinstallierbare Snaps eingerichtet werden sollen – Anwender, die sie nicht nutzen wollen, können sie also einfach loswerden. In Ubuntu 26.10 soll es eine erste Preview der KI-Funktionen als Opt-in geben, Anwender müssen also explizit zustimmen. Später könnte die Frage nach KI-Nutzung in den Installer integriert werden. Man wolle niemanden KI aufzwingen. Seager betonte nochmals, dass die Pläne ausschließlich den Einsatz lokal installierter Sprachmodelle vorsehen.
(odi)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
