Connect with us

Entwicklung & Code

Sourcecode-Editor Zed erreicht Version 1.0


Der Code-Editor Zed liegt jetzt in Version 1.0 vor. Einzelne, neue Highlights benennen die Entwickler des Open-Source-Editors für ihr Release nicht.

Weiterlesen nach der Anzeige

Stattdessen betonen sie, dass Version 1.0 nach jahrelanger Entwicklungszeit den Punkt markiert, an dem Zed erstmals den vollen Funktionsumfang eines modernen Editors für macOS, Windows und Linux erreicht hat. Als Beispiele nennen sie Features wie Debugging, Git‑Integration, SSH‑Remote-Entwicklung sowie die Unterstützung dutzender Sprachen.

Der komplett in Rust geschriebene Zed bedient sich keiner Browser‑Plattform als Systemfundament, sondern ist wie ein Videospiel aufgebaut, so die Entwickler. Der Editor verfügt über eine eigene GPU‑basierte UI‑Engine (GPUI), auf der auch das Agent Client Protocol läuft. Damit lassen sich KI-Agenten wie Claude Agent, Codex CLI, Cursor und OpenCode unterstützend zur Softwareentwicklung hinzuziehen. Seit Januar 2024 ist Zed unter GPL (Editor), AGPL (Server-Komponenten) und Apache 2.0 (GPUI-Framework) lizenziert.

Die Kombination aus Rust-Unterbau und GPUI verhilft Zed zu einem Geschwindigkeitsvorteil gegenüber Web‑ oder Electron-basierenden Editoren wie Atom oder VS Code. Bereits im Mai 2025 hatte Zed-Entwicklerteam ihn in einem Blogbeitrag zum schnellsten KI-Code-Editor erklärt. Anwenderinnen und Anwender, die ohne KI-Support arbeiten wollen, können diesen in Zed ohne viel Aufhebens ausschalten. War dazu in früheren Versionen des Open-Source-Editors noch eine Einstellung in der settings.json-Datei erforderlich, funktioniert es nun direkt im UI.


(mro)



Source link

Entwicklung & Code

Geld für KI statt Open Source: pgBackRest-Projekt gibt auf


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

David Steele, der Maintainer des weitverbreiteten Postgres-Backup-Tools pgBackRest, hat keine Finanzierung für sein Projekt gefunden und es deswegen bei GitHub archiviert. Es ist nur noch lesbar.

Weiterlesen nach der Anzeige

Steele schreibt auf GitHub, er habe „nach einer Stelle gesucht, die es mir erlauben würde, die Arbeit fortzusetzen, aber bisher war ich nicht erfolgreich. Auch meine Bemühungen, mir Sponsoren zu sichern, haben nicht zu dem geführt, was ich brauche, um das Projekt gangbar zu halten.“ Außerdem fordert er Interessenten an Forks dazu auf, sich einen neuen Namen zu suchen.

Beobachter aus der Community erwarten Forks des im Postgres-Umfeld essenziellen Programms, kritisieren aber auch die IT-Industrie in ihrem Umgang mit Open Source. Laetitia Avrot, ehemaliges Mitglied des Postgres Code of Conduct Committee, weist beispielsweise darauf hin: „Das Open-Source-Modell funktioniert, wenn die Leute, die den Wert abschöpfen, auch zum Erhalt beitragen“. Große Firmen haben enorm von pgBackRest profitiert, aber: „Der KI-Goldrausch hat offensichtlich gründlich durchgerüttelt, was Firmen als bezahlenswert ansehen.“ Derzeit sei es offensichtlich wichtiger, RAM und GPUs bereitzustellen.

Weiterlesen nach der Anzeige

In der Community beginnt nun die Suche nach einer Alternative. Für Anwenderinnen und Anwender bedeutet es, vorerst abzuwarten. Derzeit gibt es keine neuen Funktionen für pgBackRest und auch keine Bugfixes mehr. Probleme werden daher vermutlich spätestens mit neuen Versionen von Postgres auftauchen.

Ein grafischer Aufruf mit einer überarbeiteten Version des bekannten xkcd-Comics „Dependency“ appelliert daran, Open-Source-Projekte der Infrastruktur wie pgBackRest auch angemessen finanziell zu unterstützen.


Cartoon zur Fundierung von Open Source

Cartoon zur Fundierung von Open Source

(Bild: xkcd.com/2347/)


(who)



Source link

Weiterlesen

Entwicklung & Code

Red Hat baut Prototyp für agentisches Betriebssystem


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

KI-Agenten, die für ihre Betreiber automatisch Aufgaben erfüllen können, sind populär – etwa OpenClaw kann viele Dinge für Nutzerinnen und Nutzer übernehmen. Da die agentische KI auch Dinge machen kann, wie weitere Software installieren, stellen sich zwangsläufig Sicherheitsfragen. Außerdem ist Skalierbarkeit ein weiterer Punkt. Red Hat will das mit einem agentischen Betriebssystem beantworten.

Weiterlesen nach der Anzeige

Die Grundidee ist einfach: Es braucht eine stabile und sichere Betriebssystem-Basis für KI-Agenten wie OpenClaw. Klassische Betriebssysteme verändern sich über die Zeit durch Softwareinstallationen und allgemeine Nutzung, was zu einer Drift der Konfiguration führt. In normalen virtuellen Maschinen wird die Reproduzierbarkeit dadurch schwierig, etwa um sicherzustellen, dass das System wie gewünscht funktioniert und sicher bleibt.

In einem Blog-Beitrag erklärt Red-Hat-Mitarbeiterin Sally O’Malley, wie sie einen Prototyp eines agentischen Betriebssystems in Form einer Containerdatei erstellt hat. Das setzt auf fedora-bootc auf, einem Community-Projekt, das ein bootbares Linux-Betriebssystem direkt in einer Containerdatei wie Docker-Container verfrachtet. Die Abbilder sollen sich auch in vollständige Disk-Images umwandeln lassen, etwa QCOW2 (QEMU Copy On Write version 2), AMI (Amazon Machine Image), ISO-9660-Image zum Brennen auf DVD oder CD, Google-Cloud-Image und weitere.

Das Betriebssystem wird dadurch zum Build-Zeitpunkt definiert und zur Laufzeit ist man beschränkt auf Änderungen, die zuvor explizit erlaubt wurden. Nach dem Start stellt das Container-Abbild das Betriebssystem dar, mit Kernel, init-Prozess und root-Dateisystem. Der Großteil des Dateisystems ist im Nur-Lese-Zugriff. Es handelt sich damit um gehärtete Umgebungen, die einem definierten Standard folgen – ein unveränderliches System, was der Reproduzierbarkeit dient. Das unterbindet zudem die „Systemdrift“, wodurch einzelne Installationen voneinander aufgrund unterschiedlicher installierter Zusatzsoftware abweichen. Durch das agentische Betriebssystem sind im Beispiel der OpenClaw-Dienst, Helfer-Skripte, Nutzerkonten und systemd-Units zum Build-Zeitpunkt festgelegt und strikt von den veränderlichen Daten getrennt.

Updates der Umgebungen werden vereinheitlicht und kontrollierbar, da zur Aktualisierung einfach das neue Image in die Registry eingestellt wird. Alle laufenden Maschinen ziehen sich die Aktualisierung und booten sie. Updates werden dadurch transaktional, O’Malley vergleicht sie mit einem Git-Commit, wodurch auch Rollbacks trivial werden. Die Secrets, OpenClaw-Status und SSH-Keys bleiben unangetastet und intakt, während sich das Betriebssystem weiterentwickelt.

Der Ansatz macht agentische KI zudem skalierbar. Es lassen sich zahlreiche Abbilder etwa auf Server-Clustern starten, die zudem nicht alle einzeln individuell konfiguriert werdenmüssen. Alle Maschinen starten OpenClaw und der KI-Agent läuft dann genau wie erwartet. Versionen und Konfigurationen bleiben synchronisiert.

O’Malley will damit zunächst das Konzept eines agentischen Betriebssystems demonstrieren und vorstellen. Das steht jedoch auch auf der Roadmap von Red Hat. Konkret plant Red Hat dafür ein Projekt namens Kagenti als Teil von Red Hat AI – mit einer Preview noch 2026. Wer das mal ausprobieren möchte, findet die Dateien und Dokumentation im Repository von Red Hat.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Entwicklung & Code

Mistral AI: Neues Sprachmodell Medium 3.5 und Cloud-Coding-Agenten


Ein agentischer Chatbot, KI-Coding in der Cloud und ein starkes neues Open-Weights-Modell: Das französische KI-Start-up Mistral hat gleich drei Neuigkeiten vorgestellt. Im Mittelpunkt steht das neue Sprachmodell Mistral Medium 3.5, das im Selbst-Hosting bereits mit nur vier GPUs betrieben werden kann.

Weiterlesen nach der Anzeige

Mistral Medium 3.5 ist ein Modell mit 128 Milliarden Parametern mit einem Kontextfenster von 256.000 Token, das Instruktionsbefolgung, Reasoning und Coding in einem einzigen Modell vereint. Das Besondere daran: Der Rechenaufwand für das Reasoning lässt sich pro Anfrage konfigurieren, sodass dasselbe Modell sowohl eine schnelle Chat-Antwort liefern als auch komplexe Agentenaufgaben durcharbeiten kann. Mistral Medium 3.5 ist damit der Nachfolger einer wachsenden Modellfamilie: Mit Mistral 3 hatte das Unternehmen Ende 2025 vier neue Modelle vorgestellt, die es mit US- und China-Konkurrenz aufnehmen sollten.

Das Modell ersetzt Devstral 2 im Vibe-CLI und wird zudem zum neuen Standardmodell in Le Chat, dem KI-Assistenten von Mistral. Mistral baut dabei auf einem Framework zur Entwicklung von KI-Agenten auf, das das Unternehmen bereits im vergangenen Jahr vorgestellt hatte. Die Gewichte werden unter einer modifizierten MIT-Lizenz als Open Weights auf Hugging Face veröffentlicht. Über die API kostet das Modell 1,50 US-Dollar pro Million Eingabe-Token und 7,50 US-Dollar pro Million Ausgabe-Token. Zum Vergleich: DeepSeek-V4 kostet in der Pro-Variante 1,74 US-Dollar pro Million Eingabe-Token – liegt damit in ähnlicher Preisklasse, bietet aber ein deutlich größeres Kontextfenster.

Mistral positioniert das Modell vor allem für Kunden, die europäische Datensouveränität, niedrige API-Kosten und die Option auf Selbst-Hosting über die reine Benchmarkleistung stellen. Um diese Infrastruktur langfristig in Europa zu sichern, investiert Mistral massiv: Das Unternehmen nimmt 830 Millionen US-Dollar Kredit für ein Rechenzentrum nahe Paris auf.

Bislang liefen Coding-Agenten wie Vibe ausschließlich lokal. Das ändert sich nun: Sessions können in der Cloud laufen, mehrere parallel, und benachrichtigen den Nutzer, wenn sie fertig sind. Laufende lokale CLI-Sessions lassen sich dabei in die Cloud „teleportieren“, samt Sitzungsverlauf, Aufgabenstatus und ausstehenden Genehmigungen. Damit können Nutzer fließend zwischen lokaler Bearbeitung und Cloud wechseln.

Weiterlesen nach der Anzeige

Jede Coding-Session läuft in einer isolierten Sandbox. Ist die Arbeit erledigt, kann der Agent automatisch einen Pull-Request auf GitHub öffnen und den Entwickler benachrichtigen – sodass dieser nur noch das Ergebnis überprüft, nicht jeden einzelnen Schritt.

Neu ist außerdem ein „Work Mode“ für den Le-Chat-Assistenten. Der Modus ermöglicht es dem Agenten, mehrere Tools gleichzeitig zu nutzen und komplexe, mehrstufige Aufgaben vollständig abzuarbeiten – etwa E-Mails und Kalender in einem Durchlauf zu überblicken, Recherchen über Web und interne Dokumente zu kombinieren oder Zusammenfassungen direkt in Slack zu senden.

Jeder Tool-Aufruf und die zugehörige Reasoning-Begründung sollen dabei sichtbar bleiben. Bei Aktionen wie dem Versenden einer Nachricht oder dem Ändern von Daten fragt der Agent explizit um Erlaubnis.


(mki)



Source link

Weiterlesen

Beliebt