Connect with us

Künstliche Intelligenz

Linux: Torvalds wirft Bcachefs-Dateisystem aus dem Kernel


Linus Torvalds hat den Support für Bcachefs aus dem Hauptentwicklungszweig seines Kernels entfernt; das in neun oder zehn Wochen erwartete Linux 6.18 wird mit dem Dateisystem formatierte Datenträger daher von Haus aus nicht mehr einbinden können. Der für Linux-Verhältnisse ungewöhnliche Rauswurf erfolgte rund 24 Stunden nach der Freigabe von Linux 6.17 zum Wochenstart. Diese Version hatte bereits keine Bcachefs-Neuerungen mehr gebracht, denn der Linux-Erfinder hatte den Stand dort vor zwei Monaten als „extern gewartet“ gekennzeichnet und damit eingefroren – nach mehrfachem Zank mit Kent Overstreet, dem Erfinder und Hauptentwickler von Bcachefs.

Der Rauswurf sollte nur wenige Linux-Anwender betreffen, denn der Bcachefs-Code in Linux ist nie dem experimentellen Stadium entwachsen. Da einzelne Distributionen das Dateisystem aber als Option für Tester anboten, hat es durchaus Nutzer. Darunter sind auch einige sehr laute Fürsprecher. Kein Wunder, lockt doch Bcachefs mit einer attraktiven Kombination einiger von anderen Dateisystemen bekannten Features.

Für diese und zukünftige Anwender hat Overstreet einige Umbaumaßnahmen am Code vorgenommen, die er fortan extern entwickelt, wie er es vor der Aufnahme bei Linux 6.7 vor rund eindreiviertel Jahren getan hat. Durch die Umbauten lässt sich Bcachefs jetzt per DKMS (Dynamic Kernel Module Support) bei verschiedensten Kerneln ab Linux 6.16 nachrüsten – und wird bei Kernel-Updates idealerweise auch automatisch passend zum neuen Kernel übersetzt. Das Ganze kennen viele Anwender etwa von Distributionen wie Debian oder Ubuntu, die das ältere, proprietäre Kernel-Modul der Nvidia-Grafiktreiber via DKMS handhaben.



Torvalds will mit dem Rauswurf Verwirrung vermeiden, wo Bcachefs jetzt via DKMS installierbar ist.

(Bild: Screenshot Thorsten Leemhuis / heise medien)

Auch zur Virtualisierung mit VMware oder VirtualBox oder zum Support des Dateisystem OpenZFS setzen viele Distributionen auf das unabhängig vom Kernel gewartete DKMS. Das funktioniert in vielen Fällen recht zuverlässig, fällt gelegentlich aber beim Kompilieren auf die Nase. Das liegt zumeist nicht an DKMS, sondern am eher monolithischen Design von Linux.

Bei dem sind Treiber, Dateisystemcode und nichts Separates, sondern formen zusammen den „Kernel“ – auch dann, wenn man beim Bau des Kernels festlegt, einige Teile als nur bei Bedarf nachgeladenes Modul auszulagern. Bei gängigen Linux-Distributionen passen Kernel-Module daher nur zu dem Kernel-Image, für das sie kompiliert wurden. Diese sind somit eben nicht ab- oder aufwärtskompatibel, wie man es von stabilen Plug-in- oder Add-on-Schnittstellen bei Browsern oder Treibern von Windows kennt.

Das liegt auch an einem anderen Aspekt: Um den Kernel schnell und schlank zu halten, verändern Torvalds und seine Helfer bei Bedarf die Kommunikationswege zwischen den verschiedenen Bestandteilen von Linux; dabei nehmen sie keine Rücksicht auf externe gewarteten Kernel-Code, der sich über diese Wege einklinkt. Entwickler von extern entwickeltem Kernel-Code wie fortan Bcachefs müssen diesen daher hin und wieder an die Belange neuer Linux-Versionen anpassen; das kann alle paar Wochen oder nur alle paar Jahre nötig sein, je nachdem, welche Kernel-Funktionen der externe Code verwendet und wie häufig sich diese Kernel-seitig ändern.

Diese Änderungen am externen Code müssen es dann aber auch zu den Nutzern schaffen, bevor diese auf Kernel-Version mit veränderten Schnittstellen wechseln. Hakt es daran, schlägt beim Anwender das automatische Kompilieren des Moduls via DKMS fehl.

Bei extern gewarteten Modulen für Grafikchips führt das zu Problemen, die zumindest Kenner oft mit einigen Handgriffen lösen können. Bei Modulen für Dateisysteme kann es schwieriger sein, denn wenn dem startenden Kernel ein Modul für das Root-Dateisystem fehlt, kann man das System darüber nicht mehr starten und daher kein passendes neues Modul einrichten. Um sich aus so einer Situation ohne Live-Linux heraus zu manövrieren, belassen einige Distributionen den jeweils letzten als funktionierend bekannten Kernel bei Updates als Boot-Option zurück. Derlei braucht man im dümmsten Fall auch, wenn neuer Modulcode nicht funktioniert und man das alte Modul schon gelöscht hat.

Der DKMS-Weg von Bcachefs hat einen weiteren Nachteil, wie Overstreets Mail zur breiten Verfügbarkeit des DKMS-Ansatzes zeigt: Statt Bcachefs mehr oder weniger frei Haus über den Kernel an Distributionen zu verteilen, sind nun Anpassungen für Eigenarten der verschiedensten Distributionen nötig. Zur möglichst einfachen Handhabung durch die Nutzer braucht es ferner idealerweise auch Distributions-spezifische Pakete, die jemand konstant pflegt und testet.

Beim Support für Arch Linux, Debian und Ubuntu scheint die Lage demnach schon recht gut zu sein. Bei Fedora ist es im Werden, während bei openSUSE noch allerlei Fragezeichen im Raum stehen; dessen Entwickler hatten kürzlich den Bcachefs-Support bei Tumbleweed-Kernel beim Wechsel auf 6.17 deaktivierten und Overstreets Verhalten dabei kritisierten.

Die Bcachefs-Unterstützung zur Handhabung via DKMS nennt Torvalds jetzt als Grund für die Entfernung des Dateisystems – die Kenner mittelfristig erwartet hatten, aber letztlich jetzt viel flotter kam, als es bei der Stilllegung von Bcachefs vor zwei Monaten schien. Der waren mehrere Streitereien vorangegangen, vor allem zwischen Overstreet und Torvalds. Gleich zweimal hatte es zwischen den beiden lautstark gekracht, weil der Bcachefs-Erfinder Code mit neuen Features zur Aufnahme während der längeren Stabilisierungsphase an den Linux-Erfinder schickte, anstatt während der kurzen Hauptentwicklungsphase (dem „Merge Window“), die dafür vorgesehen ist. Overstreet war aber auch mehrfach mit anderen Entwicklern zusammen gerasselt. Unter anderem, weil er hinterrücks den von ihnen betreuten Code geändert hatte.

Der streitbare Kalifornier hat Bcachefs seit über zehn Jahren weitgehend im Alleingang entwickelt – auch, weil sich mehrere mit der Zeit dazu gestoßene Mitstreiter über kurz oder lang mit ihm überworfen haben. Bis zu einem gewissen Grad ist das nur menschlich, schließlich passiert derlei auch beim Hasenzüchter- und Sportvereinen; bei Häufigkeit und Tonfall der Streitereien hebt sich die Bcachefs-Entwicklung aber negativ von anderen Software-Projekten und auch dem Linux-Kernel ab.

c’t Open Source Spotlight abonnieren

Innovative Software, spannende Projekte: Erweitern Sie Ihre Möglichkeiten und werden Sie Teil der Open Source Community.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Derlei Drama und der Zank mit zentralen Kernel-Entwicklern dürften Schwergewichte aus dem Linux-Bereich verschrecken, die jährlich schätzungsweise mehrere Millionen von US-Dollar in Hardware und Mitarbeiter investieren, um die direkt in Linux enthaltenen Dateisysteme zu testen und zu verbessern – etwa Google (Ext4), Meta und Suse (Btrfs) oder Oracle und Red Hat (XFS).

Für Overstreet und seine Unterstützer wird es schwer, da mitzuhalten, denn Dateisysteme sind komplex und Linux-Nutzer machen die kuriosesten Dinge mit ihnen – daher sind meist viele Jahre Feldtest und mühsames Feintuning nötig, bis ein universelles Dateisystem wie Bcachefs wirklich stabil und in vielen der gängigen Einsatzgebiete performant arbeitet.

Hier hat Bcachefs noch viel Arbeit vor sich, auch wenn sein Hauptentwickler den extern gewarteten Dateisystemcode kürzlich als „stabil“ deklariert hat. Zumindest, wenn es ähnlich wie bei der Entwicklung von Btrfs, Ext4, Reiserfs oder XFS läuft: Auch dort war ab einem vergleichbaren Punkt noch jahrelange Arbeit und damit letztlich auch viel Geld nötig, um die Erwartungen der breiten Anwenderschar an Robustheit und Performance zu befriedigen.


(ktn)



Source link

Künstliche Intelligenz

Microsoft will KI-Agenten smarter machen und mit Agent 365 besser überwachen


Microsoft hat mehrere neue Produkte und Funktionen Künstlicher Intelligenz (KI) angekündigt. So soll der erweiterte Zugriff auf Unternehmensdaten KI-Agenten intelligenter machen, sodass diese Menschen besser unterstützen können (sollen). Microsofts „Agent Factory“ soll die Erstellung eigener KI-Agenten vereinfachen, während „Agent 365“ zur Verwaltung und Kontrolle dieser KI-Agenten dient. Diese Steuerungsebene soll den sicheren Einsatz der KI-Agenten gewährleisten.

Weiterlesen nach der Anzeige

Diese und andere Ankündigungen erfolgten im Rahmen der Hausmesse „Ignite 2025“, wo Microsoft nicht müde wird zu betonen, dass KI zur Unterstützung von Menschen und Mitarbeitern dient. Nach Ansicht des Konzerns werden moderne Unternehmen künftig „von Menschen geführt und von Agenten betrieben“. Das hat Microsoft teilweise auch bereits selbst umgesetzt, denn im Juli dieses Jahres erklärte ein hochrangiger Manager des Konzerns, dass Microsoft 500 Millionen Dollar durch KI einspart. Denn dafür mussten 15.000 Mitarbeiter gehen.

Diesen Weg ebnet Microsoft auch anderen Unternehmen durch eigene KI-Agenten. Zur Verbesserung dieser KI gehört Work IQ, das durch Zugriff auf Unternehmensdaten, Speicher und KI-Abfragen Wissen anhäuft. Auf Basis von E-Mails, Dateien, Meetings und Chats kann Copilot damit „Zusammenhänge erkennen, neue Erkenntnisse gewinnen und die nächsten sinnvollen Schritte vorschlagen“, schreibt Microsoft. Dazu kommen Fabric IQ, ein Modell auf Basis von Analyse-, Zeitreihen- und standortbasierten Daten, sowie Foundry IQ, ein „voll gemanagtes Wissenssystem“ aus mehreren Datenquellen für KI-Agenten.

Darauf aufbauend lassen sich mit Microsofts „Agent Factory“ individuelle KI-Agenten entwickeln, die dann per Microsoft 365 Copilot zur Verfügung stehen. Verwaltet und überwacht werden diese KI-Agenten mit „Agent 365“. Der Konzern vergleicht dies mit dem Management von Mitarbeitern, denn die KI-Agenten werden „mit vielen derselben Apps und Schutzmaßnahmen wie Menschen“ ausgestattet, aber eben auf KI-Bedürfnisse zugeschnitten. Dadurch sollen KI-Agenten schneller und einfacher in Geschäftsprozesse integriert werden können.

Denn an KI-Agenten kommen moderne Unternehmen nach Ansicht Microsofts nicht vorbei. Sie würden Aufgaben automatisieren, mit Menschen zusammenarbeiten und die Produktivität beschleunigen. Der Konzern verweist dabei auf die Prognose der Marktforscher von IDC, nach der es bis 2028 bereits 1,3 Milliarden KI-Agenten geben wird. Diese IDC-Untersuchung aus dem Mai 2025 wurde allerdings von Microsoft gesponsert, wie der Konzern per Fußnote zugibt.

Weiterlesen nach der Anzeige

Lesen Sie auch

Agent 365 wird im Admin-Zentrum von Microsoft 365 zur Verfügung stehen. Derzeit ist es aber nur über das Frontier-Programm verfügbar, in dem Anwender einen Vorabzugriff auf Funktionen erhalten, die sich noch in der Entwicklung befinden. Damit können IT-Administratoren die Erstellung, die Verwaltung und die Anwendung neuer KI-Agenten in verschiedenen Szenarien zunächst testen.


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

Google bringt Gemini 3 und Agenten-Plattform raus


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Gemini 3 ist auf allen Ebenen besser als der Vorgänger, Gemini 2.5 – das sagt Google und beruft sich dabei auch auf die Ergebnisse in der LM Arena, in der KI-Modelle gegeneinander antreten. Die neue Version wird ab sofort für Verbraucher, Entwickler und Unternehmen verfügbar gemacht. Zudem bietet Google künftig mit Antigravity eine Plattform an, über die KI-Agenten erstellt und betreut werden können.

Mit Gemini 3 soll jeder jede Idee zum Leben erwecken können. Das Modell sei besonders gut im Reasoning, also im Nachdenkprozess, sowie im Vibe Coding – so nennt sich Programmieren, wenn die Anweisungen in natürlicher Sprache von KI ausgeführt werden. Außerdem soll Gemini 3 den Kontext und die Absicht einer Anfrage besser verstehen. In einem Blogbeitrag schreibt Google-CEO Sundar Pichai, es sei aufregend, wie KI nicht mehr nur Text und Bilder lesen kann, sondern inzwischen auch den Raum versteht. Was Google nicht erklärt und auch auf Nachfrage schmallippig antwortet: Wie genau das Modell denn verbessert worden ist. Gibt es eine neue Architektur, andere Trainingsdaten oder wurden mehr Daten genutzt? Es habe überall Verbesserungen gegeben, heißt es in einem Gespräch.

Nun zieht Gemini 3 in die Gemini App. Der zuständige Google-VP, Josh Woodward, sagt, jeder würde sofort merken können, wie viel hilfreicher Gemini mit dem Update geworden ist. Er zeigt in einer Pressevorführung, wie Gemini den Output neu sortieren kann. Der gesamte Look ist überarbeitet worden. Als Beispiel muss natürlich – wie bei fast jeder KI-Präsentation – das Thema Reiseplanung herhalten. Die App liefert Informationen fast im Stil eines Hochglanz-Magazins. Woodward zeigt auch ein Storytelling über Vincent Van Gogh – ebenfalls bunt, dynamisch und schick. Freilich bleibt immer die Frage, ob alle Informationen richtig sind, ob es Halluzinationen gibt und woher die Informationen stammen. KI ist nach wie vor auch bei Google ein Experiment.


Reise planen mit Gemini

Reise planen mit Gemini

(Bild: Google)

So kommt es denn auch, dass Gemini 3 Deep Think, ein auf Reasoning spezialisiertes Modell, zunächst noch von Sicherheitsforschern getestet wird und nur für Google AI Ultra Abonnenten verfügbar ist.

Laut Googles Deepmind-CEO Demis Hassabis, schlägt Gemini 3 Pro alle anderen Modelle in der LM Arena – mit 1501 Punkten in der Bestenliste. In Humane`s Last Exam schafft es beispielsweise 37,5 Prozent (Gemini 2.5 Pro hat 21,6 Prozent richtig beantwortet). Gemini 3 Deep Think erreicht sogar 41 Prozent.

Weiterlesen nach der Anzeige

Auch die Suche baut künftig auf Gemini 3 auf – gemeint ist damit der AI Mode. Für Google AI Pro und Ultra Abonnenten zunächst in den USA gibt es sogar noch eine Erweiterung namens Thinking, in der Gemini 3 Pro genutzt wird. Google spricht davon, dass der KI-Modus ein neues, generatives User-Interface erhält. Gemeint ist, dass sich etwa ganze Passagen in die Promptbar verschieben lassen, sowie interaktive Layouts und Simulationen, die das KI-Modell erstellt. Dafür greift Gemini auch auf die eigenen agentischen Fähigkeiten zurück.

Um KI-Agenten zu erstellen und zu verwalten, gibt es nun eine neue Plattform: Google Antigravity. Sie richtet sich an Entwickler. Es geht also nicht um einen Agenten, der aus dem Chat heraus mal eben ein Paar Socken für den Nutzer kauft, wie es beispielsweise der ChatGPT Agent machen soll. Grundsätzlich handelt es sich um eine integrierte Entwickler-Umgebung (IDE). Die Agenten haben dabei Zugang zum Editor, Terminal und Browser. In Antigravity ist auch Gemini 2.5 Computer Use integriert. Das ist der KI-Agent, der den Browser bedienen kann und dafür auf Screenshots zurückgreift. Auch Nano Banana steckt als Bildgenerator in der Plattform.


Antigravity

Antigravity

Antigravity

(Bild: Google)

Entwickler haben auf Gemini 3 Zugriff via API in AI Studio, Antigravity und Gemini CLI. Für Unternehmen steht Gemini 3 via Vertex AI und Gemini Enterprise zur Verfügung.

Bei all dem soll Gemini 3 das bisher sicherste Modell von Google sein. Es sei beispielsweise weniger anfällig für Prompt Injections oder den Missbrauch für Cyberangriffe.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Grok 4.1 soll emotionaler, kreativer und faktentreuer sein


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Large Language Model Grok soll nach einem Update auf Version 4.1 mehr emotionales Einfühlungsvermögen mitbringen, kreativer, faktentreuer und schneller sein. Das verspricht zumindest Entwickler xAI und verweist auf Benchmarks wie LMArena, laut denen das KI-Modell besser als bekannte Mitbewerber wie GPT 5 von OpenAI oder Claude Sonnet 4.5 von Anthropic abschneidet. Bemerkenswert ist dabei, dass sich das schnellere Modell ohne Reasoning-Schritt ebenfalls vor anderen Modellen mit Reasoning platzieren konnte.

Weiterlesen nach der Anzeige

Grok 4.1 soll weniger oft Unsinn erzählen, sich im Gespräch angenehmer anfühlen, kreativer schreiben und schneller antworten. Laut xAI wurde das Modell in Blindtests von Nutzern gegenüber Grok 4 bevorzugt. In rund 65 Prozent der Fälle fanden sie demnach die neue Version besser.

xAI verspricht auch eine höhere Faktentreue. Das Non-Reasoning-Modell halluzinierte nur noch in 4,2 statt 12 Prozent der Fälle. Der Entwickler selbst spricht von „erheblichen Verbesserungen für die praktische Anwendbarkeit von Grok“. Das Modell ist in den USA zum Beispiel in Tesla-Fahrzeugen als Assistent integriert. Für das Training habe man auf die gleiche Infrastruktur zurückgegriffen, die auch bei Grok 4 im Einsatz war. Dieses Mal hätten jedoch die Optimierung des Stils, der Persönlichkeit und Hilfsbereitschaft sowie die Ausrichtung des Modells im Fokus gestanden.

Im LMArena-Test nahm das Thinking-Modell Platz 1 ein, was einen bedeutenden Sprung nach vorn darstellt, da Grok 4 dort noch auf Platz 33 stand. Die emotionale Intelligenz wurde mit EQ-Bench gemessen. Auch hier konnte sich Grok von Version 4 (1206 Punkte) auf Version 4.1 (1586 Punkte) deutlich verbessern. Beim kreativen Schreiben platzierte sich Grok 4.1 hinter der Preview-Version von GPT 5.1. Offenbar ist das Modell aber recht empfänglich für manipulative Prompts. Laut der Model Card habe Grok 4.1 im MakeMeSay-Test schlecht abgeschnitten. Allerdings sehen die Entwickler hierin kein großes Risiko.

Grok 4.1 ist in den Varianten Thinking (Codename quasarflux) und Non-Thinking (Codename tensor) ab sofort verfügbar auf grok.com, im Kurznachrichtendienst X sowie in den iOS- und Android-Apps. Es kann kostenlos von allen Nutzern verwendet werden und ist automatisch vorausgewählt. Zahlende Nutzer haben weniger Limits.

Weiterlesen nach der Anzeige


(mki)



Source link

Weiterlesen

Beliebt