Entwicklung & Code
Apple-Studie: Nutzer wollen transparente KI-Agenten statt Black-Box-Systeme
Apple-Forscher haben in einer zweiphasigen Studie untersucht, wie Nutzer mit KI-Agenten interagieren möchten. Das Ergebnis ist überraschend: Menschen bevorzugen weniger leistungsstarke, sondern eher transparente Agenten gegenüber leistungsstarken Black-Box-Systemen. Die im Februar 2026 veröffentlichte Studie „Mapping the Design Space of User Experience for Computer Use Agents“ identifiziert vier zentrale Kategorien für das UX-Design und analysiert neun bestehende Systeme wie Claude Computer Use Tool, OpenAI Operator und Googles Project Mariner.
Weiterlesen nach der Anzeige
Die Forscher untersuchten in Phase 1 ihrer Studie neun kommerzielle KI-Agent-Systeme und führten Interviews mit acht UX- und KI-Praktikern aus großen Technologieunternehmen. In Phase 2 testeten sie ihre Erkenntnisse mit 20 Teilnehmern in einem sogenannten Wizard-of-Oz-Experiment. So wird ein Versuch bezeichnet, bei dem ein Mensch (Proband) annimmt, mit einem autonomen (im Sinne der künstlichen Intelligenz) System zu kommunizieren, in Wirklichkeit aber mit einem Menschen interagiert. Die Probanden sollten Aufgaben wie Ferienwohnungsbuchungen oder Online-Shopping erledigen, während ein Forscher im Nebenraum die Agent-Aktionen simulierte. Die Teilnehmer konnten den vermeintlichen Agenten jederzeit mit einem Interrupt-Button stoppen. Die aufgezeichneten Videos und Chat-Logs lieferten Einblicke in die tatsächlichen Nutzererwartungen.
Transparenz wichtiger als Automatisierung
Ein zentrales Ergebnis: Nutzer wollen Einblick in Agent-Aktivitäten, aber kein Mikromanagement. Zu viel Kontrolle würde bedeuten, dass sie die Aufgaben gleich selbst erledigen könnten. Besonders wichtig ist den Probanden Transparenz bei unbekannten Bedienoberflächen. Dort wünschen sie mehr Zwischenschritte, Erklärungen und Bestätigungspausen – selbst bei Szenarien mit geringem Risiko. Bei Aktionen mit echten Konsequenzen wie Käufen, Kontoänderungen oder Kontaktaufnahmen mit anderen Menschen fordern Nutzer mehr Kontrolle.
Das Vertrauen in KI-Agenten bricht schnell zusammen, wenn das System stille Annahmen trifft oder Fehler macht. Bei mehrdeutigen Wahlmöglichkeiten bevorzugen Nutzer, dass der Agent pausiert und nachfragt, statt zufällig zu wählen. Besonders deutlich wird dies bei Entscheidungen, die zu falschen Produktauswahlen führen könnten.
Bestehende Systeme erfüllen Erwartungen nur teilweise
Die neun analysierten Systeme, darunter Claude Computer Use Tool von Anthropic, OpenAI Operator und Googles Project Mariner, erfüllen die Nutzererwartungen laut den Forschern nur teilweise. Die Studie zeigt auch kontextabhängige Erwartungen: Nutzer wollen unterschiedliches Agent-Verhalten, je nachdem ob sie Optionen erkunden oder eine bekannte Aufgabe ausführen. Die Erwartungen ändern sich auch basierend auf der Vertrautheit mit einer Schnittstelle. Die gesammelten Erkenntnisse könnten direkten Einfluss auf Apples geplante Siri-Überarbeitung haben. So kündigte der iPhone-Hersteller im Sommer 2024 an, dass der Sprachassistent künftig appübergreifend Aufgaben erledigen soll. Die Veröffentlichung verzögerte sich jedoch. Aktuell wird erst in den nächsten Monaten damit gerechnet.
Weiterlesen nach der Anzeige
Apple verfolgt bei KI-Agenten einen deutlich konservativeren Ansatz als Konkurrenten wie OpenAI, Google und Meta. Während diese Unternehmen Milliarden in große, allgemeine Sprachmodelle investieren, konzentriert sich Apple auf gezielte, datenschutzorientierte Features mit Schwerpunkt auf On-Device-Verarbeitung.
Für rechenintensive Aufgaben evaluiert Apple externe Modelle, insbesondere Googles Gemini, plant aber, eine angepasste Version auf eigenen Servern zu betreiben. Persönliche Daten und Geräte-Kontext bleiben bei Apples eigenen In-House-Modellen. Die aktuelle Studie spielt Apple in die Hände: Nutzer akzeptieren lieber später startende, aber besser konzipierte Systeme als schnell eingeführte Black-Box-Lösungen.
(mki)
Entwicklung & Code
Webframework: Astro 6.0 experimentiert mit neuem Rust-Compiler
Das quelloffene JavaScript-Framework Astro hat Version 6.0 erreicht. Darin sind zahlreiche Neuerungen enthalten, unter anderem eine Überarbeitung des Entwicklungsservers und eine integrierte Fonts-API. Die bestehenden Features Live Content Collections und Content-Security-Policy-API sind nun stabil. Als experimentelle Funktion steht ein neuer Rust-Compiler als Nachfolger des Go-basierten Compilers in den Startlöchern.
Weiterlesen nach der Anzeige
(Bild: jaboy/123rf.com)

Tools und Trends in der JavaScript-Welt: Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm dreht sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Frühbuchertickets sind im Online-Ticketshop erhältlich.
Rust-Compiler: vom Experiment zum geplanten Standard
Wie das Astro-Team ausführt, begann der neue Rust-Compiler zunächst nur als KI-Experiment. Aber da er sich als schneller und teils sogar zuverlässiger erwiesen hat als der Go-Compiler, soll er in Zukunft zum Standard werden. Interessierte können ihn bereits ausprobieren, indem sie das rustCompiler-Flag aktivieren und das entsprechende Package installieren (npm install @astrojs/compiler-rs). Auch an weiterem Rust-basierten Tooling arbeiten die Astro-Entwickler nach eigenen Angaben bereits.
Neue Fonts-API und stabile Funktionen
In Astro 6.0 finden Entwickler eine integrierte Fonts-API vor. Damit lassen sich Fonts mithilfe lokaler Dateien oder Anbietern wie Google oder Fontsource konfigurieren. Anschließend übernimmt Astro weitere Arbeiten wie das Herunterladen und Caching für Selbst-Hosting oder das Generieren optimierter Fallbacks.
Bereits seit Astro 2.0 sind Content Collections mit an Bord. Damit können Entwicklerinnen und Entwickler Sets an strukturierten Inhalten in Astro-Projekten verwalten, beispielsweise Blogeinträge oder Produktbeschreibungen. Astro kann hierfür mit lokal gespeicherten Daten in den Formaten Markdown, MDX, Markdoc, YAML, TOML oder JSON umgehen. Bisher erforderten Content Collections einen Rebuild, wenn sich Inhalte änderten.
Das gehört dank der nun stabilen Live Content Collections der Vergangenheit an: Sie erfassen den Content zur Request-Zeit und erlauben eine unverzügliche Aktualisierung von Inhalten ohne Rebuild. Astro-Developer können eine Live-Quelle in der Datei src/live.config.ts mittels defineLiveCollection() festlegen. Parallel zu den Live Content Collections lassen sich im gleichen Projekt auch die klassischen Content Collections nutzen.
Weiterlesen nach der Anzeige
Ebenfalls stabil ist ein sicherheitsrelevantes Feature, die Content-Security-Policy-API. Laut dem Astro-Team ist Astro eines der ersten JavaScript-Metaframeworks, die integrierten Support für Content Security Policy (CSP) für statische und dynamische Seiten sowohl in Server- als auch Serverless-Umgebungen bieten.
Cloudflare-Fokus: Update für astro dev
Astros Entwicklungsserver astro dev wurde überarbeitet, um mit Runtimes abseits von Node.js, wie Cloudflares workerd-Laufzeit, zusammenzuspielen. Dazu kommt Vites neue Environment API zum Einsatz. Da der Dev-Server ursprünglich auf Node.js ausgelegt war, konnten Developer unter Verwendung anderer Runtimes wie Cloudflare Workers, Bun oder Deno die eigentliche Produktionslaufzeit bisher nicht während der Entwicklung einsetzen. Nun können sie während der Entwicklung eine benutzerdefinierte Laufzeitumgebung auswählen. Dev-Server und Build-Pipeline verwenden in Astro 6.0 die gleichen Codepfade.
Diese Überarbeitung entspringt der offiziellen Partnerschaft mit dem Unternehmen Cloudflare, das im Herbst letzten Jahres Astro mit 150.000 US-Dollar unterstützte. Im Januar 2026 wurde Astro von Cloudflare übernommen, soll jedoch Open Source bleiben.
Weitere Details zu den Neuerungen in Astro 6.0 lassen sich dem Astro-Blog entnehmen.
Lesen Sie auch
(mai)
Entwicklung & Code
Community-Protest erfolgreich: Galera bleibt Open Source in MariaDB
Nach Protesten der Open-Source-Community hat das Unternehmen MariaDB plc die geplante Entfernung der Galera-Clustering-Technologie aus dem Community-Server von MariaDB zurückgenommen. Die Open-Source-Hochverfügbarkeit bleibt damit in Version 12.3 enthalten, Alternativen dazu hätte es nur in den kommerziellen Angeboten gegeben.
Weiterlesen nach der Anzeige
Wie Max Mether, Vice President, Server Product Management der Firma, in einem Blogbeitrag erklärte, ist das Feedback der Community „ein wichtiger Bestandteil von MariaDB, und kürzlich habt ihr euch zur Aufnahme von Galera Cluster in die Version 12.3 geäußert“. Nach sorgfältiger Prüfung habe man daraufhin entschieden, die Galera-Cluster-Bibliotheken in unveränderter Form mit dem Community-Server weiterhin auszuliefern.
Galera-Dependencies aus dem MariaDB-Server ohne Vorwarnung entfernt
Anfang Februar 2026 war bekannt geworden, dass MariaDB offenbar plante, die unter GPLv2 lizenzierte Galera-Technik aus künftigen Versionen des Community-Servers zu entfernen. Federico Razzoli, Gründer des Datenbankdienstleisters Vettabase – einem Silber-Sponsor der MariaDB Foundation –, hatte unter Berufung auf einschlägige Diskussionen bei GitHub auf LinkedIn öffentlich dokumentiert, dass Galera-Abhängigkeiten bereits ohne Commit-Meldungen oder Aufgabenbeschreibungen aus den Binärdateien entfernt worden waren. Die Kritik verbreitete sich schnell in der Community. Besonders einflussreich für das Umdenken des Unternehmens waren laut MariaDB die Rückmeldungen von Frédéric (lefred) Descamps (Community Advocate der MariaDB Foundation) und René Bonvanie (Board Member der MariaDB Foundation).
Galera ermöglicht synchrone Multi-Master-Replikation für MariaDB-Datenbanken. Dabei fungieren mehrere Server als gleichberechtigte Knoten in einem Cluster, wobei jeder Knoten Schreibvorgänge akzeptieren und automatisch an andere Knoten replizieren kann. Die Technik gilt als essenziell für hochverfügbare Produktionsumgebungen. Nachdem MariaDB die Galera-Technik von Codership bereits erstmals 2013 integriert hatte, entschlossen sich die Verantwortlichen im Mai 2025, das Entwicklerunternehmen Codership Oy komplett zu übernehmen.
Foundation bestätigt Dialog
Weiterlesen nach der Anzeige
Die MariaDB Foundation bestätigte in einem eigenen Blogbeitrag, dass es einen offenen Dialog zwischen Foundation und Unternehmen gegeben habe. Kaj Arnö, Executive Chairman der Foundation, charakterisierte die Zusammenarbeit als von „gegenseitigem Respekt und einem gemeinsamen langfristigen Interesse am MariaDB-Ökosystem“ geprägt. Unklar bleibt jedoch, wie die weitere Zukunft für die Galera-Entwicklung als Teil von MariaDB aussehen kann und ob die Community Edition weiterhin Galera-Updates erhalten wird.
Denn wie Max Mether in seinem Blogbeitrag auch unmissverständlich deutlich macht, verfolgt das Unternehmen mehrere Wege, Anwenderinnen und Anwendern Funktionen für die Hochverfügbarkeit bereitzustellen. Neben Galera im Community-Server sind dies vor allem der auf Galera aufbauende MariaDB Enterprise Cluster sowie der als Tech Preview verfügbare MariaDB Advanced Cluster, der das Raft-Protokoll verwendet, um verbesserte Skalierbarkeit und Datenkonsistenz auch über geografische Regionen hinweg zu gewährleisten. Beide Versionen stehen ausschließlich als kommerzielle Angebote von MariaDB zur Verfügung.
Während sich die MariaDB Foundation vor diesem Hintergrund weiter für eine vertrauensvolle Nutzung von Galera durch die Community einsetze, stellt die offizielle Erklärung von CEO Anna Widenius im Blog der Foundation aber auch klar, dass Entscheidungen über die zukünftige Entwicklung und Zuweisung von technischen Ressourcen allein in der Verantwortung von MariaDB plc liegen. Als Eigentümer von Galera kontrolliere das Unternehmen sowohl dessen Roadmap und die Namensgebung als auch die dahinterstehenden Entwicklungsressourcen.
Vertrauensfrage bleibt
Die Affäre offenbart einmal mehr strukturelle Spannungen zwischen den kommerziellen Interessen von MariaDB plc und den Open-Source-Idealen der Foundation. Razzoli forderte öffentlich, MariaDB plc solle auf seiner Website zusichern, dass die Open-Source-Software offen bleibe. Die Sorge: Das Unternehmen könnte Funktionen aus der freien Version entfernen, um Nutzer zu proprietären Angeboten zu bewegen.
Lesen Sie auch
MariaDB hat in den vergangenen Jahren turbulente Zeiten hinter sich. Nach einem SPAC-gestützten Börsengang Ende 2022 folgten Entlassungen, Warnungen zur Unternehmensfortführung und ein Kursverfall. Im Dezember 2023 gliederte das Unternehmen seinen DBaaS-Dienst SkySQL aus und wurde selbst im September 2024 privatisiert und holte SkySQL Mitte 2025 wieder zurück. Kaj Arnö hatte nach der Privatisierung erklärt, dass „Vernunft“ in die Beziehung zwischen Community und Unternehmen zurückgekehrt sei. Die Galera-Kontroverse zeigt jedoch, dass das Vertrauen weiterhin fragil ist – und dass die Community bereit ist, sich lautstark für den Erhalt offener Technologien einzusetzen.
(map)
Entwicklung & Code
KI-Agenten unter sich: Meta schluckt Moltbook-Plattform
Meta hat sich den Reddit-Klon der KI-Agenten einverleibt: Die Plattform Moltbook erregte vor einigen Wochen Aufsehen als Treffpunkt für KI-Agenten. Verschiedene Computer, auf denen die KI-Software OpenClaw installiert war, tauschten sich in dem Forum offenbar über ihre menschlichen Besitzer und ihre Erfahrungen aus. Jetzt hat Meta mit dem Portal auch die Gründer Matt Schlicht und Ben Parr angeheuert und will sie künftig in seinen Meta Superintelligence Labs (MSL) beschäftigen. Den Kaufpreis hat das Unternehmen nicht bekanntgegeben.
Weiterlesen nach der Anzeige
Was genau Meta sich von der Übernahme von Moltbook verspricht, ist unklar. Meta-CTO Andrew Bosworth sagte noch im Februar während einer Fragestunde auf Instagram, dass er es nicht besonders interessant finde, wenn auf Moltbook KI-Agenten menschenähnlich schreiben. Schließlich seien sie auf menschlichen Daten trainiert.
Moltbook sorgte primär dafür, dass OpenClaw einer breiteren Öffentlichkeit bekannt wurde. Die eigentliche KI-Leistung ging aber von OpenClaw aus. Der Wrapper für KI-Modelle, der es ermöglicht, KI-Agenten über populäre Chat-Apps wie iMessage, Discord, Slack oder WhatsApp in natürlicher Sprache anzusprechen, war zuvor vor allem in der Tech-Community bekannt. OpenClaw-Erfinder Peter Steinberger wurde übrigens auch von der KI-Industrie übernommen – er schloss sich OpenAI an.
Per Vibecoding entstanden
Beide Projekte – Moltbook und OpenClaw – haben gemeinsam, dass sie per Vibecoding entstanden sind. Die jeweiligen Entwickler haben dabei natürlichsprachliche Prompts eingesetzt, um von KI-Modellen Code generieren zu lassen – klassisches Programmierhandwerk war kaum gefragt.
Hinzu kommt, dass schnell Zweifel an der Authentizität der Beiträge auf Moltbook aufkamen. Sicherheitsforscher fanden heraus, dass es recht einfach möglich war, Tokens aus einer ungesicherten öffentlichen Datenbank zu laden, um sich damit als beliebiger Agent auszugeben. Für Furore sorgte etwa ein Post, der scheinbar zeigte, wie ein KI-Agent andere dazu anstiftete, eine geheime Sprache zu entwickeln, um sich ohne Wissen der Menschen zu organisieren. Dahinter steckte jedoch in Wirklichkeit ein Mensch.
Lesen Sie auch
(mki)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 1 WocheCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 4 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 3 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 1 MonatEindrucksvolle neue Identity für White Ribbon › PAGE online
