Künstliche Intelligenz
Salesforce: Vertrauen in KI-Agenten ist gut, Kontrolle ist besser
Salesforce hat seine Sicherheitsarchitektur für KI-Agenten konkretisiert. Der sogenannte Einstein Trust Layer entfernt personenbezogene Daten vor der Übergabe an externe Sprachmodelle, prüft deren Antworten auf Toxizität und Prompt-Injection-Versuche und protokolliert sämtliche Verarbeitungsschritte revisionsfähig. Parallel zeigte das Unternehmen Agentforce Voice erstmals in deutscher Sprache.
Weiterlesen nach der Anzeige
Im Zentrum der Salesforce-Architektur steht der Einstein Trust Layer. Verarbeitet ein KI-Agent eine Anfrage, erzeugt das System im Hintergrund einen strukturierten Prompt mit Rolleninformationen, definierten Guardrails und kontextbezogenen Unternehmensdaten.
Platzhalter für personenbezogene Daten
Per Dynamic Grounding ergänzt die Plattform zur Laufzeit strukturierte Daten aus der Data Cloud. Bevor der Prompt an ein externes Sprachmodell übergeben wird, entfernt der Trust Layer personenbezogene Informationen und ersetzt sie durch Platzhalter. Das Modell soll somit die semantische Struktur der Anfrage verarbeiten, ohne Zugriff auf Klardaten zu erhalten.
Nach der Modellantwort folgen weitere Prüfschritte: Eine Reasoning Engine analysiert das Ergebnis auf Toxizität, mögliche Prompt-Injection-Versuche und inhaltliche Konsistenz. Erst wenn diese Prüfungen bestanden sind, werden die Platzhalter wieder durch die ursprünglichen Daten ersetzt. Gegenüber Modellpartnern gilt laut Salesforce eine Zero-Retention-Policy; übermittelte Inhalte sollen nicht gespeichert werden. Ein Audit-Trail dokumentiert sämtliche Schritte und macht nachvollziehbar, welcher Agent auf welche Datengrundlage zugegriffen und welche Aktion ausgelöst hat.
Modellagnostik und Testumgebung
Die Plattform ist modellagnostisch ausgelegt. Unternehmen können zwischen Modellen von OpenAI und Anthropic wählen oder eigene Modelle einbinden (Bring Your Own Model). Für eng umrissene Aufgaben wie die Zusammenfassung von Servicefällen nutzt Salesforce zusätzlich Small Language Models, die auf CRM-Domänen zugeschnitten sind.
Über einen Prompt Builder lassen sich Modelle pro Anwendungsfall auswählen und mit synthetischen Testdaten prüfen. Damit verlagert Salesforce einen Teil der Verantwortung für Qualität und Sicherheit auf Administratoren, die Modellwahl und Guardrails definieren.
Weiterlesen nach der Anzeige
Slack und Voice als Anwendungsebene
Der seit Januar verfügbare Slackbot dient als konversationelle Oberfläche für diese Agentenarchitektur. Neu ist Canvas: Ein Dokument bündelt Inhalte aus Konversationen und angebundenen Systemen. Bei komplexeren Anfragen delegiert der Slackbot an spezialisierte Agenten mit definierten Zuständigkeitsbereichen. Externe Systeme werden über Integrationsschnittstellen angebunden. Im Test antwortete der Bot auf deutschsprachige Eingaben teilweise auf Englisch.
Mit Agentforce Voice erweitert Salesforce die bestehende Agentenarchitektur um eine Sprachschnittstelle. Wie Slack dient auch Voice als Zugriffsebene auf dieselben Daten- und Prozessschichten. Neben dem Einsatz im Telefonkanal soll sich die Sprachschnittstelle auch in Anwendungen oder in physischen Systemen wie Servicerobotern einbinden lassen.
Anfragen werden dabei in Teilaufgaben zerlegt, relevante Kunden- und Prozessdaten abgefragt und definierte Aktionen angestoßen. Da sämtliche Interaktionen in der Data Cloud zusammengeführt werden, hat der Agent kanalübergreifend auch Zugriff auf frühere Kontakte.
Neue Abrechnung über Agentic Work Units
Parallel führt Salesforce mit den sogenannten Agentic Work Units (AWU) eine neue Abrechnungseinheit ein. Statt verbrauchter Tokens misst das Unternehmen abgeschlossene Aufgaben, etwa eine vollständige Reasoning-Kette oder einen erfolgreichen Systemaufruf.
Nach Unternehmensangaben wurden bislang 2,4 Milliarden AWUs verarbeitet, mit deutlichem Wachstum gegenüber dem Vorquartal. Wie transparent diese Einheiten im Vergleich zu tokenbasierten Modellen sind, hängt von der Definition und Messbarkeit der zugrunde liegenden Prozesse ab.
Architektur statt Modellleistung
Mit dem Einstein Trust Layer verlagert Salesforce den Schwerpunkt von der reinen Modellleistung hin zur Kontrollarchitektur. Maskierung, Prüfmechanismen und Auditierbarkeit sollen den Einsatz autonomer Agenten in regulierten Unternehmensumgebungen ermöglichen.
Ob die mehrstufigen Prüfprozesse in der Praxis zuverlässig greifen, bleibt abzuwarten. Halluzinationsprüfungen basieren ebenfalls auf probabilistischen Modellen; auch die Maskierung setzt voraus, dass sensible Informationen vollständig erkannt werden. Je komplexer angebundene Systeme und Prozesse sind, desto anspruchsvoller wird die konsistente Durchsetzung dieser Kontrollmechanismen. Der produktive Einsatz agentischer Systeme dürfte daher weniger von einzelnen Sprachmodellen abhängen als von der Stabilität und Transparenz der Governance-Schicht.
(axk)
Künstliche Intelligenz
Huawei AI Glasses setzen auf ein bewährtes Konzept
Huawei hat eine KI-Brille für den chinesischen Markt vorgestellt. Das Wearable mit dem schlichten Namen „Huawei AI Glasses“ orientiert sich in Ausstattung und Design an den Ray-Ban Meta-Brillen: Es verfügt über eine Kamera, Mikrofone und Lautsprecher, die unauffällig in ein möglichst schlankes, modisches Brillengestell integriert sind.
Weiterlesen nach der Anzeige
Das Produkt kommt in drei Ausführungen: halbrandig mit Titanfassung sowie als vollrandige Sonnen- und Sehstärkenbrille. Mit rund 47 Gramm sind die Smart Glasses nur geringfügig leichter als die Ray-Ban Meta-Brillen.
Auch bei den technischen Eigenschaften gibt es kaum Unterschiede: In beiden Fällen kommt eine 12-MP-Kamera zum Einsatz. Huawei gibt auf der chinesischen Produktseite eine maximale Fotoauflösung von 4096 × 3072 Pixeln sowie eine maximale Videoauflösung von 1920 × 1440 Pixeln bei 30 Bildern pro Sekunde an. Die aktuelle, zweite Generation der Ray-Ban Meta schafft bei der gleichen Bildrate 3K-Videos.
Bei der Batterielaufzeit nennt Huawei bis zu neun Stunden Musikwiedergabe oder acht Stunden Telefonie mit einer Akkuladung. Ähnliche Werte erreichen auch die neuen Ray-Ban Meta-Brillen. Geladen werden die Huawei AI Glasses über ein USB-C-Kabel mit magnetischen Kontakten statt über ein mitgeliefertes Ladecase. Das ermöglicht die Nutzung während des Ladevorgangs.
Konkurrenz innerhalb und außerhalb Chinas
Das Wearable läuft mit Huaweis Betriebssystem HarmonyOS und ist dadurch mit Smartphones und anderen mobilen Geräten des Herstellers verzahnt. Für KI-Funktionen setzt Huawei auf den eigenen Sprachassistenten Xiaoyi sowie einen selbstentwickelten Chip, der die KI-Interaktionen beschleunigen soll. Zu den multimodalen Fähigkeiten der Brille zählen unter anderem die Schätzung und Nachverfolgung von Kalorien, das Bezahlen per QR-Code sowie Übersetzungen in eine Vielzahl von Sprachen.
Die Huawei AI Glasses kommen am 25. April auf den chinesischen Markt und sind ab 2499 Yuan erhältlich, was umgerechnet rund 315 Euro entspricht. Damit liegen sie auf dem Preisniveau der weiterhin verkauften ersten Generation der Ray-Ban Meta-Brillen (die zweite Generation kostet rund 100 Euro mehr). Ob Huaweis KI-Brille später auch hierzulande erscheint, ist nicht bekannt. Für das Unternehmen dürfte das Produkt zunächst als Testballon dienen, zumal das tatsächliche Marktpotenzial von KI-Brillen noch immer schwer abzuschätzen ist.
Weiterlesen nach der Anzeige
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
In China werden Metas KI-Brillen nicht verkauft. Konkurrenz gibt es dennoch: Auf dem heimischen Markt bieten unter anderem Alibaba, Xiaomi und Rokid ähnliche Smart Glasses an. Weltweit führt Meta mit großem Abstand. Laut Marktforschern baute Meta seine Marktführerschaft im zweiten Halbjahr 2025 auf 82 Prozent aus. Insgesamt verkaufte Meta gemeinsam mit seinem Brillenpartner EssilorLuxottica im vergangenen Jahr rund sieben Millionen Smart Glasses und damit mehr als dreimal so viele wie im Vorjahr.
(tobe)
Künstliche Intelligenz
Rsbuild 2.0: Schnelleres Bundling, ESM-first und Node 20
Rsbuild 2.0 ist da: Das Major-Release des Build-Tools setzt auf Rspack 2.0, modernisiert zahlreiche Defaults – unter anderem in Richtung ESM-first und Node 20 – und reduziert die Zahl der Abhängigkeiten deutlich. Neue APIs erweitern die Kommunikation zwischen Dev-Server und Client. Gleichzeitig bricht die Version mit mehreren Altlasten: CommonJS-Builds und ein paar Webpack-Abhängigkeiten fallen weg.
Weiterlesen nach der Anzeige
Rsbuild ist ein Build-Tooling-Layer auf Basis des Rust-basierten Bundlers Rspack und Teil des Rstack-Ökosystems. Zu diesem gehören unter anderem Rspress, Rslib und Rstest, die sich eine gemeinsame Build- und Plugin-Architektur teilen.
Rspack 2.0 als Fundament, modernere Defaults
Im Zentrum von Rsbuild 2.0 steht das Upgrade auf Rspack 2.0. Projekte profitieren damit von schnellerem Bundling und neuen Optimierungsmöglichkeiten. Rspack verfolgt einen webpack-kompatiblen Ansatz, arbeitet durch seine Rust-Implementierung aber deutlich schneller.
Parallel dazu modernisiert Rsbuild seine technische Basis. Das Core-Paket erscheint nur noch als ES-Modul, ein CommonJS-Build entfällt. Die Zielplattformen steigen: Für Node.js gilt nun Version 20 als Standard, die Browser-Targets orientieren sich an einem Baseline-Stand von Mai 2025. Das verringert den Bedarf an Transpiling und Polyfills und führt zu kleineren Bundles. Für Node-Ziele erzeugt Rsbuild außerdem standardmäßig unminifizierte ES-Module – Stacktraces bleiben so besser lesbar.
React Server Components und Server-Client-Kommunikation
Neu ist ein experimenteller Support für React Server Components (RSC). Das Plugin rsbuild-plugin-rsc integriert serverseitig gerenderte Komponenten, die Datenabruf und Rendering kombinieren und so weniger JavaScript an den Client schicken. Es baut auf nativer Rspack-Unterstützung auf und nutzt die Environments-API von Rsbuild, um Client- und Server-Kontext gemeinsam zu verwalten. Das Modern.js-Framework setzt das Plugin bereits ein; eine Integration mit TanStack Start ist geplant.
Im Zuge dieser Arbeiten erweitert Rsbuild die Kommunikation zwischen Dev-Server und Browser. Über den bestehenden HMR-Kanal lassen sich jetzt gezielt Nachrichten austauschen: Der Server schickt per hot.send ein Event, das der Client über import.meta.webpackHot.on empfängt. So kann etwa ein serverseitiger Prozess den Client zu einem gezielten Update veranlassen, ohne die gesamte Seite neu zu laden. Ein zusätzlicher WebSocket ist dafür nicht nötig.
Weiterlesen nach der Anzeige
Flexiblerer Server und neues Code-Splitting
Auch die Server-Konfiguration gewinnt an Flexibilität. Die neue Option server.setup erlaubt es, Initialisierungslogik, Middleware oder eigene Endpunkte direkt in der Rsbuild-Konfiguration zu definieren – sowohl für den Dev- als auch den Preview-Server. Das bisherige setupMiddlewares bleibt vorerst erhalten, gilt aber als veraltet.
Beim Code-Splitting führt Rsbuild ein neues splitChunks-Modell ein, das die bisherige Option performance.chunkSplit ergänzt und perspektivisch ersetzen soll. Die Konfiguration orientiert sich nun direkt an Rspack und bietet vordefinierte Presets, etwa um jedes npm-Paket in einen eigenen Chunk aufzuteilen.
Sicherheits-Defaults und weniger Abhängigkeiten
Bei den Sicherheits-Defaults ändert sich ebenfalls einiges: Der Dev-Server lauscht standardmäßig nur noch auf localhost statt auf allen Interfaces. Das verhindert, dass Entwicklungsserver unbeabsichtigt im lokalen Netzwerk erreichbar sind. Außerdem steigt die Proxy-Middleware auf eine neue Version um, die HTTP/2 unterstützt und bekannte Sicherheitslücken schließt.
Die Abhängigkeiten schrumpfen deutlich. Pakete wie core-js für Polyfills oder das Module-Federation-Runtime gehören nicht mehr zur Standardinstallation. Die Zahl der mitgelieferten Dependencies sinkt laut Projekt von 13 auf 4.
Logging, Templates und Breaking Changes
Darüber hinaus unterstützt Rsbuild jetzt benutzerdefinierte Logger pro Instanz. Damit lassen sich Log-Level und Ausgabeformate feiner steuern, ohne den globalen Logger zu verändern. Auch die Projekt-Templates wurden überarbeitet: Neue Projekte können optional den React Compiler nutzen, und ein auf TypeScript-Go basierender Linter steht experimentell bereit. Vorlagen für React 18 und Vue 2 in create-rsbuild hat das Team entfernt.
Mit Version 2.0 gehen mehrere Breaking Changes einher. Neben dem Wegfall von Node 18 und CommonJS entfernt das Projekt sämtliche Webpack-spezifischen Komponenten und ändert diverse Defaults. Für die Migration stellt das Team eine Anleitung bereit; viele Anpassungen lassen sich nach eigenen Angaben automatisieren.
Alle Informationen zur neuen Rsbuild-Version finden sich in den Release Notes auf der GitHub-Projektseite und in der Ankündigung der Entwickler.
(fo)
Künstliche Intelligenz
Anthropic nimmt testweise Claude Code aus dem Pro-Tarif
Bei Anthropic gibt es teilweise Änderungen für neue Kunden: Das KI-Unternehmen hat testweise auf einigen Webseiten Claude Code aus dem Pro-Tarif genommen. Außerdem berichtet ein Neukunde, dass er sich mit Persona identifizieren musste, einem US-Unternehmen, das Ausweisdaten und Gesicht von Personen kontrolliert.
Weiterlesen nach der Anzeige
Eine Reihe von Nutzern haben in Blogs oder bei Reddit mitgeteilt, dass auf der Preisübersicht von Claude zum Pro-Tarif die Code-Komponente fehlt. Diese ist gerade für Entwicklerinnen und Entwickler interessant. Ein Anthropic-Manager beschwichtigt bei X, dass es sich nur um einen Test gehandelt habe, der zwei Prozent aller Neuanmeldungen betroffen habe. Ob diese zwei Prozent dennoch Zugriff auf Claude Code erhalten oder wie es insgesamt mit den Tarifen weitergeht, sagt er nicht. Eine Antwort auf eine Anfrage von heise developer steht noch aus.

Ein Anthropic-Manager beschwichtigt, dass nur zwei Prozent der Neukunden betroffen seien.
Viele LLM-Coding-Firmen haben den Umfang ihres Angebots in letzter Zeit begrenzt, da gerade Agenten wie OpenClaw die Kapazitäten offensichtlich an den Rand bringen: Anthropic selbst hat die Nutzung von externen Tools wie OpenClaw eingeschränkt, ähnlich wie Google für Gemini CLI. Microsoft stoppte die Neuanmeldung für GitHub Copilot Pro komplett und nahm alle rechenaufwendigen Opus-Modelle aus den Tarifen für Endanwender. Opus liefert allgemein die besten Ergebnisse zum Coden und Entwickler sind nun gezwungen, in Business-Tarife zu wechseln, was für Einzelentwickler schwierig ist.
Künftig Identifizierung mit US-Dienstleister?
Ein einzelner Bericht eines X-Accounts legt nahe, dass Anthropic bei ihm eine Identifizierung per US-Dienstleister Persona verlangt hat. Persona fordert ein Ausweisdokument und ein Live-Foto zur Identifizierung. Der Dienst ist durchaus umstritten; Anbieter wie Discord haben sich wieder von ihm getrennt.
In den aktuellen, heute gesichteten Datenschutzrichtlinien von Anthropic findet sich kein Hinweis auf Persona. Zu diesem Thema läuft ebenfalls eine Anfrage von heise developer bei Anthropic.
Weiterlesen nach der Anzeige
Auch Sicherheitsforscher, deren Experimente Anthropic standardmäßig zunächst blockiert, müssen sich seit Neuestem registrieren, um weiterarbeiten zu können. Persona ist hierbei zwar nicht vorgesehen, aber ein Business-Zugang mit Organisations-ID. Auch hier werden Einzelentwickler ausgeschlossen.
(who)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
