Künstliche Intelligenz
Salesforce: Vertrauen in KI-Agenten ist gut, Kontrolle ist besser
Salesforce hat seine Sicherheitsarchitektur für KI-Agenten konkretisiert. Der sogenannte Einstein Trust Layer entfernt personenbezogene Daten vor der Übergabe an externe Sprachmodelle, prüft deren Antworten auf Toxizität und Prompt-Injection-Versuche und protokolliert sämtliche Verarbeitungsschritte revisionsfähig. Parallel zeigte das Unternehmen Agentforce Voice erstmals in deutscher Sprache.
Weiterlesen nach der Anzeige
Im Zentrum der Salesforce-Architektur steht der Einstein Trust Layer. Verarbeitet ein KI-Agent eine Anfrage, erzeugt das System im Hintergrund einen strukturierten Prompt mit Rolleninformationen, definierten Guardrails und kontextbezogenen Unternehmensdaten.
Platzhalter für personenbezogene Daten
Per Dynamic Grounding ergänzt die Plattform zur Laufzeit strukturierte Daten aus der Data Cloud. Bevor der Prompt an ein externes Sprachmodell übergeben wird, entfernt der Trust Layer personenbezogene Informationen und ersetzt sie durch Platzhalter. Das Modell soll somit die semantische Struktur der Anfrage verarbeiten, ohne Zugriff auf Klardaten zu erhalten.
Nach der Modellantwort folgen weitere Prüfschritte: Eine Reasoning Engine analysiert das Ergebnis auf Toxizität, mögliche Prompt-Injection-Versuche und inhaltliche Konsistenz. Erst wenn diese Prüfungen bestanden sind, werden die Platzhalter wieder durch die ursprünglichen Daten ersetzt. Gegenüber Modellpartnern gilt laut Salesforce eine Zero-Retention-Policy; übermittelte Inhalte sollen nicht gespeichert werden. Ein Audit-Trail dokumentiert sämtliche Schritte und macht nachvollziehbar, welcher Agent auf welche Datengrundlage zugegriffen und welche Aktion ausgelöst hat.
Modellagnostik und Testumgebung
Die Plattform ist modellagnostisch ausgelegt. Unternehmen können zwischen Modellen von OpenAI und Anthropic wählen oder eigene Modelle einbinden (Bring Your Own Model). Für eng umrissene Aufgaben wie die Zusammenfassung von Servicefällen nutzt Salesforce zusätzlich Small Language Models, die auf CRM-Domänen zugeschnitten sind.
Über einen Prompt Builder lassen sich Modelle pro Anwendungsfall auswählen und mit synthetischen Testdaten prüfen. Damit verlagert Salesforce einen Teil der Verantwortung für Qualität und Sicherheit auf Administratoren, die Modellwahl und Guardrails definieren.
Weiterlesen nach der Anzeige
Slack und Voice als Anwendungsebene
Der seit Januar verfügbare Slackbot dient als konversationelle Oberfläche für diese Agentenarchitektur. Neu ist Canvas: Ein Dokument bündelt Inhalte aus Konversationen und angebundenen Systemen. Bei komplexeren Anfragen delegiert der Slackbot an spezialisierte Agenten mit definierten Zuständigkeitsbereichen. Externe Systeme werden über Integrationsschnittstellen angebunden. Im Test antwortete der Bot auf deutschsprachige Eingaben teilweise auf Englisch.
Mit Agentforce Voice erweitert Salesforce die bestehende Agentenarchitektur um eine Sprachschnittstelle. Wie Slack dient auch Voice als Zugriffsebene auf dieselben Daten- und Prozessschichten. Neben dem Einsatz im Telefonkanal soll sich die Sprachschnittstelle auch in Anwendungen oder in physischen Systemen wie Servicerobotern einbinden lassen.
Anfragen werden dabei in Teilaufgaben zerlegt, relevante Kunden- und Prozessdaten abgefragt und definierte Aktionen angestoßen. Da sämtliche Interaktionen in der Data Cloud zusammengeführt werden, hat der Agent kanalübergreifend auch Zugriff auf frühere Kontakte.
Neue Abrechnung über Agentic Work Units
Parallel führt Salesforce mit den sogenannten Agentic Work Units (AWU) eine neue Abrechnungseinheit ein. Statt verbrauchter Tokens misst das Unternehmen abgeschlossene Aufgaben, etwa eine vollständige Reasoning-Kette oder einen erfolgreichen Systemaufruf.
Nach Unternehmensangaben wurden bislang 2,4 Milliarden AWUs verarbeitet, mit deutlichem Wachstum gegenüber dem Vorquartal. Wie transparent diese Einheiten im Vergleich zu tokenbasierten Modellen sind, hängt von der Definition und Messbarkeit der zugrunde liegenden Prozesse ab.
Architektur statt Modellleistung
Mit dem Einstein Trust Layer verlagert Salesforce den Schwerpunkt von der reinen Modellleistung hin zur Kontrollarchitektur. Maskierung, Prüfmechanismen und Auditierbarkeit sollen den Einsatz autonomer Agenten in regulierten Unternehmensumgebungen ermöglichen.
Ob die mehrstufigen Prüfprozesse in der Praxis zuverlässig greifen, bleibt abzuwarten. Halluzinationsprüfungen basieren ebenfalls auf probabilistischen Modellen; auch die Maskierung setzt voraus, dass sensible Informationen vollständig erkannt werden. Je komplexer angebundene Systeme und Prozesse sind, desto anspruchsvoller wird die konsistente Durchsetzung dieser Kontrollmechanismen. Der produktive Einsatz agentischer Systeme dürfte daher weniger von einzelnen Sprachmodellen abhängen als von der Stabilität und Transparenz der Governance-Schicht.
(axk)
Künstliche Intelligenz
Anthropic nimmt testweise Claude Code aus dem Pro-Tarif
Bei Anthropic gibt es teilweise Änderungen für neue Kunden: Das KI-Unternehmen hat testweise auf einigen Webseiten Claude Code aus dem Pro-Tarif genommen. Außerdem berichtet ein Neukunde, dass er sich mit Persona identifizieren musste, einem US-Unternehmen, das Ausweisdaten und Gesicht von Personen kontrolliert.
Weiterlesen nach der Anzeige
Eine Reihe von Nutzern haben in Blogs oder bei Reddit mitgeteilt, dass auf der Preisübersicht von Claude zum Pro-Tarif die Code-Komponente fehlt. Diese ist gerade für Entwicklerinnen und Entwickler interessant. Ein Anthropic-Manager beschwichtigt bei X, dass es sich nur um einen Test gehandelt habe, der zwei Prozent aller Neuanmeldungen betroffen habe. Ob diese zwei Prozent dennoch Zugriff auf Claude Code erhalten oder wie es insgesamt mit den Tarifen weitergeht, sagt er nicht. Eine Antwort auf eine Anfrage von heise developer steht noch aus.

Ein Anthropic-Manager beschwichtigt, dass nur zwei Prozent der Neukunden betroffen seien.
Viele LLM-Coding-Firmen haben den Umfang ihres Angebots in letzter Zeit begrenzt, da gerade Agenten wie OpenClaw die Kapazitäten offensichtlich an den Rand bringen: Anthropic selbst hat die Nutzung von externen Tools wie OpenClaw eingeschränkt, ähnlich wie Google für Gemini CLI. Microsoft stoppte die Neuanmeldung für GitHub Copilot Pro komplett und nahm alle rechenaufwendigen Opus-Modelle aus den Tarifen für Endanwender. Opus liefert allgemein die besten Ergebnisse zum Coden und Entwickler sind nun gezwungen, in Business-Tarife zu wechseln, was für Einzelentwickler schwierig ist.
Künftig Identifizierung mit US-Dienstleister?
Ein einzelner Bericht eines X-Accounts legt nahe, dass Anthropic bei ihm eine Identifizierung per US-Dienstleister Persona verlangt hat. Persona fordert ein Ausweisdokument und ein Live-Foto zur Identifizierung. Der Dienst ist durchaus umstritten; Anbieter wie Discord haben sich wieder von ihm getrennt.
In den aktuellen, heute gesichteten Datenschutzrichtlinien von Anthropic findet sich kein Hinweis auf Persona. Zu diesem Thema läuft ebenfalls eine Anfrage von heise developer bei Anthropic.
Weiterlesen nach der Anzeige
Auch Sicherheitsforscher, deren Experimente Anthropic standardmäßig zunächst blockiert, müssen sich seit Neuestem registrieren, um weiterarbeiten zu können. Persona ist hierbei zwar nicht vorgesehen, aber ein Business-Zugang mit Organisations-ID. Auch hier werden Einzelentwickler ausgeschlossen.
(who)
Künstliche Intelligenz
Neuer Einplatinenrechner für Edge- und IoT-Anwendungen
Mit dem OrangePi Zero 3W bringt Orange Pi einen neuen Einplatinenrechner heraus, der sich klar an Maker und Embedded-Entwickler richtet.
Weiterlesen nach der Anzeige
Im Zentrum arbeitet der Allwinner A733, ein Achtkern-SoC mit zwei Cortex-A76-Kernen (bis 2,0 GHz) und sechs energieeffizienten Cortex-A55-Kernen. Ergänzt wird das Ganze durch eine integrierte NPU mit bis zu 3 TOPS Rechenleistung für KI-Anwendungen sowie einen zusätzlichen RISC-V-Coprozessor für Echtzeitaufgaben. Für Maker bedeutet das: Neben klassischen Linux-Anwendungen lassen sich auch lokale KI-Inferenz oder zeitkritische Steuerungen direkt auf dem Board umsetzen.
Beim Arbeitsspeicher setzt das Board auf LPDDR5 mit bis zu 16 GByte. Beim Speicher zeigt sich das Board flexibel: Neben optionalem eMMC oder UFS-Modulen steht ein microSD-Kartenslot zur Verfügung.
Anschlüsse für komplexe Setups
Für die Konnektivität gibt es Wi-Fi 6 und Bluetooth 5.4, optional mit externer Antenne. Damit eignet sich das Board auch für IoT-Anwendungen oder als Edge-Gateway. Dazu kommen klassische Maker-Schnittstellen über eine 40-Pin-GPIO-Leiste mit Unterstützung für SPI, I2C, UART und PWM – also alles, was man für Sensoren, Bildschirme oder Aktoren benötigt.
Interessant ist auch die Videoausgabe: Neben Mini-HDMI (bis 4K@60fps) unterstützt das Board DisplayPort über USB-C sowie MIPI-DSI. Zwei unabhängige Displays lassen sich gleichzeitig ansteuern. Das eröffnet Einsatzmöglichkeiten für kompakte Multimonitor-Setups oder Systeme wie Infoterminals.
Auch für Kamera-Projekte stehen Anschlüsse bereit. Zwei MIPI-CSI-Schnittstellen ermöglichen den Anschluss von Kameramodulen, etwa für Bildverarbeitung oder Überwachungslösungen. In Kombination mit der integrierten NPU lassen sich hier auch KI-gestützte Anwendungen wie Objekterkennung direkt auf dem Gerät realisieren.
Als Betriebssysteme werden unter anderem Debian, Ubuntu, Android und OpenHarmony unterstützt. Zusätzlich nennt der Hersteller Kompatibilität mit gängigen KI-Frameworks wie TensorFlow oder PyTorch. Damit deckt das Board sowohl klassische Bastelprojekte als auch moderne KI-Anwendungen ab – zumindest auf dem Papier. Wie gut die Softwareunterstützung im Alltag wirklich ist, wird sich wie so oft erst zeigen, wenn die Community das Board durch die Mangel gedreht hat.
Weiterlesen nach der Anzeige
Mit PCIe 3.0 (über FPC) steht zudem eine schnelle Erweiterungsmöglichkeit bereit, etwa für SSDs oder spezialisierte Module. Das ist in dieser Größenklasse keine Selbstverständlichkeit und könnte für Bastler spannend sein, die mehr als nur Standard-I/O benötigen.
Für Maker ergeben sich daraus einige typische Einsatzszenarien: kompakte Smart-Home-Zentralen, lokale KI-Auswertung von Sensordaten, kleine Server oder auch portable Geräte mit Display. Durch die geringe Größe könnte das Board auch in mobilen Projekten oder selbstgebauten Handhelds landen. Das Board fällt mit seinen Abmessungen von 65 × 32 mm kompakt aus und dürfte damit auch in Projekten Platz finden, bei denen ein Raspberry Pi zu groß ist.
Erhältlich ist das Board auf Amazon für 73,99 US-Dollar. Dort bekommt man auch direkt einen aktiven Kühler mit dazu.
Wer wissen will, was man mit einem Raspberry Pi Zero alles anstellen kann, sollte sich unbedingt unseren Artikel zu Hackinggadgets für die Hosentasche anschauen.
(das)
Künstliche Intelligenz
TypeScript 7.0 Beta: Neue Go-Basis beschleunigt die Programmiersprache
Microsoft hat die Beta-Version von TypeScript 7.0 veröffentlicht. Damit rückt das erste Release mit in Go geschriebenem Compiler und Language Service immer näher. Trotz Beta-Label soll TypeScript 7.0 bereits so weit sein, dass Entwicklerinnen und Entwickler es mitunter in ihrer täglichen Arbeit einsetzen können. Es soll deutliche Geschwindigkeitsvorteile gegenüber früheren TypeScript-Versionen bringen, die eine JavaScript-Basis nutzten.
Weiterlesen nach der Anzeige
Deutlicher Performance-Sprung dank Go
Seit über einem Jahr arbeiten interne Microsoft-Teams gemeinsam mit Teams anderer Unternehmen – darunter Bloomberg, Canva, Figma, Google, Lattice, Linear, Miro, Notion, Slack, Vanta, Vercel und VoidZero – am Wechsel zur Go-Codebasis für TypeScript, mit antizipierten hohen Geschwindigkeitsvorteilen. Durch die Änderung soll TypeScript 7.0 oftmals rund zehnmal schneller laufen als TypeScript 6.0, wie Microsoft in der aktuellen Ankündigung erneut bestätigt. Erst vor knapp einem Monat ist TypeScript 6.0 erschienen, um eine Brücke zwischen der alten und der neuen Codebasis zu schlagen.
(Bild: jaboy / 123rf.com)

Tools und Trends in der JavaScript-Welt: Die enterJS 2026 wird am 16. und 17. Juni in Mannheim stattfinden. Das Programm dreht sich rund um JavaScript und TypeScript, Frameworks, Tools und Bibliotheken, Security, UX und mehr. Frühbuchertickets sind noch bis zum 28. April im Online-Ticketshop erhältlich.
TypeScript 7.0 lässt sich parallel zu TypeScript 6.0 installieren. Die neue Version ist darauf ausgelegt, mit dem Type-Checking- und Kommandozeilenverhalten von TypeScript 6.0 kompatibel zu sein. Jeglicher TypeScript-Code, der mit Version 6.0 sauber kompiliert wird (mit aktiviertem stableTypeOrdering-Flag und ohne das ignoreDeprecations-Flag), sollte laut Microsoft in Version 7.0 identisch kompiliert werden – nur schneller.
Dabei bringt TypeScript 7.0 die gleichen neuen Standardeinstellungen (Defaults), die seit Version 6.0 gelten. Wie der Hersteller zu bedenken gibt, ist auch Version 6.0 noch recht neu, und viele Projekte dürften sich noch darauf einstellen müssen. Beispielsweise ist nun strict standardmäßig auf true gesetzt und module verwendet im Standard esnext. Einige Deprecations, also als veraltet markierte Funktionen, geben jetzt schwerwiegende Fehler aus. Beispielsweise wird target: es5 nicht mehr unterstützt.
TypeScript 7.0 Beta lässt sich via npm installieren:
Weiterlesen nach der Anzeige
npm install -D @typescript/native-preview@beta
Wer die neue Version auf seiner Codebasis direkt ausprobieren möchte, kann auch zur Visual-Studio-Code-Erweiterung „TypeScript (Native Preview)“ greifen.
Weitere Informationen zum Einsatz von TypeScript 7.0 Beta bietet der Microsoft-Entwicklerblog.
Siehe auch:
(mai)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
