Künstliche Intelligenz
Salesforce macht Ernst mit KI-Agenten: Headless 360 öffnet Plattform per API
Salesforce stellt mit „Headless 360“ zentrale Funktionen seiner Plattform programmatisch bereit. Daten, Workflows und Geschäftslogik lassen sich über mehr als 60 MCP-Tools, über 30 vordefinierte Coding-Skills sowie APIs und eine CLI direkt ansteuern. Parallel erweitert der Anbieter seine Entwicklungsumgebung mit „Agentforce Vibes 2.0“ um KI-gestützte Funktionen.
Weiterlesen nach der Anzeige
Mit Headless 360 verlagert Salesforce den Zugriff von der grafischen Oberfläche auf Schnittstellen. Anwendungen werden nicht mehr ausschließlich über UI-Interaktionen genutzt, sondern über APIs, MCP-Tools und automatisierte Agenten angesprochen.
Technisch basiert der Ansatz auf einer ausgebauten API-First-Architektur. Funktionen, Daten und Berechtigungen stehen unabhängig von der Oberfläche zur Verfügung und lassen sich über verschiedene Clients nutzen. „Wenn man von APIs ausgeht und das mit Slack und anderen Clients kombiniert, entstehen neue agentische Erfahrungen“, sagt Gary Lerhaupt, VP Product Architecture bei Salesforce. Das Unternehmen sieht darin die Grundlage für ein „Agentic Enterprise“, in dem Interaktionen zunehmend über verschiedene Clients statt über klassische Anwendungen erfolgen.
Entwicklung und Ausführung von Agenten
Ein zentraler Bestandteil ist die Integration externer Entwicklungsumgebungen. Tools wie Claude Code, Cursor oder Codex greifen über MCP auf die Plattform zu und decken mithilfe vorkonfigurierter Coding-Skills Phasen wie Datenmodellierung, Implementierung, Tests und Deployment ab. Für Entwickler, die volle Kontrolle über die visuelle Ebene wünschen, unterstützt die Plattform zudem native React-Entwicklung.
Ergänzend stellt Salesforce mit „Agentforce Vibes 2.0“ eine browserbasierte Entwicklungsumgebung bereit, die KI-gestützte Coding-Funktionen integriert. Über das DevOps Center MCP lassen sich Deployments per natürlicher Sprache auslösen. Salesforce beziffert die Verkürzung von Entwicklungszyklen auf bis zu 40 Prozent; unabhängige Benchmarks liegen bislang nicht vor.
Mit dem „Agentforce Experience Layer“ trennt Salesforce Geschäftslogik und Darstellung. Interaktionen wie Genehmigungen oder Workflows müssen nur einmal definiert werden und stehen anschließend in verschiedenen Clients zur Verfügung, etwa in Slack, mobilen Anwendungen oder externen KI-Interfaces.
Weiterlesen nach der Anzeige
Werkzeuge für Betrieb und Steuerung
Für die Steuerung von Agenten führt Salesforce die Skriptsprache „Agent Script“ ein, die deterministische Logik mit natürlich sprachlichen Anweisungen kombiniert. Sie steht unter einer Open-Source-Lizenz und dient der Orchestrierung mehrerer Agenten. Hintergrund: Reine LLM-Ansätze erreichen laut Gary Lerhaupt lediglich rund 95 Prozent Zuverlässigkeit, produktive Enterprise-Systeme erforderten jedoch mindestens 99,5 Prozent.
Das „Testing Center“ (verfügbar ab Mai 2026) soll vor dem Einsatz Logiklücken erkennen. „Custom Scoring Evals“ bewerten Entscheidungen, „Observability“ und „Session Tracing“ analysieren Interaktionen. Eine A/B-Testing-API erlaubt parallele Tests verschiedener Agent-Versionen.
Praxis aus Unternehmen
Als Praxisbeispiel nennt Salesforce die Buchungsplattform Engine. Das Unternehmen hat nach eigenen Angaben einen Kundenservice-Agenten innerhalb von zwölf Tagen produktiv gesetzt, der rund die Hälfte der Anfragen automatisiert bearbeitet. Die Voraussetzung war die Aufbereitung historischer Datenbestände.
Auch organisatorische Anpassungen begleiten den Einsatz. Das Unternehmen asymbl unterstützt Unternehmen bei der Integration digitaler Arbeitskräfte in bestehende Prozesse und betreibt nach eigenen Angaben zahlreiche KI-Agenten. Der laufende Betrieb erfordert kontinuierliches Monitoring und Nachjustieren – „Es gibt kein Set and Forget. Es braucht Intention, Methode – und am Ende Coaching“, so CEO Brandon Metcalf.
Die Neuerungen zeigen eine strategische Verschiebung: Salesforce baut seine Plattform zu einer Infrastruktur für agentenbasierte Systeme aus. Offen bleibt, wie stabil diese im produktiven Einsatz arbeiten und wie sich die steigende technische Komplexität auf Entwicklung und Betrieb auswirkt. Zudem hängt der Nutzen stark von der Qualität der zugrunde liegenden Daten ab – ein Punkt, den auch das Engine-Beispiel unterstreicht, bei dem die Aufbereitung historischer Datenbestände Voraussetzung für den Produktivbetrieb war.
(axk)
Künstliche Intelligenz
Lukrative Interna: KI-Firmen kaufen bei abgewickelten Firmen interne Daten
US-Firmen, die bei der Abwicklung von Firmen helfen, können deren interne Kommunikation immer öfter für hohe Preise an KI-Firmen verkaufen, die damit ihre Modelle trainieren wollen. Das berichtet das US-Magazin Forbes unter Berufung auf ein Unternehmen, das für fast 100 solcher Datensätze schon mehr als eine Million US-Dollar bekommen hat. Üblicherweise würden für Slack-Archive, E-Mails, Quellcode und mehr zwischen 10.000 und 100.000 US-Dollar bezahlt, erklärt eine Firma namens SimpleClosure demnach. Besonders viel Geld fließe für Datensätze aus abgewickelten Firmen aus der Gesundheits- oder Finanzbranche. Aus den Daten würden vorher alle personenbezogenen Informationen entfernt.
Weiterlesen nach der Anzeige
Authentische Daten von enormem Interesse
Forbes ruft in Erinnerung, dass von Menschen verfasste Inhalte für das KI-Training Gold wert sind. Im Internet abrufbare Inhalte – etwa in der Wikipedia oder auf Reddit – sind aber bereits seit 2024 komplett abgegrast. Was Angestellte dagegen intern im Kontext ihrer Arbeit schreiben, ist nicht nur für KI geeignet, die genau da zum Einsatz kommen soll. An solche Inhalte können die KI-Firmen auch nicht gelangen, da sie diese nicht einfach abrufen können. Abwicklungen von Firmen sind deshalb von besonderem Interesse, und inzwischen hat sich daraus ein Geschäftsfeld entwickelt. SimpleClosure hat deshalb die Plattform Asset Hub entwickelt, auf der Unternehmen nach ihrer Schließung solche internen Inhalte verkaufen können.
„Man hat das Gefühl, dass bei diesen Unternehmen gerade ein regelrechter Goldrausch herrscht, weil sie versuchen, an Daten aus der realen Welt zu kommen“, meint Dori Yona, CEO von SimpleClosure gegenüber Forbes. Das Interesse sei „wahnsinnig“ groß. Seine Firma versichert, dass sie rigoros daran arbeite, den Datenschutz sicherzustellen, trotzdem gibt es an der Praxis Kritik. Forbes zitiert Marc Rotenberg, den Gründer des Centers for AI and Digital Policy mit dem Hinweis, dass nicht geklärt sei, ob Firmen solche Daten ihrer Angestellten verkaufen dürfen: „Ich halte die Datenschutzprobleme in diesem Zusammenhang für ziemlich gravierend.“ Es handle sich nicht um allgemeine Daten, sondern um identifizierbare Personen. Zudem bestehe immer die Gefahr, dass eine KI die ursprünglichen Daten reproduziert.
(mho)
Künstliche Intelligenz
Flott Geld zurück: Wie die Steuererklärung mit einem Klick funktionieren soll
Über 11 Millionen Steuerpflichtige sollen in diesem Jahr ihre Steuererklärung erstmals binnen Minuten erledigen können, statt sich durch seitenlange Elster-Formulare wühlen zu müssen. So versprechen es die Finanzminister der Bundesländer: „Einfacher geht Steuer nicht – schnell, transparent und ohne Kosten für die Nutzerinnen und Nutzer“, sagt zum Beispiel Bayerns Finanzminister Albert Füracker.
Verwirrenderweise hat die Steuerverwaltung allerdings gleich zwei neue, vereinfachte Vorgehensweisen entwickelt: Die erste nennt sich „Steuererklärung mit einem Klick“ und soll ab Juli über die App MeinELSTER+ bundesweit zur Verfügung stehen. Die zweite heißt „Amtsveranlagung“ oder kurz „Amsel“ und startet in diesem Frühjahr in den Bundesländern Hessen, Hamburg, Mecklenburg-Vorpommern, Schleswig-Holstein und Thüringen. Die Länder bewerben die Amsel auch mit dem Slogan „Die Steuer macht das Amt“. Für manche Steuerpflichtigen gibt es also sogar zwei neue Optionen.
Wir erklären im Folgenden die Unterschiede zwischen den beiden Verfahren, welche Steuerpflichtigen sie jeweils nutzen können und worauf man in der Praxis achten sollte. Außerdem geben wir einen Ausblick auf das nächste Jahr, in dem das neue Elster-Verfahren viele Millionen weitere Menschen erreichen soll.
Das war die Leseprobe unseres heise-Plus-Artikels „Flott Geld zurück: Wie die Steuererklärung mit einem Klick funktionieren soll“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Video: Windows 11 auf dem Radxa Dragon Q6 installieren
Was passiert, wenn man ein Betriebssystem, das kaum jemand haben will, auf einem Einplatinenrechner installiert, den kaum jemand kennt? Genau das haben wir ausprobiert.
Weiterlesen nach der Anzeige
Der Radxa Dragon Q6A ist ein kompakter SBC im Raspberry-Pi-Format mit einem Qualcomm QCS6490 (8 Kerne, Dragonwing-Serie), M.2-Slot für NVMe-SSDs, Wi-Fi 6, Bluetooth 5.4 und Unterstützung für eMMC- und UFS-Module – für rund 150 Euro mit 8 GB RAM.
Der chinesische Hersteller Radxa liefert dazu ein offizielles Windows-Treiberpaket, das einen Großteil der Hardware abdeckt. Das macht das Board nicht nur zu einem kuriosen Experimentierobjekt, sondern auch zu einer erschwinglichen Entwicklungsplattform für Windows on ARM.
Im Video zeigen wir Schritt für Schritt, wie die Installation funktioniert.
(mond)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
