Connect with us

Künstliche Intelligenz

Salesforce Agentforce 360: KI-Agenten mit Kontext


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Salesforce erweitert seine Agentforce-360-Plattform um neue Funktionen, die die viel diskutierte Kontextlücke heutiger KI-Agenten beheben sollen. Neben Werkzeugen wie Agent Script, einem ausgebauten Agent Builder und der Voice-Integration rückt die engere Verzahnung mit der übernommenen Informatica-Technologie in den Mittelpunkt. Sie bildet die Grundlage für den unternehmensweiten Kontext, auf den Agenten künftig zugreifen sollen. Parallel öffnet Salesforce seine Plattform und erlaubt Partnern, eigene Produkte direkt auf Basis der Agentforce-Architektur zu entwickeln und zu vertreiben.

Weiterlesen nach der Anzeige

Kern der Ankündigungen ist eine konsolidierte Datenarchitektur, die Salesforce als Voraussetzung für belastbare Agentenansätze beschreibt. Die Plattform Data 360 wird dafür enger mit der übernommenen Informatica-Technologie verzahnt und um Echtzeitsignale aus MuleSoft ergänzt. Entstehen soll ein Metadatengerüst, das Stammdaten, Kataloge, Datenherkunft und operative Ereignisse zusammenführt. Agenten sollen damit nicht mehr nur Text generieren, sondern auf klar definierte Geschäftsobjekte zugreifen und deren Zustand korrekt interpretieren können.

Peter Wüst, Senior Vice President Solution Engineering, beschreibt diese Kombination als eine „Kontextmaschine“, die Modelle nicht länger mit fragmentierten Datensichten arbeiten lässt. KI-Modelle seien zwar leistungsfähig, aber „unternehmensdumm“, da ihnen das spezifische Wissen über ein Geschäft, seine Historie und seine Regeln fehle. Ohne dieses gemeinsame Verständnis seien Agenten letztlich gezwungen zu raten – ein Kernproblem, das Salesforce mit der neuen Datenbasis adressieren will.

Die Datengrundlage bildet zugleich die Basis für deterministische Agentenlogik, die Salesforce als zentral für Verlässlichkeit und Compliance einstuft.

Eines der größten Probleme großer Sprachmodelle im Unternehmenseinsatz bleibt ihre fehlende Vorhersagbarkeit. Salesforce versucht dies über Hybrid Reasoning abzufedern: Während das LLM weiterhin für die Interpretation zuständig ist, wird die Abarbeitung von Prozessen in feste Logikbausteine ausgelagert. Die neue Skriptsprache Agent Script dient dazu, diese Schritte zu modellieren und mit bestehenden Salesforce-Flows zu verknüpfen. Dadurch sollen Agenten Aufgaben strukturiert und reproduzierbar abarbeiten, anstatt sich ausschließlich auf probabilistische Modellentscheidungen zu stützen.

Weiterlesen nach der Anzeige

Parallel ergänzt Salesforce seine Plattform um Werkzeuge, die Agenten leichter nutzbar machen sollen. Der überarbeitete Agent Builder erzeugt Agentenlogik aus natürlich formulierten Anweisungen und soll die Modellierung komplexer Abläufe vereinfachen. Mit Agentforce Voice, dessen Einführung sich mehrfach verzögert hat und das Anfang 2026 auch Deutsch unterstützen soll, kommt eine tief integrierte Sprachschnittstelle hinzu. Sie arbeitet bidirektional, mehrsprachig und lässt sich in CRM-, Service- und Commerce-Anwendungen einsetzen. Wüst beschreibt, wie sich damit alltägliche Aufgaben vereinfachen lassen: Außendienstmitarbeiter können Besuchsberichte unmittelbar nach einem Termin einsprechen, woraufhin das System die Inhalte strukturiert, Datensätze aktualisiert und bei Bedarf Folgeprozesse anstößt. Salesforce sieht diese Verbindung aus Spracheingabe und Geschäftslogik als einen Baustein, um Agenten im Arbeitsalltag breiter nutzbar zu machen.

Erstmals erlaubt Salesforce auch Partnern, Komponenten wie Agentforce 360, Data 360 und Trusted Services direkt in eigene Produkte einzubauen und kommerziell zu vertreiben. Begleitet wird dies von flexibleren Nutzungsmodellen und einem erweiterten Marketplace, der Provisionierung und Abrechnung automatisieren soll. Die Öffnung zielt darauf ab, Agentenfunktionen nicht nur in Salesforce-Anwendungen, sondern im gesamten Ökosystem breiter verfügbar zu machen.

Salesforce verfolgt damit eine klare Linie: Agenten sollen sich von experimentellen Werkzeugen zu regulierbaren Bausteinen im Unternehmensbetrieb entwickeln. Die Kombination aus Datenkontext, deterministischen Abläufen und Sprachanbindung adressiert bekannte Schwachstellen aktueller KI-Lösungen. Offen bleibt jedoch, wie hoch der Aufwand für Unternehmen ausfällt, um die notwendige Datenqualität zu erreichen – und wie stark die Abhängigkeit von der eng verzahnten Plattform steigt. Entscheidend wird sein, ob Salesforce die Balance zwischen Integrationstiefe und Offenheit halten kann.

Lesen Sie auch


(fo)



Source link

Künstliche Intelligenz

iX-Workshop: Unternehmensprozesse mit Multi-Agenten-Systemen automatisieren


Vorgefertigte Sprachmodelle und KI-Anwendungen wie ChatGPT, Mistral oder Gemini reichen für den Einsatz im Unternehmen oft nicht aus. Daher sind maßgeschneiderte Tools besonders geeignet, um eigene Daten zu integrieren, Betriebsabläufe mit Multi-Agenten-Systemen ausfallsicher zu automatisieren und das Potenzial von künstlicher Intelligenz voll auszuschöpfen.

Weiterlesen nach der Anzeige

Stellen Sie sich vor, Sie könnten ein Sprachmodell entwickeln, das Ihre Unternehmenssprache spricht – und zwar so sicher, dass es in Ihre eigenen Systeme passt. Genau das lernen Sie in unserem fünftägigen Workshop Generative KI nach Maß: eigene Daten integrieren, LLMs lokal betreiben, Multi-Agenten-Systeme entwickeln.

In dem praxisorientierten Workshop erhalten Sie einen detaillierten Einblick in die gezielte Personalisierung großer Sprachmodelle für die individuellen Anforderungen Ihres Unternehmens. Wir zeigen Ihnen, wie Sie Multi-Agenten-Systeme in Ihre Betriebsprozesse einbinden, um Prozesse zu automatisieren und die Effizienz langfristig zu steigern. Ebenfalls lernen Sie, wie Sie Anforderungen an Datenschutz und Compliance erfüllen und Sprachmodelle so auf eigener Hardware sicher betreiben.

In praktischen Übungen blicken Sie auf Ollama und LM Studio und lernen Schritt für Schritt, wie Sie Ollama auf Ihrer eigenen Hardware installieren, einrichten und KI-Modelle lokal verwenden. Weiterhin nutzen Sie Retrieval Augmented Generation (RAG), um mit KI kontextbezogene Antworten zu generieren. Abschließend wenden Sie die Inhalte an, um einen eigenen Anwendungsfall für Ihre berufliche Praxis zu entwickeln.

Februar
02.02. – 06.02.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 05. Jan. 2026
Mai
04.05. – 08.05.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 06. Apr. 2026
September
21.09. – 25.09.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 24. Aug. 2026
November
23.11. – 27.11.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 26. Okt. 2026

Der Workshop richtet sich an Data Scientists, die unternehmensinterne Daten mit KI-Unterstützung sicher analysieren und nutzen möchten. Ebenso eignet sich der Workshop für Machine-Learning-Engineers, die große Sprachmodelle durch Feintuning und Multi-Agenten-Systeme optimieren und für unternehmensspezifische Anforderungen konfigurieren möchten.

Ihr Trainer Dr. Franz-Josef Toelle ist Data Scientist und Experte für künstliche Intelligenz. In der Industrie und Forschung beschäftigt er sich seit mehr als 25 Jahren mit Deep Learning. In diesem Bereich ist er zudem Berater namhafter Unternehmen und Autor renommierter Publikationen.

Weiterlesen nach der Anzeige




(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Microsoft-Cloud-Security: Drei kostenlose Tools, die jeder Admin kennen sollte


Wer Microsofts Cloud verantwortungsvoll und sicher nutzen will, muss an den richtigen Stellschrauben drehen. Zum Glück gibt es professionelle, kostenlose Tools, die dabei helfen, diese zu finden und richtig zu justieren. Doch deren Bedienung ist nicht ganz trivial und erfordert Verständnis, wie Microsofts Cloud funktioniert und Angreifer die vorhandenen Schwachpunkte tatsächlich ausnutzen.

Weiterlesen nach der Anzeige

Das heise security Webinar am 28. Januar 2026 hilft dabei; wer noch dieses Jahr bucht, spart mit dem Frühbuchertarif. Der Referent Tim Mittermeier stellt nicht nur ScubaGear, PurpleKnight und EntraFalcon vor. Es zeigt ganz konkret, wie man diese selbst nutzen kann, um oft ausgenutzte Schwachstellen aufzuspüren und die Sicherheit seines M365-Tenants zu verbessern. Auch und besonders dann, wenn man diesen noch parallel mit einem klassischen Active Directory im sogenannten Hybrid-Betrieb nutzt.

Im Webinar geht es vor allem darum, reale Angriffe zu verhindern. Tim Mittermeier erläutert dazu typische Angriffstechniken, um sich Zugriff auf Cloud-Infrastrukturen zu verschaffen und Privilegien zu erhöhen. Darauf aufbauend erklärt er mit praktischen Beispielen, wie man solche Schwachstellen in Microsoft Entra ID und M365 mit den vorgestellten Werkzeugen gezielt aufspürt. Abschließend gibt er Tipps zur Härtung der Entra-Mandanten und M365-SaaS-Applikationen. Administratoren und Sicherheitsverantwortliche erhalten damit direkt umsetzbare Hilfestellung bei der sicheren Konfiguration ihres M365-Tenants.

Das Webinar dauert insgesamt etwa 3 Stunden und sieht dabei reichlich Zeit für Ihre Fragen und natürlich die Antworten darauf vor. Es richtet sich an alle, die Microsoft 365 in Unternehmen oder Behörden einsetzen und dabei auch für dessen Sicherheit und Compliance verantwortlich sind. Die Teilnahme kostet 195 Euro; wer bis zum 31. Dezember bucht, bekommt es noch zum Frühbuchertarif von 175 Euro. Mitglieder von heise security PRO können natürlich kostenlos daran teilnehmen und dieses und viele weitere heise-security-Webinare jederzeit in der exklusiven PRO-Mediathek abrufen.

Das PRO-Abo gibt es übrigens auch nur noch bis zum 31. Dezember zum reduzierten Jubiläums-Preis von 995 Euro. Das enthält neben den Webinaren auch ein Tour-Ticket, den wöchentlichen, exklusiven Security-PRO-Newsletter und vieles mehr. Genaueres zu heise security PRO erfahren Sie hier:


(ju)



Source link

Weiterlesen

Künstliche Intelligenz

VW ID. Polo Technik erklärt: Ein Baukasten für die Kleinen


Volkswagen hat die technischen Daten des ID. Polo veröffentlicht und gibt so auch wesentliche Details des ID. Cross, des Cupra Raval sowie des Skoda Epiq bekannt. Alle basieren auf dem MEB+, dem weiterentwickelten Modularen Elektrifizierungsbaukasten des Konzerns. Der ID. Polo geht Ende April 2026 in den Verkauf. Was kann er?

Anders als die bisherigen MEB-Elektroautos bekommt die Kleinwagenfamilie einen Frontantrieb. Die Einstiegsversion des VW ID. Polo soll „unter 25.000 Euro“ kosten. Für diesen Preis gibt es eine Traktionsbatterie mit 37 kWh verfügbarem Energieinhalt. Die Reichweite gibt VW mit etwa 300 km im gesetzlichen Messverfahren WLTP an.


VW ID. Polo Abmessungen

VW ID. Polo Abmessungen

Bei den Außenmaßen ist der ID. Polo nahezu identisch mit dem Polo VI, der mit Verbrennungsmotoren seit 2017 gebaut wird und vorerst parallel angeboten wird.

(Bild: VW)

Alternativ und gegen Aufpreis hat der ID. Polo 52 kWh Netto-Energieinhalt. Hier reklamiert Volkswagen eine vorläufige Normreichweite von 450 km. Die maximale Ladeleistung liegt bei 130 kW, und für den Standardhub von zehn auf 80 Prozent vergehen 23 Minuten. Zum Vergleich: In der Basisvariante ist bei 90 kW Schluss, und es werden 27 Minuten benötigt. Diese Werte beziehen sich natürlich auf das Laden an einer DC-Säule. Zu Hause an der Wallbox mit Wechselstrom sind 11 kW serienmäßig. Die gemeinsame Ladebuchse für beides ist vorne rechts montiert.


Das war die Leseprobe unseres heise-Plus-Artikels „VW ID. Polo Technik erklärt: Ein Baukasten für die Kleinen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt