Künstliche Intelligenz
KI-Agenten im Auto: SoundHound AI vernetzt Fahrzeugdaten mit Services
Künstliche Intelligenz ist längst auch im Auto angekommen. So nutzen Mercedes-Benz und VW ChatGPT eine ChatGPT-Integration, Volvo verlässt sich auf Googles Gemini. Viel mehr als eine natürlichere Kommunikation und Zugriff auf umfangreichere Informationsquellen bieten derartige Systeme allerdings nicht. Mit Agentic AI (KI-Agenten) ändert sich dies. Ein derartiges System, das selbstständig plant und Aufgaben ausführt, hat SoundHound AI auf dem MWC 2026 demonstriert.
Weiterlesen nach der Anzeige
Die von SoundHound AI entwickelte Software kann auf verschiedenen großen Sprachmodellen (LLMs, Large Language Models) aufbauen und bietet rund zwei Dutzend unterschiedliche KI-Agenten. Jeder Agent ist für einen eigenen Bereich zuständig, womit sich der Zugriff auf Daten und Funktionen abgrenzen lässt. Allerdings können die Agenten untereinander kommunizieren, was trotz der Aufgabenteilung komplexe Einsatzmöglichkeiten eröffnet.
Automatisch bestellen und bezahlen
Ein dafür gern genutztes Beispiel: Essen. Der Fahrer – oder ein Mitfahrer – teilt dem System mit, dass er auf dem Weg nach Hause eine Pizza abholen möchte. Bestimmte Schlüsselwörter sind dabei anders als bei vielen Sprachsteuerungen nicht nötig. Im ersten Schritt nennt der Assistent passende Restaurants, anschließend lässt sich die Bestellung diktieren. Dabei sind selbst Sonderwünsche wie „Bitte kein Käse auf der Pizza“ möglich. Wurde alles korrekt erkannt, reicht erneut ein einfacher Sprachbefehl für die Bestellung – die die automatische Bezahlung über das hinterlegte Zahlungsmittel auslöst. Laut Produktmanager Rupert Spielvogel könnte der KI-Agent dem Restaurant sogar die Ankunftszeit mitteilen, damit das Essen passend fertig ist. Es gibt aber eine wichtige Einschränkung. Denn Unternehmen, etwa Fast-Food-Ketten, müssen das System unterstützen. Entsprechende Verträge bestehen unter anderem mit Pizza Hut, Panda Express und weiteren Ketten.
Die KI kann aber auch Parkplätze am Zielort reservieren und bezahlen sowie Fahrzeugfunktionen wie Klimaanlage, Sitzheizung oder Navigationssystem steuern. Ist der Zugriff auf die Fahrzeugsensoren freigeschaltet, lassen sich deren Daten für verschiedenste Zwecke nutzen. Ein Anwendungsbeispiel ist die Übersetzung von Text auf Straßenschildern im Ausland. Hier reicht ein Kommando wie „Was steht auf dem Schild am Straßenrand?“ aus, um die Daten der Frontkamera auszulesen und den erkannten Text in die eigene Sprache übersetzen zu lassen.

Falls der Fahrzeughersteller es zulässt, kann die KI auf die Frontkamera zugreifen und etwa Straßenschilder übersetzen.
(Bild: SoundHound AI)
Ein weiterer Mehrwert gegenüber bisherigen Sprachassistenten soll der anpassbare Charakter sein. So lassen sich verschiedene Persönlichkeiten anlegen, etwa vom ausschweifend antwortenden Begleiter bis hin zum Zyniker. Laut SoundHound AI ist es aber auch möglich, eine Art Tagesform zu berücksichtigen. Dann fasst sich die KI am Montag beispielsweise kürzer als am Freitag. Ebenso sind verschiedene Charaktere für Fahrer und Mitfahrer einstellbar.
Start noch 2026
Weiterlesen nach der Anzeige
Welche Funktionen am Ende im Fahrzeug tatsächlich verfügbar sind, hängt laut Rupert Spielvogel vom Hersteller ab. Denn diese können festlegen, auf welche Fahrzeugdaten und -funktionen die KI-Agenten Zugriff erhalten. Zu den bisherigen Partnern gehören unter anderem Genesis, Hyundai, Kia, Lucid und die Stellantis-Gruppe, zu der unter anderem Fiat, Peugeot und Opel gehören. Welcher Hersteller als erster die KI-Agenten in einem Serienmodell einsetzen wird, verriet das Unternehmen gegenüber heise online nicht. Der Start ist allerdings für das Jahr 2026 geplant.
(pbe)
Künstliche Intelligenz
OrcaSlicer 2.3.2 – Massives Update
OrcaSlicer veröffentlicht seine Updates üblicherweise in so hoher Frequenz, sodass man sich daran gewöhnt hat, dass nicht immer „Killer-Features“ enthalten sind. In der neuen Version 2.3.2 hat sich jedoch einiges geändert und wurde ergänzt.
Weiterlesen nach der Anzeige
Links und Quellen zu OrcasSlicer
Hinweis: Es gibt einige inoffizielle Webseiten, die OrcaSlicer anbieten – die oben verlinkte Seite ist die offizielle Quelle. Lade dir den Installer herunter oder nutze die portable Version, falls du die alte Installation behalten möchtest oder musst.
Hier die wichtigsten Neuerungen im Überblick
Verbessertes Multi-Line-Infill

Saubere und stabile Infills auch mit Multi-Line-Infill.
(Bild: OrcaSlicer)
Mit Multiline-Infill kann man Druckobjekte stabiler machen, wenn man die Wandstärke nicht erhöhen will oder kann. Das Multiline-Infill ist sauberer geworden und weist weniger Überschneidungen auf (dank Clipper2-Bibliothek). Zudem ist es besser mit dem Hauptobjekt verbunden.
Weiterlesen nach der Anzeige
Mehr Kontrolle über die Flow-Rate
Die Flussrate lässt sich jetzt pro Feature statt nur pro Filament einstellen – etwa eine andere Flow-Rate für Infill als für Wände. Die Option findest du unter „Set other flow ratios“ im Quality-Tab.

Feintuning der Flowrate in allen Bereichen eines Druckobjekts.
(Bild: OrcaSlicer)
Brim mit besserer Elephant-Foot-Compensation
Das Brim arbeitet nun zuverlässiger mit der „Elephant Foot Compensation“ zusammen. Sich ablösende, kaum nutzbringende Brims gehören damit weitgehend der Vergangenheit an. Elephant-Foot-Compensation verhindert die Überextrusion des ersten Layers auf dem Druckbett. Dieser Faktor wird nun bei der Erzeugung von Brims einberechnet.

Endlich keine sich selbst lösenden Brims mehr.
(Bild: OrcaSlicer)
Auto-Slice nach Änderungen
Unter Preferences Control Slicing lässt sich „Auto slice after changes“ aktivieren. Die Wartezeit ist anpassbar, sodass man mehrere Änderungen vornehmen kann, bevor der Slicer loslegt. Da ein laufender Slicing-Vorgang aber bei neuen Parametern abgebrochen und neu gestartet wird, ist es auf schnellen Rechnern kaum nötig, den Wert hochzusetzen. Ein Feature, das ich lange vermisst habe, seit ich vom PrusaSlicer gewechselt bin.
Überarbeiteter Drucker-Tab
Der Drucker-Tab ist jetzt grafischer und übersichtlicher. Der Düsendurchmesser lässt sich jetzt getrennt vom Drucker einstellen.

Grafisch aufbereite und übersichtlich angeordnete Druckerauswahl.
Instanzieren statt nur Clonen
Statt eigenständiger Kopien (Clones) lassen sich Objekte jetzt auch als „Instances“ vervielfältigen. Ändert man eine Instanz, folgen die anderen automatisch – sei es bei Filament-Zuordnungen für Multifilament-Druck oder anderen Einstellungen. Das spart auch beim Slicing Zeit, da nur eine Instanz berechnet werden muss. Die Anzahl der Instanzen ist einstellbar, oder man füllt direkt das ganze Druckbett.
Zusätzlich werden inzwischen Kollisionen zwischen (besonders Instanzierten Objekten) besser erkannt und so behandelt, dass keine Fehldrucke entstehen.
Verbesserter Wipe Tower (Multimaterial-Druck)
Für farbige bzw. aus mehreren Filamentsorten zusammengesetzte Drucke auf Materialwechslern und Toolchangern wurden die Wipe-Tower-Verbesserungen aus Bambu Studio zu Orca portiert:
- Stabilere Wipe Tower ergeben weniger Fehldrucke durch einstürzende Wipetower
- Bessere Layerhaftung durch smarteres Vorheizen und Kühlen der Düse beim Filamentwechsel
- Höhere Druckgeschwindigkeit
Die Einstellungen müssen in den jeweiligen Druckprofilen aktiviert werden:
Multimaterial -> Prime Tower -> Enable tower interface featuresCool down from interface boost during prime tower
Die Art des Wipe Towers lässt sich inzwischen auch direkt im Druckerprofil auswählen.
Verbesserte Kalibrierung
Wer das Beste aus seinen Druckern und Filamenten herausholen möchte, sollte beides kalibrieren. In Version 2.3.2 sind die Kalibrierungs-Tools jetzt in der richtigen Reihenfolge im Menü sortiert. Außerdem werden die Firmwares für Input Shaper, Cornering/Jerk erkannt und entsprechend ausgewählt.
Mehr Materialwechsler & Toolheads unterstützt
Im Drucker-Konfigurator werden nun zusätzliche Materialwechsel-Einheiten und Toolheads unterstützt. Diese lassen sich direkt aus dem Slicer steuern, und die Filamentbelegung der Toolheads ist interaktiv anpassbar. Dies ist noch als experimentell markiert, da es sich teilweise um schlecht dokumentierte Hardware handelt und die Hersteller natürlich eher ihr Ökosystem unterstützen.
Unterstützung für neuere Bambu-Lab-Drucker
Orca 2.3.2 unterstützt jetzt auch die neueren Bambu-Lab-Modelle wie H2D (Pro) und H2S. Außerdem gibt es weitere spezielle Verbesserungen für Bambulab-Nutzer.
Weitere Informationen
Viele zusätzliche Änderungen und Verbesserungen mit Beispielbildern findet man im ausführlichen Changelog: OrcaSlicer 2.3.2 Beta Changelog
Mehr zum Thema im Make-Magazin
In der Make 1/26 hatten wir einen ausführlichen Artikel über Tipps&Tricks für Slicer und einen Artikel über Orca Slicer und warum er immer beliebter wird.
(caw)
Künstliche Intelligenz
Kapazitäten ausgereizt? Microsoft lehnt Neukunden für GitHub Copilot ab
Microsoft hat die Registrierung bei GitHub Copilot pausiert. Neukunden können sich somit nicht mehr für die Tarife Pro, Pro+ und Student anmelden. Gleichzeitig verschärfte das US-Unternehmen Tokenlimits und kündigte die Entfernung von Claude Opus 4.5 und 4.6 aus dem Pro+-Tarif an. Opus 4.7 bleibt im Pro+-Tarif hingegen verfügbar. Aus dem Pro-Tarif wurden alle Opus-Modelle sofort entfernt. Die kostenfreie Stufe und Enterprise-Abonnements sind von den Änderungen derzeit nicht betroffen.
Weiterlesen nach der Anzeige
Registrierungsstopp soll Servicequalität sichern
Hintergrund der Änderungen sei ein unerwartet hoher Bedarf an Rechenleistung. „Lang andauernde, parallelisierte Sitzungen beanspruchen regelmäßig weitaus mehr Ressourcen als geplant. Die ursprünglichen Strukturen waren dafür nicht ausgelegt“, schreibt Joe Binder, VP of Product, im GitHub-Blog. Inzwischen übernähmen KI-Agenten mehr Aufgaben und Kunden stießen an ihre Nutzungsgrenzen. Ohne Einschränkungen verschlechtere sich die Servicequalität für Bestandskunden.
Die Nutzungsgrenzen des Pro+-Abonnements sind mehr als fünfmal so hoch wie im Pro-Tarif. Dieses Limit ist von der Anzahl der Premiumanfragen unabhängig. Stattdessen handelt es sich um tokenbasierte Beschränkungen innerhalb eines festgelegten Zeitfensters. Somit können Kunden noch über ungenutzte Premiumanfragen verfügen, aber bereits die Nutzungsgrenzen erreicht haben.
Token und Modelle bestimmen Nutzungslimits
Microsoft unterscheidet bei den Nutzungslimits von GitHub Copilot zwischen zwei Zeitfenstern, die sich nach dem Tokenverbrauch und einem Multiplikator richten, der bei rechenintensiven Modellen entsprechend höher ist. Das erste Zeitfenster bezieht sich auf die jeweilige Session. Reizen Kunden ihr Limit aus, müssen sie warten, bis sich das Nutzungsfenster zurücksetzt, um Copilot wieder verwenden zu können.
Das zweite Zeitfenster ist das wöchentliche Limit, das eine Obergrenze für die nutzbaren Token darstellt. Damit will Microsoft parallelisierte Anfragen beschränken, die oft lange laufen und hohe Kosten verursachen. Künftig wolle das Unternehmen die Limits anpassen, um ein Gleichgewicht zwischen Zuverlässigkeit und Nachfrage zu erzielen, schreibt Binder. Ihren aktuellen Verbrauch können Kunden in Visual Studio Code oder dem Kommandozeilentool von GitHub Copilot einsehen.
Weiterlesen nach der Anzeige
Microsoft rät zu sparsamer Nutzung oder teurerem Tarif
Microsoft empfiehlt Kunden, die sich ihrem Nutzungslimit nähern, auf kleinere Modelle umzusteigen, weniger parallele Workflows zu verwenden oder den Plan-Mode zu nutzen. Alternativ verweist das Unternehmen seine Pro-Kunden auf den Pro+-Tarif.
GitHub Copilot kostet im Pro-Tarif monatlich 10 US-Dollar, Pro+-Nutzer zahlen 39 US-Dollar. Kunden der Pro- und Pro+-Tarife können ihr Abonnement jederzeit kündigen und sich die Gebühren für April über eine Supportanfrage bis zum 20. Mai 2026 zurückerstatten lassen. Zuletzt versuchte Microsoft, nicht nur mit Abonnement-Gebühren an GitHub Copilot zu verdienen, sondern blendete Werbung in Pull Requests ein. Nach Nutzerbeschwerden ruderte das Unternehmen zurück.
(sfe)
Künstliche Intelligenz
Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten
Die IT-Sicherheit befindet sich in einem permanenten Spannungsfeld zwischen der Notwendigkeit granularer Kontrolle und dem Drang nach operativer Geschwindigkeit. Während Containerorchestrierung per Kubernetes und Serverless-Architekturen die Deployment-Frequenz in den Minutenbereich drücken, hinken klassische Sicherheitskonzepte oft Monate hinterher. Der Markt antwortet mit der Fusion ehemals getrennter Disziplinen – Cloud Security Posture Management (CSPM) und Cloud Workload Protection Platform (CWPP) – zur Cloud-native Application Protection Platform (CNAPP).
Allerdings eine schlechte Nachricht für Firmen, die souverän bei EU-Anbietern hosten: Keine CNAPP-Lösung analysiert die mittelständischen Anbieter wie Scaleway, OHV, STACKIT et cetera. Für selbst oder bei mittelständischen Anbietern betriebene Kubernetes-Cluster sieht es besser aus, hier helfen die auf CWPP spezialisierten Werkzeuge.
- Zur Absicherung von Cloud-native-Infrastrukturen hat man die Wahl zwischen agentenlosen Scannern und agentenbasierten Wächtern und somit zwischen reiner Sichtbarkeit und aktiver Gefahrenabwehr zur Laufzeit.
- Compliance ist Pflicht: Alle Maßnahmen sollten auf den BSI-Grundschutz abgestimmt sein.
- Die finanzielle Stabilität und die R&D-Quote der Anbieter sind kritische Indikatoren für die Zukunftsfähigkeit; die Implosion der Bewertung von Lacework dient als Warnsignal gegen einen vorschnellen Vendor Lock-in.
Fragte die erste CSPM-Tool-Generation noch systematisch Cloud-APIs ab, um den Ist- gegen den Sollzustand zu prüfen, hat sich die Bedrohungslage fundamental verschoben. Angreifer nutzen nicht mehr nur simple Fehlkonfigurationen, sondern komplexe Identitätsketten und Schwachstellen innerhalb der Laufzeitumgebung aus. Die bloße API-Abfrage, die einen offenen Port meldet, ist wertlos geworden ohne den Kontext, welcher Prozess dort lauscht, welche Bibliotheken geladen sind und welche Rechte die damit verknüpfte Serviceidentität besitzt.
Das war die Leseprobe unseres heise-Plus-Artikels „Compliance-Management: Cloud-Apps absichern – mit oder ohne Agenten“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
