Künstliche Intelligenz
Endpoint-Management: „Operativ hilft es nicht, in Alarmismus zu verfallen“
Die Andreas Stihl AG & Co KG aus Waiblingen-Neustadt in der Metropolregion Stuttgart ist für ihre Motorsägen weltbekannt – und gilt bereits seit über 50 Jahren als Marktführer. Wie funktioniert die IT bei einem Unternehmen, das weltweit über 20.000 Mitarbeiter hat? Im Gespräch mit heise online gibt Jürgen Sitzler, der für Plattformsysteme zuständige Manager des großen Mittelständlers, Einblick in seine Arbeit.
Weiterlesen nach der Anzeige
heise online: Herr Sitzler, welche Aufgaben verantworten Sie bei Stihl?
Sitzler: Ich bin Manager Plattformsysteme. In meinem Team bündeln wir im Kern das, was man klassisch als Endpoint-Management für Windows versteht: die Plattformen für Windows-Clients und Windows-Server, inklusive Softwareverwaltung und Softwareverteilung als Standardsystem. Darüber hinaus liegen auch angrenzende Plattformthemen bei uns, etwa Intune als MDM-Komponente sowie Virtualisierung und Applikationsbereitstellung mit VMware und Citrix. Es geht dabei nicht nur um den Betrieb einzelner Tools, sondern vor allem um stabile, nachvollziehbare Prozesse: Standardisierung, Rollout, Lifecycle-Management, Patchen, Inventarisierung und die Fähigkeit, im Störungs- oder Sicherheitsfall schnell belastbare Aussagen treffen zu können.
heise online: In welchen Dimensionen bewegen Sie sich dabei?
Sitzler: Insgesamt sprechen wir über rund 25.000 Endpunkte. Je nachdem, wie man mobile Clients mitrechnet, kann das in der Praxis auch darüber liegen. Auf der klassischen Client-Seite haben wir ungefähr 17.000 Windows-Geräte. Macs spielen bei uns eine deutlich kleinere Rolle; wir liegen da bei etwa 50 MacBooks. Das allein macht den Schwerpunkt klar: Die Prozesse und das Tooling sind sehr stark auf Windows ausgerichtet, weil die Masse der Arbeitsplätze und viele Fachanwendungen dort verankert sind.

Jürgen Sitzler von Stihl
(Bild: privat)
heise online: Viele Unternehmen sprechen derzeit über den Konflikt zwischen Operational Technology, also der Datenverarbeitung produzierender Systeme, und der restlichen IT. Ist das bei Ihnen ebenfalls ein Thema?
Sitzler: Ja, das ist bei uns sehr konkret. Wir arbeiten derzeit in einem Projekt daran, OT und IT stärker zu trennen. Historisch ist das oft zusammengewachsen; in der Realität ist das dann nicht selten ein gemeinsamer Verbund mit zu vielen Übergängen. Aus Security-Sicht ist diese klare Segmentierung ein wichtiger Schritt. Gleichzeitig ist es ein anspruchsvolles Vorhaben, weil Produktionsumgebungen eine andere Stabilitätsanforderung und häufig auch andere Update- und Wartungsfenster haben als klassische Office-IT.
Weiterlesen nach der Anzeige
heise online: Sie kommen aus der Ivanti-DSM-Welt. Warum ist das jetzt in Bewegung?
Sitzler: Wir nutzen aktuell noch Ivanti DSM in zentralen Teilen unserer Softwareverteilung und -verwaltung. Der wesentliche Treiber ist: DSM ist zum 31.12.2026 abgekündigt. Es gibt zwar ein Nachfolgesystem, aber aus unserer Sicht ist es derzeit funktional noch nicht auf dem Niveau, das für eine große Umgebung erforderlich ist. In der Folge sehen wir, dass viele DSM-Kunden den Markt neu bewerten. Auch wir prüfen, wie wir langfristig eine moderne, tragfähige Plattform aufstellen, die sowohl Client- als auch Server-Anforderungen abdeckt.
heise online: Welche Erwartungen haben Sie an ein Nachfolgesystem?
Sitzler: Entscheidend ist für uns die durchgängige Abdeckung: Server und Clients dürfen nicht in getrennten Welten landen, mit unterschiedlichen Datenmodellen, unterschiedlichen Agenten oder unterschiedlichen Betriebslogiken. Zusätzlich müssen Inventar, Konfigurationszustand, Compliance und Verteilung verlässlich skalieren. Es reicht nicht, dass etwas „irgendwie“ funktioniert; bei der Größenordnung müssen Aussagen reproduzierbar, Reports belastbar und Änderungen sauber steuerbar sein. Und nicht zuletzt ist die Geschwindigkeit relevant: Wie schnell sieht man den tatsächlichen Zustand im Feld, und wie schnell lassen sich Maßnahmen umsetzen?
heise online: Microsoft ist bei vielen Unternehmen gesetzt. Warum reicht das nicht?
Sitzler: Microsoft ist als strategischer Partner natürlich präsent, und auf der Client-Seite gibt es moderne Ansätze. In Gesprächen wird dann für Server-Themen jedoch häufig auf klassische Werkzeuge verwiesen, insbesondere SCCM, also der Microsoft Endpoint Configuration Manager. Für uns war das kein überzeugender Weg, weil wir eine zukunftsfähige Plattform suchen, die sich in den operativen Alltag gut einfügt und den heutigen Anforderungen entspricht. Unsere Ausgangslage war, dass wir bereits ein leistungsfähiges System hatten. Wenn man ablöst, sollte das Zielbild mindestens gleichwertig sein, in wichtigen Punkten besser, und langfristig tragfähig.
heise online: Wir sprechen mit einander auf Taniums Hausmesse Converge. Wie ist Stihl zu Tanium gekommen?
Sitzler: Tanium war in unserem Partner- und Marktkontext präsent, und wir haben die Lösung in der Evaluation konkreter betrachtet. Der zentrale Punkt war der Realtime-Ansatz. Viele Werkzeuge arbeiten stark datenbankgetrieben: Endpunkte melden in festen Intervallen, Daten werden gesammelt, verarbeitet und stehen dann im Reporting zur Verfügung. Das ist für viele Zwecke ausreichend, aber es hat einen Haken: Die Daten sind zum Zeitpunkt der Betrachtung häufig bereits veraltet. In ruhigen Zeiten ist das tolerierbar, aber in kritischen Situationen möchte man nicht mit dem Gefühl arbeiten, dass die letzten verlässlichen Informationen „vor fünf Minuten“ oder „vor einer Stunde“ waren.
heise online: Was bedeutet „Realtime“ für Ihren Alltag?
Sitzler: Realtime bedeutet nicht, dass jede Entscheidung automatisiert ist, sondern dass Abfragen und Sichtbarkeit näher an der Wirklichkeit liegen. In der Praxis heißt das: Wenn ich wissen muss, ob eine bestimmte Schwachstelle, ein bestimmtes Softwarepaket oder ein bestimmter Konfigurationszustand tatsächlich auf den Geräten vorhanden ist, möchte ich eine Antwort, die nicht primär eine historische Momentaufnahme aus einer Datenbank ist. Gerade im Sicherheitskontext ist das ein Unterschied.
Angriffe werden professioneller und schneller, und damit steigt der Wert aktueller Telemetrie. Außerdem ist auch die Bedienlogik relevant: Statt starre Reports zu bauen, kann man sich über gezielte Fragen schrittweise an eine Antwort herantasten. Diese Form des Arbeitens ist für viele Use Cases effizienter, weil sie den realen Diagnoseprozess besser abbildet.
heise online: Sie sind seit vielen Jahren bei Stihl. Wie hat sich das Thema Softwareverteilung historisch entwickelt?
Sitzler: Ich bin seit 2001 im Unternehmen. Interessant ist, dass es bei uns tatsächlich eine Historie gibt, die bis in frühe Softwareverteilungsansätze zurückreicht. Ein sehr frühes Produkt, das damals „NetInstall“ hieß, ist im Umfeld Stihls entstanden. Über verschiedene Stationen und Zusammenschlüsse ist das letztlich in der Produktlinie gelandet, die später als DSM bei Ivanti geführt wurde. Man könnte sagen: Das Thema ist bei uns seit langem präsent, und die Ablösung ist daher nicht nur eine Toolfrage, sondern auch eine Frage eingespielter Prozesse.
heise online: Welche Security-Werkzeuge sind bei Ihnen im Einsatz?
Sitzler: Wir arbeiten mit Microsoft Defender und CrowdStrike. Wichtig ist dabei weniger das Label des Produkts, sondern dass Abdeckung, Betrieb und Lizenzmodell zur Realität der unterschiedlichen Systemklassen passen.
heise online: Wie steuern Sie die Verwaltung von Macs und mobilen Endgeräten?
Sitzler: Macs verwalten wir über Intune. Allerdings muss man realistisch sagen: Bei uns ist macOS eine Ausnahme, weil viele Arbeitsprozesse, Vorlagen und Automatisierungen sehr stark auf Windows und Microsoft-Ökosysteme ausgerichtet sind. Bei mobilen Endgeräten setzen wir strategisch auf iOS und iPadOS und verwalten diese ebenfalls über Intune. Android gibt es bei uns vor allem im Shopfloor-Umfeld. Dort nutzen wir Soti, weil es im jeweiligen Anwendungsfall oft kostenseitig und organisatorisch besser passt, Geräte statt Benutzer zu registrieren und zu verwalten.
heise online: Wie wichtig ist aus Ihrer Sicht Security-Awareness?
Sitzler: Awareness ist wichtig, aber es ist kein Zustand, den man einmal erreicht und dann „abhakt“. Es braucht Wiederholung, Training und auch überprüfbare Formate, etwa Kampagnen und Tests. Gleichzeitig muss man die Realität im Unternehmen berücksichtigen: Mitarbeitende haben unterschiedliche Rollen, unterschiedliche digitale Vorerfahrung und vor allem einen klaren Arbeitsauftrag. Sicherheit steht oft im Spannungsfeld zur Nutzbarkeit. Deshalb ist aus meiner Sicht entscheidend, wirksame Maßnahmen so umzusetzen, dass sie den Betrieb möglichst wenig behindern. Ein Beispiel ist Patchen: Eine kurze Zielvorgabe, etwa innerhalb weniger Tage, ist sinnvoll. Gleichzeitig kann man den Zeitpunkt eines Neustarts in vielen Fällen flexibel halten, damit Arbeitsabläufe nicht unnötig gestört werden.
heise online: Wie sieht Ihre operative Sicherheitsorganisation im Hintergrund aus?
Sitzler: Es gibt eine eigene Cyber Security Abteilung. Diese stellt neben der entsprechenden Governance ebenfalls Services wie Threat Intelligence & Posture Management, Cyber Defense und Security Architecture. Außerdem werden hier Maßnahmen zur weiteren Stärkung der Security Culture umgesetzt und mit regelmäßigen Trainings untermauert.
Zur Sicherstellung der Wirksamkeit unserer Bemühungen sind regelmäßige externe Auditierung (beispielsweise Red-Team-Assessment und PenTests) vorgesehen, da die interne Wahrnehmung von der Realität abweichen kann.
heise online: Wie bewerten Sie die aktuelle Bedrohungslage?
Sitzler: Sie ist aus meiner Sicht deutlich ernster geworden. Operativ hilft es nicht, in Alarmismus zu verfallen, aber man muss das Thema mit großem Respekt behandeln. Durch Large Language Models sinkt die Einstiegshürde für das Erstellen von Code erheblich. Früher scheiterte manches daran, dass Angreifende Skripte zumindest verstehen und anpassen mussten. Heute kann das durch generative Systeme deutlich schneller gehen. Wenn Angriffe stärker KI-gestützt stattfinden, wird die Verteidigung ebenfalls stärker KI-gestützt sein müssen, allein um Geschwindigkeit und Skalierung halten zu können.
Das Interview wurde auf der Tanium Converge 2025 geführt. Der Autor reiste auf Einladung von Tanium.
(bsc)
Künstliche Intelligenz
LXD 6.7 unterstützt AMD-GPUs und verbessert Cluster-Verwaltung
Canonical hat LXD 6.7 veröffentlicht: Die neue Version des Container- und VM-Managers erweitert den GPU-Support auf AMD-Hardware und bringt Verbesserungen für den Betrieb in Clustern.
Weiterlesen nach der Anzeige
Mit der neuen Version können Nutzer AMD-Grafikkarten an Container durchreichen. LXD unterstützt dazu das AMD Container Device Interface (CDI), das im Snap-Paket enthalten ist. Der Befehl lxc config device add bindet eine einzelne GPU ein, mit id=amd.com/gpu=all lassen sich alle verfügbaren AMD-Grafikkarten durchreichen. Das AMD CDI funktioniert analog zum bereits bekannten Nvidia Container Device Interface.
LXD 6.7 integriert QEMU 10.2 und die EDK2-Firmware 2025.02 – zuvor waren QEMU 8.2.2 und EDK2 2023.11 an Bord. Die aktualisierte Virtualisierungsschicht unterstützt dynamische MMIO-Window-Größen, was die Kompatibilität mit modernen Grafikkarten erhöht.
Für Prozessoren mit x86-64-v3-Befehlssatz können Admins nun optimierte Container-Images verwenden. Die als amd64v3 bezeichneten Varianten nutzen moderne CPU-Instruktionen wie AVX, AVX2, BMI1, BMI2 und FMA. Das steigert die Performance auf CPUs der letzten zehn Jahre, funktioniert aber nicht auf älteren Prozessoren. Ob ein System die Architekturvariante unterstützt, zeigt der Befehl ld.so --help | grep '\-v[0-9]' an.
Cluster-Recovery und Placement Groups
Für Cluster-Umgebungen führt LXD 6.7 einen Recovery-Mechanismus für Storage Pools ein. Die neue Option source.recover beim Erstellen von Storage Pools erlaubt es, existierende Pools zu scannen, ohne Daten zu modifizieren. Das erweitert das bereits vorhandene lxd recover-Kommando um Cluster-Funktionen und hilft beim Disaster Recovery.
Mit Placement Groups lässt sich die Verteilung von Instanzen in Clustern steuern. Die Funktion lässt sich auf zwei Wegen einsetzen: „spread“ verteilt Instanzen über verschiedene Cluster-Member (Hochverfügbarkeit), „compact“ gruppiert sie auf einem einzelnen Member (minimale Latenz). Admins können die Platzierung strikt erzwingen oder permissiv gestalten. Der Befehl lxc placement-group create my-pg policy=spread rigor=strict erzeugt eine solche Gruppe. Die LXD-Weboberfläche unterstützt die Konfiguration und Nutzung von Placement Groups.
Weiterlesen nach der Anzeige
Die API ermöglicht nun das erzwungene Löschen von Projekten und Instanzen – auch wenn diese noch laufen oder eingefroren sind. Der asynchrone DELETE-Befehl zeigt an, welche Entities betroffen sind. Diese Funktion ist nur vorwärtskompatibel.
Vereinfachter Zugang zur Weboberfläche
Der initiale Zugang zur LXD-Weboberfläche erfolgt nun über einen temporären Link mit Bearer-Token, der einen Tag gültig ist. Die Befehle lxd init oder lxd init --ui-initial-access-link generieren den Zugangslink. Nach dem ersten Login richtet man eine permanente Authentifizierung über Browser-Zertifikate mit Trust-Token oder über mTLS beziehungsweise OIDC ein. Browser warnen bei selbstsignierten Zertifikaten – was zumindest für lokale oder geschützte Installationen akzeptabel ist.
LXD 6.7 führt außerdem Bearer-Authentifizierung als neuen Identity-Typ ein. Der API-Endpoint /1.0/auth/identities/current zeigt für Bearer- und TLS-Identities das Ablaufdatum an. Die neue Authentifizierungsmethode orientiert sich an OAuth-Standards.
Bei der Abfrage des Instance-Status können Admins nun einzelne Felder abrufen. Der Parameter recursion in Kombination mit fields – etwa ?recursion=2;fields=state.disk – vermeidet teure Disk- oder Network-Abfragen und reduziert die Last auf dem System.
Die Weboberfläche hat diverse Verbesserungen erhalten: Konfiguration von Placement Groups, Netzwerkkonfiguration mit IP-Reservierung und ACLs, Cloud-init-Editor im Vollbildmodus, aussagekräftige Tooltipps für Cluster-Member und Netzwerke sowie eine Liste der Cluster-Member mit Speicherinformationen. Hinzu kommen lokale Peerings für OVN-Netzwerke, vereinheitlichte Fehlerbildschirme und die Option, Storage Volumes zwischen Cluster-Membern zu migrieren.
LXD 6.7 steht ab sofort im Snap-Kanal 6/candidate zur Verfügung und wird nächste Woche in 6/stable übernommen. Die Installation erfolgt mit snap install lxd --channel=6/stable. Unter macOS können Anwender brew install lxc nutzen, unter Windows choco install lxc. Weitere Details finden sich in der offiziellen Ankündigung.
(fo)
Künstliche Intelligenz
Burger King: KI-Assistent hört mit und bewertet „Freundlichkeit“ von Filialen
Weiterlesen nach der Anzeige
Burger King testet derzeit in rund 500 US-Filialen einen KI-Assistenten namens „Patty“ für Angestellte mit Headset. Das System unterstützt bei verschiedenen Aufgaben, ist aber auch darauf trainiert, Formulierungen wie „Willkommen bei Burger King“, „Bitte“ und „Danke“ zu erkennen, sagt Digitalchef Thibault Roux dem US-Techmagazin The Verge. Diese Daten fließen in eine Metrik, die Filialleitern Aufschluss darüber geben soll, wie ihr Standort in puncto „Freundlichkeit“ abschneidet.
In einem weiteren Interview beschwichtigt Roux: Die Daten würden anonymisiert und nicht zur Bewertung einzelner Mitarbeiter eingesetzt. Zudem werde „Patty“ den Beschäftigten nicht vorgeben, was oder wie sie etwas sagen sollen. Stattdessen erhielten Filialleiter aggregierte Werte, die sie für persönliche Coachinggespräche mit ihren Teams nutzen könnten, sagt Roux dem US-Wirtschaftsmagazin Fast Company.
Wie „Freundlichkeit“ genau berechnet wird, bleibt offen. Roux deutet jedoch an, dass das Unternehmen daran arbeitet, künftig nicht nur bestimmte Worte, sondern auch den Tonfall von Gesprächen zu erfassen.
Deutschland: Mitbestimmung und DSGVO als zentrale Hürden
Derzeit basiert „Patty“ auf einem angepassten KI-Modell von OpenAI. Laut Roux ist die Technologie jedoch so ausgelegt, dass sie künftig auch mit anderen Partnern wie Anthropic oder Google integriert werden könnte.
Neben der Freundlichkeitsanalyse erfüllt „Patty“ eine Reihe weiterer Funktionen. Mitarbeiter können per Headset Arbeitsanweisungen zu Rezepturen und Reinigungsprozessen abrufen, ohne Handbücher konsultieren zu müssen. Das System informiert Manager zudem automatisch über ausgefallene Geräte oder fehlende Zutaten und aktualisiert digitale Menüs, Kioske und Apps entsprechend. Erkennt die KI wiederkehrende Muster, kann sie proaktiv Hinweise an Verantwortliche senden.
Weiterlesen nach der Anzeige
Nach aktuellen Plänen soll das System bis Ende 2026 flächendeckend eingeführt werden. „Patty“ ist eine Kurzform von Patricia oder Patrick, bezeichnet im Englischen aber zugleich die Fleischscheibe im Burger.
In Deutschland wäre ein System, das den Wortlaut von Angestellten erfasst und auswertet, nur mit erheblichen Hürden umsetzbar. Als technische Einrichtung zur Leistungs- und Verhaltenskontrolle dürfte ein solches System ohne Zustimmung des Betriebsrats nicht eingeführt werden. Beim Einsatz von Künstlicher Intelligenz ist zudem die Hinzuziehung eines Sachverständigen gesetzlich vorgesehen. Zusätzlich wären die Vorgaben der DSGVO zu beachten, da Sprachaufzeichnungen personenbezogene Daten darstellen können.
(tobe)
Künstliche Intelligenz
Nvidia-Konkurrenz: Google will sein TPU-Geschäft angeblich groß aufziehen
Google hat mit Meta offenbar einen großen Fisch an Land gezogen, der die eigenen Tensor Processing Units (TPUs) kaufen und in Rechenzentren einsetzen will. TPU nennt Google seine KI-Beschleuniger, die als Alternative unter anderem zu Nvidias und AMDs GPUs dienen. Aktuell ist die Version TPU v7.
Weiterlesen nach der Anzeige
Laut The Information ist das Abkommen zwischen Google und Meta auf mehrere Jahre ausgelegt. Im Vergleich zu den Millionen von Beschleunigern, die Meta von AMD und Nvidia für Dutzende Milliarden US-Dollar kauft, geht es beim Google-Deal um deutlich kleinere Summen. Von mehreren Milliarden US-Dollar ist die Rede. Insbesondere der Preis pro Beschleuniger dürfte niedriger sein als bei der Konkurrenz.
Google bekommt so als Hardware-Zulieferer einen Fuß in die Tür. Angeblich will der Konzern künftig zehn Prozent von Nvidias Marktanteil abhaben. Das wären voriges Jahr rund 16 Milliarden US-Dollar gewesen, rein auf KI-Beschleuniger bezogen: Mit solchen machte Nvidia 162,4 Milliarden US-Dollar Jahresumsatz, mit Netzwerk-Hardware weitere 31,4 Milliarden, Tendenz weiter steigend.
Google-Joint-Ventures für mehr Verbreitung
Um die Verbreitung von TPUs voranzutreiben, will Google mit einem nicht genannten, großen Investor angeblich ein Joint-Venture gründen. Darüber könnte der Konzern die KI-Beschleuniger an weitere Betreiber von Rechenzentren leasen. Weitere Joint-Ventures mit anderen Investoren könnten folgen. Alternativ zum Leasing könnten diese Tochterunternehmen auch ganze Rechenzentren für Kunden betreiben.
Google muss derweil die Vermarktung der eigenen TPUs und den Einsatz von Nvidia-Hardware ausbalancieren. Mindestens für die Vermietung innerhalb der eigenen Cloud ist Google weiter auf Nvidias KI-Beschleuniger angewiesen, weil viele Kunden mit Nvidias Software arbeiten.
Nvidia-Chef Jensen Huang schließt laut The Information gezielt Abkommen ab, um vielversprechende Firmen an sich zu binden, darunter zuletzt Anthropic. Solche Tendenzen zeigten sich schon früher, etwa bei Nvidias Einstieg bei Groq, womit die Firma einem Deal zwischen OpenAI und Groq zuvorkam. Huang sei nur allzu bewusst, dass mit Gemini und Claude manche der besten KI-Modelle mit Google-Hardware trainiert wurden.
Weiterlesen nach der Anzeige
TPU v7 als Alternative
Googles TPU v7 ist auf dem Papier mit 4,6 FP8-Petaflops langsamer als Nvidias Blackwell Ultra (B300) mit 5 Pflops beziehungsweise 10 mit Sparsity (Wegfall von Nullen in den Matrizen). Auch die Speicherkapazität ist mit 192 statt 288 GByte HBM3e geringer.
Allerdings ist die TPU v7 mit geschätzt 1000 statt 1400 Watt sparsamer. Dafür setzt Google auf den modernen 3-Nanometer-Fertigungsprozess N3P vom Chipauftragsfertiger TSMC, während Nvidia auf den verbesserten 5-nm-Prozess 4NP zurückgreift. Effizienz entwickelt sich zur wichtigsten Metrik, da alle Hyperscaler bei der Stromzufuhr zu ihren Rechenzentren limitiert sind. Zudem wollen sich Hyperscaler offensichtlich nicht von Nvidia als alleinigen Zulieferer abhängig machen.
(mma)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
