Connect with us

Künstliche Intelligenz

Endpoint-Management: „Operativ hilft es nicht, in Alarmismus zu verfallen“


Die Andreas Stihl AG & Co KG aus Waiblingen-Neustadt in der Metropolregion Stuttgart ist für ihre Motorsägen weltbekannt – und gilt bereits seit über 50 Jahren als Marktführer. Wie funktioniert die IT bei einem Unternehmen, das weltweit über 20.000 Mitarbeiter hat? Im Gespräch mit heise online gibt Jürgen Sitzler, der für Plattformsysteme zuständige Manager des großen Mittelständlers, Einblick in seine Arbeit.

Weiterlesen nach der Anzeige

heise online: Herr Sitzler, welche Aufgaben verantworten Sie bei Stihl?

Sitzler: Ich bin Manager Plattformsysteme. In meinem Team bündeln wir im Kern das, was man klassisch als Endpoint-Management für Windows versteht: die Plattformen für Windows-Clients und Windows-Server, inklusive Softwareverwaltung und Softwareverteilung als Standardsystem. Darüber hinaus liegen auch angrenzende Plattformthemen bei uns, etwa Intune als MDM-Komponente sowie Virtualisierung und Applikationsbereitstellung mit VMware und Citrix. Es geht dabei nicht nur um den Betrieb einzelner Tools, sondern vor allem um stabile, nachvollziehbare Prozesse: Standardisierung, Rollout, Lifecycle-Management, Patchen, Inventarisierung und die Fähigkeit, im Störungs- oder Sicherheitsfall schnell belastbare Aussagen treffen zu können.

heise online: In welchen Dimensionen bewegen Sie sich dabei?

Sitzler: Insgesamt sprechen wir über rund 25.000 Endpunkte. Je nachdem, wie man mobile Clients mitrechnet, kann das in der Praxis auch darüber liegen. Auf der klassischen Client-Seite haben wir ungefähr 17.000 Windows-Geräte. Macs spielen bei uns eine deutlich kleinere Rolle; wir liegen da bei etwa 50 MacBooks. Das allein macht den Schwerpunkt klar: Die Prozesse und das Tooling sind sehr stark auf Windows ausgerichtet, weil die Masse der Arbeitsplätze und viele Fachanwendungen dort verankert sind.


Jürgen Sitzler

Jürgen Sitzler

Jürgen Sitzler von Stihl

(Bild: privat)

heise online: Viele Unternehmen sprechen derzeit über den Konflikt zwischen Operational Technology, also der Datenverarbeitung produzierender Systeme, und der restlichen IT. Ist das bei Ihnen ebenfalls ein Thema?

Sitzler: Ja, das ist bei uns sehr konkret. Wir arbeiten derzeit in einem Projekt daran, OT und IT stärker zu trennen. Historisch ist das oft zusammengewachsen; in der Realität ist das dann nicht selten ein gemeinsamer Verbund mit zu vielen Übergängen. Aus Security-Sicht ist diese klare Segmentierung ein wichtiger Schritt. Gleichzeitig ist es ein anspruchsvolles Vorhaben, weil Produktionsumgebungen eine andere Stabilitätsanforderung und häufig auch andere Update- und Wartungsfenster haben als klassische Office-IT.

Weiterlesen nach der Anzeige

heise online: Sie kommen aus der Ivanti-DSM-Welt. Warum ist das jetzt in Bewegung?

Sitzler: Wir nutzen aktuell noch Ivanti DSM in zentralen Teilen unserer Softwareverteilung und -verwaltung. Der wesentliche Treiber ist: DSM ist zum 31.12.2026 abgekündigt. Es gibt zwar ein Nachfolgesystem, aber aus unserer Sicht ist es derzeit funktional noch nicht auf dem Niveau, das für eine große Umgebung erforderlich ist. In der Folge sehen wir, dass viele DSM-Kunden den Markt neu bewerten. Auch wir prüfen, wie wir langfristig eine moderne, tragfähige Plattform aufstellen, die sowohl Client- als auch Server-Anforderungen abdeckt.

heise online: Welche Erwartungen haben Sie an ein Nachfolgesystem?

Sitzler: Entscheidend ist für uns die durchgängige Abdeckung: Server und Clients dürfen nicht in getrennten Welten landen, mit unterschiedlichen Datenmodellen, unterschiedlichen Agenten oder unterschiedlichen Betriebslogiken. Zusätzlich müssen Inventar, Konfigurationszustand, Compliance und Verteilung verlässlich skalieren. Es reicht nicht, dass etwas „irgendwie“ funktioniert; bei der Größenordnung müssen Aussagen reproduzierbar, Reports belastbar und Änderungen sauber steuerbar sein. Und nicht zuletzt ist die Geschwindigkeit relevant: Wie schnell sieht man den tatsächlichen Zustand im Feld, und wie schnell lassen sich Maßnahmen umsetzen?

heise online: Microsoft ist bei vielen Unternehmen gesetzt. Warum reicht das nicht?

Sitzler: Microsoft ist als strategischer Partner natürlich präsent, und auf der Client-Seite gibt es moderne Ansätze. In Gesprächen wird dann für Server-Themen jedoch häufig auf klassische Werkzeuge verwiesen, insbesondere SCCM, also der Microsoft Endpoint Configuration Manager. Für uns war das kein überzeugender Weg, weil wir eine zukunftsfähige Plattform suchen, die sich in den operativen Alltag gut einfügt und den heutigen Anforderungen entspricht. Unsere Ausgangslage war, dass wir bereits ein leistungsfähiges System hatten. Wenn man ablöst, sollte das Zielbild mindestens gleichwertig sein, in wichtigen Punkten besser, und langfristig tragfähig.

heise online: Wir sprechen mit einander auf Taniums Hausmesse Converge. Wie ist Stihl zu Tanium gekommen?

Sitzler: Tanium war in unserem Partner- und Marktkontext präsent, und wir haben die Lösung in der Evaluation konkreter betrachtet. Der zentrale Punkt war der Realtime-Ansatz. Viele Werkzeuge arbeiten stark datenbankgetrieben: Endpunkte melden in festen Intervallen, Daten werden gesammelt, verarbeitet und stehen dann im Reporting zur Verfügung. Das ist für viele Zwecke ausreichend, aber es hat einen Haken: Die Daten sind zum Zeitpunkt der Betrachtung häufig bereits veraltet. In ruhigen Zeiten ist das tolerierbar, aber in kritischen Situationen möchte man nicht mit dem Gefühl arbeiten, dass die letzten verlässlichen Informationen „vor fünf Minuten“ oder „vor einer Stunde“ waren.

heise online: Was bedeutet „Realtime“ für Ihren Alltag?

Sitzler: Realtime bedeutet nicht, dass jede Entscheidung automatisiert ist, sondern dass Abfragen und Sichtbarkeit näher an der Wirklichkeit liegen. In der Praxis heißt das: Wenn ich wissen muss, ob eine bestimmte Schwachstelle, ein bestimmtes Softwarepaket oder ein bestimmter Konfigurationszustand tatsächlich auf den Geräten vorhanden ist, möchte ich eine Antwort, die nicht primär eine historische Momentaufnahme aus einer Datenbank ist. Gerade im Sicherheitskontext ist das ein Unterschied.

Angriffe werden professioneller und schneller, und damit steigt der Wert aktueller Telemetrie. Außerdem ist auch die Bedienlogik relevant: Statt starre Reports zu bauen, kann man sich über gezielte Fragen schrittweise an eine Antwort herantasten. Diese Form des Arbeitens ist für viele Use Cases effizienter, weil sie den realen Diagnoseprozess besser abbildet.

heise online: Sie sind seit vielen Jahren bei Stihl. Wie hat sich das Thema Softwareverteilung historisch entwickelt?

Sitzler: Ich bin seit 2001 im Unternehmen. Interessant ist, dass es bei uns tatsächlich eine Historie gibt, die bis in frühe Softwareverteilungsansätze zurückreicht. Ein sehr frühes Produkt, das damals „NetInstall“ hieß, ist im Umfeld Stihls entstanden. Über verschiedene Stationen und Zusammenschlüsse ist das letztlich in der Produktlinie gelandet, die später als DSM bei Ivanti geführt wurde. Man könnte sagen: Das Thema ist bei uns seit langem präsent, und die Ablösung ist daher nicht nur eine Toolfrage, sondern auch eine Frage eingespielter Prozesse.

heise online: Welche Security-Werkzeuge sind bei Ihnen im Einsatz?

Sitzler: Wir arbeiten mit Microsoft Defender und CrowdStrike. Wichtig ist dabei weniger das Label des Produkts, sondern dass Abdeckung, Betrieb und Lizenzmodell zur Realität der unterschiedlichen Systemklassen passen.

heise online: Wie steuern Sie die Verwaltung von Macs und mobilen Endgeräten?

Sitzler: Macs verwalten wir über Intune. Allerdings muss man realistisch sagen: Bei uns ist macOS eine Ausnahme, weil viele Arbeitsprozesse, Vorlagen und Automatisierungen sehr stark auf Windows und Microsoft-Ökosysteme ausgerichtet sind. Bei mobilen Endgeräten setzen wir strategisch auf iOS und iPadOS und verwalten diese ebenfalls über Intune. Android gibt es bei uns vor allem im Shopfloor-Umfeld. Dort nutzen wir Soti, weil es im jeweiligen Anwendungsfall oft kostenseitig und organisatorisch besser passt, Geräte statt Benutzer zu registrieren und zu verwalten.

heise online: Wie wichtig ist aus Ihrer Sicht Security-Awareness?

Sitzler: Awareness ist wichtig, aber es ist kein Zustand, den man einmal erreicht und dann „abhakt“. Es braucht Wiederholung, Training und auch überprüfbare Formate, etwa Kampagnen und Tests. Gleichzeitig muss man die Realität im Unternehmen berücksichtigen: Mitarbeitende haben unterschiedliche Rollen, unterschiedliche digitale Vorerfahrung und vor allem einen klaren Arbeitsauftrag. Sicherheit steht oft im Spannungsfeld zur Nutzbarkeit. Deshalb ist aus meiner Sicht entscheidend, wirksame Maßnahmen so umzusetzen, dass sie den Betrieb möglichst wenig behindern. Ein Beispiel ist Patchen: Eine kurze Zielvorgabe, etwa innerhalb weniger Tage, ist sinnvoll. Gleichzeitig kann man den Zeitpunkt eines Neustarts in vielen Fällen flexibel halten, damit Arbeitsabläufe nicht unnötig gestört werden.

heise online: Wie sieht Ihre operative Sicherheitsorganisation im Hintergrund aus?

Sitzler: Es gibt eine eigene Cyber Security Abteilung. Diese stellt neben der entsprechenden Governance ebenfalls Services wie Threat Intelligence & Posture Management, Cyber Defense und Security Architecture. Außerdem werden hier Maßnahmen zur weiteren Stärkung der Security Culture umgesetzt und mit regelmäßigen Trainings untermauert.

Zur Sicherstellung der Wirksamkeit unserer Bemühungen sind regelmäßige externe Auditierung (beispielsweise Red-Team-Assessment und PenTests) vorgesehen, da die interne Wahrnehmung von der Realität abweichen kann.

heise online: Wie bewerten Sie die aktuelle Bedrohungslage?

Sitzler: Sie ist aus meiner Sicht deutlich ernster geworden. Operativ hilft es nicht, in Alarmismus zu verfallen, aber man muss das Thema mit großem Respekt behandeln. Durch Large Language Models sinkt die Einstiegshürde für das Erstellen von Code erheblich. Früher scheiterte manches daran, dass Angreifende Skripte zumindest verstehen und anpassen mussten. Heute kann das durch generative Systeme deutlich schneller gehen. Wenn Angriffe stärker KI-gestützt stattfinden, wird die Verteidigung ebenfalls stärker KI-gestützt sein müssen, allein um Geschwindigkeit und Skalierung halten zu können.

Das Interview wurde auf der Tanium Converge 2025 geführt. Der Autor reiste auf Einladung von Tanium.


(bsc)



Source link

Künstliche Intelligenz

SAP-Chef Klein verdient mehr als 16 Millionen Euro


Insbesondere die langfristig gute Entwicklung des Aktienkurses hat SAP-Chef Christian Klein erneut ein sattes Gehalt eingebracht. Er verdiente im vergangenen Jahr gut 16,2 Millionen Euro, wie aus dem Vergütungsbericht von Europas größtem Softwarekonzern hervorgeht. Rund 90 Prozent der Summe gehen auf erfolgsabhängige Boni zurück.

Weiterlesen nach der Anzeige

Im Vergleich zum Vorjahr fällt die Vergütung des Top-Managers aber geringer aus: 2024 hatte Klein fast 19 Millionen Euro verdient – und war dadurch zum Spitzenverdiener unter den Dax-Vorstandschefs aufgestiegen. Bereits damals hatte vor allem der Anstieg des Aktienkurses den Wert der Anteile in die Höhe getrieben, die der Aufsichtsrat den Managern als langfristigen Bonus gewährt. Zum Vergleich: 2023 hatte Klein noch rund 7,2 Millionen Euro erhalten.

Der 45-Jährige dürfte weiterhin zu den bestbezahlten Managern in Deutschland gehören. In diesem Jahr stehen noch einige Vergütungsberichte der 40 größten börsennotierten Unternehmen aus. Eine Rangliste wird es erst in den nächsten Wochen geben.

Die Vorstände bei SAP werden nach einem komplexen System bezahlt: Im Wesentlichen setzen sich ihre Bezüge aus einer Festvergütung sowie kurz- und langfristigen Bonuszahlungen zusammen. Die Boni machen den größten Teil des Gehalts aus und sind unter anderem vom Erreichen bestimmter Vorgaben abhängig. Der gesamte Vorstand verdiente 2025 etwas weniger, nämlich gut 32,7 Millionen Euro. Ein Jahr zuvor waren es rund 34,6 Millionen Euro.

2025 stieg der Umsatz des Konzerns dank des starken Plus bei Cloudsoftware um acht Prozent auf 36,8 Milliarden Euro. Unter dem Strich wuchs der Gewinn auf 7,5 Milliarden Euro – mehr als doppelt so viel wie ein Jahr zuvor.

Dennoch litt die SAP-Aktie zuletzt unter der Sorge, dass das Geschäftsmodell der Walldorfer durch KI zunehmend gefährdet sein könnte. Seit seinem Hoch vor einem Jahr hat das Papier deutlich mehr als 40 Prozent an Wert verloren. Auf längere Sicht ist die Entwicklung jedoch weiterhin positiv.

Weiterlesen nach der Anzeige


(axk)



Source link

Weiterlesen

Künstliche Intelligenz

Lego Smart Bricks ausprobiert: Cool für Kids, für Nerds nix


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Sie machen Geräusche, sie blinken und sie reagieren. Die neuen smarten Legosteine machen Kindern super viel Spaß. Denn in der Regel reicht ein einfaches Bling-Bling und Peng-Peng, um die Fantasie anzuregen und ins Spielen zu kommen.

Weiterlesen nach der Anzeige

Einige erwachsene Lego-Fans hingegen sind enttäuscht. Erwartungen an super smarte Steine mit tausend Funktionen erfüllen die Smart Bricks nicht. Die Star-Wars-Sets, die als erste mit den Steinen auf den Markt kommen, entsprechen auch nicht den Sammler-Modellen, die man sich stolz ins Regal stellt. Sie sind Spielzeug. Vielleicht mit ein bisschen Luft nach oben, aber mit großem Potenzial.

Obwohl die offizielle Altersempfehlung bei sechs Jahren beginnt, sind wir mit unserer vierjährigen Tochter bei der Deutschland-Vorstellung von Legos Smart Play in Berlin. Die Tochter ist gerade eh frisch und tief ins Legobauen eingestiegen. Star Wars ist zwar bisher nicht ihre Welt gewesen, das hat sich nun wohl geändert. Storm-Trooper High-Five!


Lukes Landspeeder

Lukes Landspeeder

Lukes Landspeeder

(Bild: Eva-Maria Weiß / heise medien)

Um mit den Sets zu spielen, bedarf es tatsächlich auch keiner Vorkenntnisse. Eine kurze Anleitung: Steine schütteln, um sie aufzuwecken, Steine auf Stellen setzen, an denen kleine rote Platten sitzen, los geht es. Die Plättchen sind Smart Tags, in ihnen steckt die Information, die von den großen Smart Bricks ausgelesen und umgesetzt wird. Peng Peng. Quirl. Piep. Rot, Grün, Gelb, Blau. Die Steine können Geräusche machen, in Farben blinken, sie erkennen Abstände und Positionen. Vier Jahre ist definitiv bereits ein passendes Alter, um einzusteigen.

Für besonders viel Spaß sorgt bei der Vierjährigen das Duell im Thronsaal. Darth Vader und Luke Skywalker bekämpfen sich als Minifiguren – dafür bewegt man einen Stab, an dem vorn ein Podest sitzt, auf dem wiederum die Minifigur steckt. Wer zuerst fällt, verliert. Dabei machen die Laserschwerter Geräusche. Ein Manko, das auch mir nicht einleuchtet: Die Geräusche klingen ein bisschen anders als die in den Filmen. Lego sagt Absicht. Warum auch immer. Uns stört es nicht.

Weiterlesen nach der Anzeige

Cool findet die Tochter auch Prinzessin Leia, die mit einem Computer redet – aus dem Set mit Lukes X-Wing. Reden heißt hier mehr so ein Nuscheln, aber auch das reicht völlig aus und lässt Platz für Fantasie, was Leia wohl hört, sagt und am Computer macht.


Lukes X-Wing kommt mit Prinzessin Leia.

Lukes X-Wing kommt mit Prinzessin Leia.

Lukes X-Wing kommt mit Prinzessin Leia.

(Bild: Eva-Maria Weiß / heise medien)

Musikanten sowie ein Quirl im Mos-Eisley-Cantina-Bausatz stoßen ebenfalls auf viel Liebe. Um die Zutaten in der Schüssel ordentlich durchzurühren, muss man einen Hebel hin und her bewegen – wirklich schnell. Das Mixergeräusch entspricht der Geschwindigkeit. Das ist kein Wow-Moment voller Überraschung und es löst auch kein ungläubiges Staunen aus, aber es macht Kindern halt Spaß. Zumindest die anwesenden Kinder sind sichtlich begeistert.


Der Mixer in Mos Eisley Cantina.

Der Mixer in Mos Eisley Cantina.

Der Mixer in Mos Eisley Cantina.

(Bild: Eva-Maria Weiß / heise medien)

Das Event findet am Potsdamer Platz statt, dort ist auch das „Lego Discovery Center“. Passenderweise haben Erwachsene zu dem Indoor-Spielplatz nur Zutritt, wenn sie mit einem Kind kommen. Spielzeug. Da war ja was.

In einem überdimensionalen, aber maßstabsgetreuen schwarzen Stein mit durchsichtiger Platte obendrauf gibt es einen Einführungsfilm zur Funktionsweise der Smart Bricks. Lego hatte sie ursprünglich bei der CES in Las Vegas vorgestellt.

Am Eröffnungstag in Berlin sind auch ein Designer und verantwortlichen Manager vor Ort. Mehr als 1000 Leute umfasst das Team, das sich seit mehr als acht Jahren um die Entwicklung bis zum Vertrieb kümmert. Wie viele Menschen konkret das Entwicklerteam umfasst, weiß Jake Blais nicht, Senior-Marketing- und Strategie-Manager der Lego-Gruppe. Es habe auch einige Iterationen in den Jahren gegeben.


Jake Blais, Lego Manager

Jake Blais, Lego Manager

Jake Blais, Lego Manager

(Bild: Eva-Maria Weiß / heise medien)

Auf die Frage nach der Zielgruppe sagt Blais nochmal ganz konkret, dass die Sets zum Spielen anregen sollen und es manchmal eben genau gar nicht so viel brauche, um kreativ zu werden. Er findet, dass die Designentscheidungen absolut richtig getroffen wurden; gerade das A-Wing-Modell habe es ihm angetan. „Ein super cooles Design, obwohl die Modelle zum Spielen für Sechs- bis Achtjährige gedacht sind.“ Dazu gehöre, dass mal was auseinanderbrechen dürfe und Kinder es einfach wieder zusammensetzen können – und weiterspielen. Ohne großen Aufwand.

Spielen bedeutet auch, dass Kratzer ins Plastik kommen und vielleicht sogar mal ein Teil verschwindet. Das ist bei den Preisen ein bisschen übel. Das günstigste Set kostet ab 70 Euro für Darth Vaders TIE-Fighter. Dazu gehören ein Smart Brick, ein Smart Tag, die Aufladestation, der Fighter, der geräuschvoll schießen und sich bewegen kann, eine Tankstelle, zwei Minifiguren, von denen Darth Vader smart ist und reden kann, sowie eine Geschützanlage der Rebellen. Das Duell im Thronsaal kostet dann schon 160 Euro. Lego ist bisher nicht dafür bekannt gewesen, günstig zu sein. Man bekommt einiges in den Sets. Aber es ist echt ne Menge Geld.

In Zukunft sollen auch ganz andere Sets erscheinen. Mit denen lässt sich etwa ein Entenrennen machen: Wer ist am nächsten dran am Zielstein? Beim Sieger wird der Stein grün, beim Verlierer rot. Auch das ist ein bisschen Pillepalle und genau deshalb total die lustige Idee. Von Duplo gibt es eine Eisenbahn mit Action Bricks. Setzt man einen solchen auf die Schiene, macht der Zug beim Drüberfahren ein Geräusch. Ein anderer Stein stoppt die Fahrt. Das Smart Play scheint daran anzuknüpfen.

Lego hat sich entschieden, mit Smart Play ein simples System anzubieten. Simpel bedeutet, es bedarf keiner App, keines Bildschirms, keiner Verbindung, um die Smart Bricks nutzen zu können. Es gibt ein Ladegerät, auf das man die Steine einfach drauflegt, und das war’s. Und das ist einfach total gut so. Wer einen Tiptoi-Stift besitzt oder eine Toniebox, weiß, wie es ist, wenn das Kind Buch oder Figur bekommt, dann aber Mama und Papa erst mal den entsprechenden Inhalt herunterladen müssen. Oft genug hakt es, es kann nicht losgehen und es nervt. Von den Daten, die man preisgibt, noch gar nicht zu sprechen. Eine App für die Smart Bricks gibt es dennoch, etwa für Updates – aber sie ist kein ständiger Begleiter. Die Einfachheit der Steine erscheint mir wirklich ein ganz großer Vorteil zu sein.


Die Smart Bricks erkennen die Bewegung und machen Schießgeräusche.

Die Smart Bricks erkennen die Bewegung und machen Schießgeräusche.

Die Smart Bricks erkennen die Bewegung und machen Schießgeräusche.

(Bild: Eva-Maria Weiß / heise medien)

Freilich ist das, was im Stein steckt, absolut nicht simpel. 25 Patente hat Lego angemeldet. Ganz so simpel wie das Spiel ist auch der Aufbau nicht. Da werden Mama und Papa der Vierjährigen helfen müssen – oder eher helfen dürfen.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

LXD 6.7 unterstützt AMD-GPUs und verbessert Cluster-Verwaltung


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Canonical hat LXD 6.7 veröffentlicht: Die neue Version des Container- und VM-Managers erweitert den GPU-Support auf AMD-Hardware und bringt Verbesserungen für den Betrieb in Clustern.

Weiterlesen nach der Anzeige

Mit der neuen Version können Nutzer AMD-Grafikkarten an Container durchreichen. LXD unterstützt dazu das AMD Container Device Interface (CDI), das im Snap-Paket enthalten ist. Der Befehl lxc config device add gpu gputype=physical id=amd.com/gpu=0 bindet eine einzelne GPU ein, mit id=amd.com/gpu=all lassen sich alle verfügbaren AMD-Grafikkarten durchreichen. Das AMD CDI funktioniert analog zum bereits bekannten Nvidia Container Device Interface.

LXD 6.7 integriert QEMU 10.2 und die EDK2-Firmware 2025.02 – zuvor waren QEMU 8.2.2 und EDK2 2023.11 an Bord. Die aktualisierte Virtualisierungsschicht unterstützt dynamische MMIO-Window-Größen, was die Kompatibilität mit modernen Grafikkarten erhöht.

Für Prozessoren mit x86-64-v3-Befehlssatz können Admins nun optimierte Container-Images verwenden. Die als amd64v3 bezeichneten Varianten nutzen moderne CPU-Instruktionen wie AVX, AVX2, BMI1, BMI2 und FMA. Das steigert die Performance auf CPUs der letzten zehn Jahre, funktioniert aber nicht auf älteren Prozessoren. Ob ein System die Architekturvariante unterstützt, zeigt der Befehl ld.so --help | grep '\-v[0-9]' an.

Für Cluster-Umgebungen führt LXD 6.7 einen Recovery-Mechanismus für Storage Pools ein. Die neue Option source.recover beim Erstellen von Storage Pools erlaubt es, existierende Pools zu scannen, ohne Daten zu modifizieren. Das erweitert das bereits vorhandene lxd recover-Kommando um Cluster-Funktionen und hilft beim Disaster Recovery.

Mit Placement Groups lässt sich die Verteilung von Instanzen in Clustern steuern. Die Funktion lässt sich auf zwei Wegen einsetzen: „spread“ verteilt Instanzen über verschiedene Cluster-Member (Hochverfügbarkeit), „compact“ gruppiert sie auf einem einzelnen Member (minimale Latenz). Admins können die Platzierung strikt erzwingen oder permissiv gestalten. Der Befehl lxc placement-group create my-pg policy=spread rigor=strict erzeugt eine solche Gruppe. Die LXD-Weboberfläche unterstützt die Konfiguration und Nutzung von Placement Groups.

Weiterlesen nach der Anzeige

Die API ermöglicht nun das erzwungene Löschen von Projekten und Instanzen – auch wenn diese noch laufen oder eingefroren sind. Der asynchrone DELETE-Befehl zeigt an, welche Entities betroffen sind. Diese Funktion ist nur vorwärtskompatibel.

Der initiale Zugang zur LXD-Weboberfläche erfolgt nun über einen temporären Link mit Bearer-Token, der einen Tag gültig ist. Die Befehle lxd init oder lxd init --ui-initial-access-link generieren den Zugangslink. Nach dem ersten Login richtet man eine permanente Authentifizierung über Browser-Zertifikate mit Trust-Token oder über mTLS beziehungsweise OIDC ein. Browser warnen bei selbstsignierten Zertifikaten – was zumindest für lokale oder geschützte Installationen akzeptabel ist.

LXD 6.7 führt außerdem Bearer-Authentifizierung als neuen Identity-Typ ein. Der API-Endpoint /1.0/auth/identities/current zeigt für Bearer- und TLS-Identities das Ablaufdatum an. Die neue Authentifizierungsmethode orientiert sich an OAuth-Standards.

Bei der Abfrage des Instance-Status können Admins nun einzelne Felder abrufen. Der Parameter recursion in Kombination mit fields – etwa ?recursion=2;fields=state.disk – vermeidet teure Disk- oder Network-Abfragen und reduziert die Last auf dem System.

Die Weboberfläche hat diverse Verbesserungen erhalten: Konfiguration von Placement Groups, Netzwerkkonfiguration mit IP-Reservierung und ACLs, Cloud-init-Editor im Vollbildmodus, aussagekräftige Tooltipps für Cluster-Member und Netzwerke sowie eine Liste der Cluster-Member mit Speicherinformationen. Hinzu kommen lokale Peerings für OVN-Netzwerke, vereinheitlichte Fehlerbildschirme und die Option, Storage Volumes zwischen Cluster-Membern zu migrieren.

LXD 6.7 steht ab sofort im Snap-Kanal 6/candidate zur Verfügung und wird nächste Woche in 6/stable übernommen. Die Installation erfolgt mit snap install lxd --channel=6/stable. Unter macOS können Anwender brew install lxc nutzen, unter Windows choco install lxc. Weitere Details finden sich in der offiziellen Ankündigung.


(fo)



Source link

Weiterlesen

Beliebt