Künstliche Intelligenz
LXD 6.7 unterstützt AMD-GPUs und verbessert Cluster-Verwaltung
Canonical hat LXD 6.7 veröffentlicht: Die neue Version des Container- und VM-Managers erweitert den GPU-Support auf AMD-Hardware und bringt Verbesserungen für den Betrieb in Clustern.
Weiterlesen nach der Anzeige
Mit der neuen Version können Nutzer AMD-Grafikkarten an Container durchreichen. LXD unterstützt dazu das AMD Container Device Interface (CDI), das im Snap-Paket enthalten ist. Der Befehl lxc config device add bindet eine einzelne GPU ein, mit id=amd.com/gpu=all lassen sich alle verfügbaren AMD-Grafikkarten durchreichen. Das AMD CDI funktioniert analog zum bereits bekannten Nvidia Container Device Interface.
LXD 6.7 integriert QEMU 10.2 und die EDK2-Firmware 2025.02 – zuvor waren QEMU 8.2.2 und EDK2 2023.11 an Bord. Die aktualisierte Virtualisierungsschicht unterstützt dynamische MMIO-Window-Größen, was die Kompatibilität mit modernen Grafikkarten erhöht.
Für Prozessoren mit x86-64-v3-Befehlssatz können Admins nun optimierte Container-Images verwenden. Die als amd64v3 bezeichneten Varianten nutzen moderne CPU-Instruktionen wie AVX, AVX2, BMI1, BMI2 und FMA. Das steigert die Performance auf CPUs der letzten zehn Jahre, funktioniert aber nicht auf älteren Prozessoren. Ob ein System die Architekturvariante unterstützt, zeigt der Befehl ld.so --help | grep '\-v[0-9]' an.
Cluster-Recovery und Placement Groups
Für Cluster-Umgebungen führt LXD 6.7 einen Recovery-Mechanismus für Storage Pools ein. Die neue Option source.recover beim Erstellen von Storage Pools erlaubt es, existierende Pools zu scannen, ohne Daten zu modifizieren. Das erweitert das bereits vorhandene lxd recover-Kommando um Cluster-Funktionen und hilft beim Disaster Recovery.
Mit Placement Groups lässt sich die Verteilung von Instanzen in Clustern steuern. Die Funktion lässt sich auf zwei Wegen einsetzen: „spread“ verteilt Instanzen über verschiedene Cluster-Member (Hochverfügbarkeit), „compact“ gruppiert sie auf einem einzelnen Member (minimale Latenz). Admins können die Platzierung strikt erzwingen oder permissiv gestalten. Der Befehl lxc placement-group create my-pg policy=spread rigor=strict erzeugt eine solche Gruppe. Die LXD-Weboberfläche unterstützt die Konfiguration und Nutzung von Placement Groups.
Weiterlesen nach der Anzeige
Die API ermöglicht nun das erzwungene Löschen von Projekten und Instanzen – auch wenn diese noch laufen oder eingefroren sind. Der asynchrone DELETE-Befehl zeigt an, welche Entities betroffen sind. Diese Funktion ist nur vorwärtskompatibel.
Vereinfachter Zugang zur Weboberfläche
Der initiale Zugang zur LXD-Weboberfläche erfolgt nun über einen temporären Link mit Bearer-Token, der einen Tag gültig ist. Die Befehle lxd init oder lxd init --ui-initial-access-link generieren den Zugangslink. Nach dem ersten Login richtet man eine permanente Authentifizierung über Browser-Zertifikate mit Trust-Token oder über mTLS beziehungsweise OIDC ein. Browser warnen bei selbstsignierten Zertifikaten – was zumindest für lokale oder geschützte Installationen akzeptabel ist.
LXD 6.7 führt außerdem Bearer-Authentifizierung als neuen Identity-Typ ein. Der API-Endpoint /1.0/auth/identities/current zeigt für Bearer- und TLS-Identities das Ablaufdatum an. Die neue Authentifizierungsmethode orientiert sich an OAuth-Standards.
Bei der Abfrage des Instance-Status können Admins nun einzelne Felder abrufen. Der Parameter recursion in Kombination mit fields – etwa ?recursion=2;fields=state.disk – vermeidet teure Disk- oder Network-Abfragen und reduziert die Last auf dem System.
Die Weboberfläche hat diverse Verbesserungen erhalten: Konfiguration von Placement Groups, Netzwerkkonfiguration mit IP-Reservierung und ACLs, Cloud-init-Editor im Vollbildmodus, aussagekräftige Tooltipps für Cluster-Member und Netzwerke sowie eine Liste der Cluster-Member mit Speicherinformationen. Hinzu kommen lokale Peerings für OVN-Netzwerke, vereinheitlichte Fehlerbildschirme und die Option, Storage Volumes zwischen Cluster-Membern zu migrieren.
LXD 6.7 steht ab sofort im Snap-Kanal 6/candidate zur Verfügung und wird nächste Woche in 6/stable übernommen. Die Installation erfolgt mit snap install lxd --channel=6/stable. Unter macOS können Anwender brew install lxc nutzen, unter Windows choco install lxc. Weitere Details finden sich in der offiziellen Ankündigung.
(fo)
Künstliche Intelligenz
KI-Update Deep-Dive: Deutschlands Weg zur KI-Infrastruktur
Souveräne KI-Leistung aus dem Untergrund
Weiterlesen nach der Anzeige
Rechenzentren sind der Motor der aktuellen KI-Entwicklung, doch der Wettbewerb ist hart. Während US-Konzerne wie Amazon, Google, Meta und Microsoft zusammen rund 650 Milliarden Dollar in KI-Infrastruktur investieren wollen – eine Summe, die den deutschen Bundeshaushalt übersteigt – stellt sich die Frage, wie Deutschland in diesem Feld mithalten kann. Eine Antwort darauf soll der Bau heimischer Rechenzentren sein. Eines davon wurde in diesem Monat von der Telekom in München eröffnet. Christof Windeck, Redakteur beim c’t Magazin, war vor Ort und gibt in der neuen Folge des KI-Updates einen Einblick in die Pläne für den Standort Deutschland und die damit verbundenen Herausforderungen.
Die Telekom wirbt damit, dass Daten, die Kunden in dieser souveränen, deutschen KI-Cloud verarbeiten, vor dem Zugriff ausländischer Behörden geschützt seien. Das Rechenzentrum, das in Kooperation mit dem Chiphersteller Nvidia betrieben wird, soll im Endausbau mit rund 10.000 KI-Beschleunigern ausgestattet sein. Laut Telekom entspreche das dann „ungefähr 50 Prozent der gesamten KI-Rechenleistung, die derzeit in Deutschland verfügbar ist“, sagt Windeck. Das zeige jedoch vor allem, wie wenig öffentlich buchbare KI-Rechenleistung es in Deutschland bisher gibt.

Eine weitere Besonderheit ist der Standort. Das Rechenzentrum wurde in nur sechs Monaten in einem bestehenden, sechsstöckigen Keller eines ehemaligen Bankgebäudes im Münchner Tucherpark errichtet. Gekühlt wird es unter anderem mit Wasser aus dem nahegelegenen Eisbach, sagt Windeck. Ein Wehr staut den Eisbach, um das Kühlwasser für das unterirdische Rechenzentrum zu entnehmen, wobei gesetzliche Vorgaben zum Schutz der Umwelt eingehalten würden.
KI für die Industrie statt für den Massenmarkt
Die Telekom und Nvidia zielen mit dem Angebot nach eigener Aussage auf „Industrial AI“. Es gehe also nicht darum, große Sprachmodelle wie die von OpenAI zu entwickeln, sondern KI-Leistung für Industriepartner bereitzustellen. „Für diese europäischen oder auch deutschen Hersteller, die das mal nutzen sollen, kann eben auch diese digitale Souveränität sehr wichtig sein“, meint der c’t-Redakteur. Als möglicher Kunde war etwa Siemens bei der Eröffnung vertreten. Ein bereits konkretes Projekt ist die Initiative Soofi, die das Rechenzentrum für die Entwicklung eines souveränen europäischen Sprachmodells nutzen will. Dieses LLM soll europäischen Unternehmen als Basis für eigene KI-Anwendungen dienen. Im Vergleich zu anderen großen Sprachmodellen wie OpenAIs GPT-4 ist es aber deutlich kleiner mit nur einem Bruchteil der Parameter.
Ein zentrales Problem, das Windeck erklärt: „Es gibt einfach die Nachfrage in Europa überhaupt nicht.“ Viele deutsche Unternehmen seien noch zurückhaltend. Der Telekom-Vorstandsvorsitzende Tim Höttges habe bei der Eröffnung betont, man gehe bewusst „in Vorleistung“, um ein souveränes Angebot zu schaffen, nachdem sich viele Kunden über die Abhängigkeit von US-Anbietern beklagt hatten.
Weiterlesen nach der Anzeige
Das Rennen um die europäischen KI-Fördermittel
Laut Windecks Einschätzung verfolgt die Telekom mit dem schnellen Aufbau des Rechenzentrums auch ein strategisches Ziel: „Mit diesem Rechenzentrum bewirbt sich die Telekom natürlich“ um Fördermittel aus dem Programm der „European AI Gigafactories“, mit dem die EU den Aufbau von KI-Infrastruktur unterstützen will. „Mindestens eine muss nach Deutschland kommen“, zitiert Windeck den Telekom-Chef.
Im Vergleich zu anderen geplanten Projekten in Deutschland, wie dem der Schwarz-Gruppe (Lidl, Kaufland) im brandenburgischen Lübbenau mit 200 Megawatt, oder gar in den USA, wo von mehreren Gigawatt die Rede ist, sei das Münchner Rechenzentrum mit einer geplanten Leistung von bis zu 20 Megawatt eher klein. Zudem bauen auch die großen US-Anbieter wie Microsoft und Amazon ihre Kapazitäten in Deutschland massiv aus.
Das Konzept der „Industrial AI“ für spezialisierte Anwendungen im deutschen Mittelstand klingt zwar vielversprechend. Doch ob die Investitionen in die teure Infrastruktur sich am Ende auszahlen, ist ungewiss. Das grundlegende Problem fasst Christof Windeck zusammen: „Es bleibt eigentlich so, dass man nicht genau weiß, wer wie wirklich Geld damit verdienen kann, weil man noch nicht genau weiß, wer wie was tatsächlich dafür bezahlt.“ Solange erfolgreiche Anwendungsfälle und Geschäftsmodelle im Verborgenen bleiben, wird die Zukunft der souveränen KI-Infrastruktur in Deutschland ein Wettlauf mit vielen Unbekannten bleiben.
(igr)
Künstliche Intelligenz
VMware-Kosten: „1000 Prozent Druck – es könnte deinen Job kosten“
Die befürchtete Massenflucht von VMware-Kunden ist ausgeblieben. Laut einer aktuellen Umfrage von CloudBolt, die im Januar 2026 unter 302 IT-Entscheidern in nordamerikanischen Unternehmen mit mindestens 1000 Mitarbeitern durchgeführt wurde, haben bislang nur 4 Prozent ihre VMware-Infrastruktur vollständig abgelöst. Allerdings reduzieren 86 Prozent der Befragten aktiv ihren VMware-Einsatz – Broadcoms Übernahme und die damit verbundenen Änderungen haben also dennoch negative Auswirkungen.
Weiterlesen nach der Anzeige
Die Studie, die zwei Jahre nach der Broadcom-Übernahme eine Bestandsaufnahme vornimmt, offenbart eine klare Diskrepanz zwischen Erwartung und Realität. Während 2024 noch 73 Prozent der Befragten eine Kostenverdopplung oder mehr befürchteten, erlebten tatsächlich nur 14 Prozent Preissteigerungen von über 100 Prozent. Die Mehrheit (59 Prozent) verzeichnete Erhöhungen im Bereich von 25 bis 49 Prozent. Allerdings berichteten IT-Verantwortliche in Einzelfällen von extremen Steigerungen zwischen 350 und 700 Prozent.
Besonders deutlich werden die Auswirkungen bei europäischen Cloud-Anbietern. Zum Beispiel hat der EU-Cloudverband CISPE Preissteigerungen von 800 bis 1500 Prozent dokumentiert. Broadcom hatte nach der Akquisition die Lizenzpolitik grundlegend umgestellt: Perpetual Licenses wurden abgeschafft, stattdessen gibt es nur noch Subscription-Modelle mit gebündelten Produkten und Core-basierter Abrechnung.
Langsame Migration statt schneller Exodus
Die Gründe für den ausbleibenden Massenexodus sind vielfältig. 25 Prozent der Befragten nennen die Komplexität und das Risiko einer Migration als Haupthindernis, 23 Prozent verweisen auf unerwartet hohe Kosten. Weitere 21 Prozent stoßen auf technische Limitierungen. Die typische Dauer für das Auflösen von Abhängigkeiten wird mit 18 bis 24 Monaten angegeben. Beispielhaft zitiert die Studie einen IT-Leiter mit den Worten: „Der Prozess, ein Jahrzehnt an Prozessabhängigkeiten aufzulösen, dauert 18 bis 24 Monate.“
Von den Unternehmen, die Workloads migriert haben, wechselten 72 Prozent zu Public-Cloud-IaaS-Angeboten. Hyper-V und Azure Stack kamen auf 43 Prozent, SaaS-Lösungen auf 34 Prozent. Als Alternativen zu VMware werden vor allem Nutanix AHV, Proxmox VE, Red Hat OpenShift Virtualization (KVM), Harvester von SUSE und OpenStack genannt. Bemerkenswert: 63 Prozent der Befragten haben ihre VMware-Strategie seit der Akquisition mindestens zweimal geändert.
Vertrauen steigt trotz Störungen
Ebenfalls bemerkenswert: 60 Prozent der Befragten berichten von einem höheren Vertrauen in ihre VMware-Strategie im Vergleich zu 2024. Die Studie interpretiert das als Übergang von Panik zu pragmatischer Ausführung – eine Art Akzeptanzphase nach anfänglichem Schock. Während 2024 noch 46 Prozent die Broadcom-Übernahme als extrem oder sehr störend empfanden, sind es 2026 nur noch 25 Prozent.
Weiterlesen nach der Anzeige
Allerdings hat sich der Druck aus der Führungsetage erhöht: 41 Prozent berichten von gestiegenem Engagement von CEO und CFO in VMware-Entscheidungen. Die Virtualisierungsstrategie ist damit zum Board-Level-Thema geworden. Ein IT-Verantwortlicher beschrieb den Druck drastisch: „1000 Prozent Druck – es könnte deinen Job kosten.“
Broadcom-Strategie setzt auf Squeeze
Die Studie kommt zu dem Schluss, dass Broadcom bewusst mit Kundenabwanderung kalkuliert und stattdessen die Margen bei den verbleibenden Kunden maximiert. 85 Prozent der Befragten erwarten weitere Preiserhöhungen. Der langsame Exodus führt zu einem „Squeeze“: Da die Kundenbasis schrumpft, werden die Preise für die Verbleibenden weiter steigen. Gartner prognostiziert einen Rückgang des VMware-Marktanteils von rund 70 Prozent (2024) auf etwa 40 Prozent (2029).
Neue Herausforderungen entstehen durch die zunehmende Multi-Plattform-Komplexität: 52 Prozent der Befragten sehen darin ein Problem, 33 Prozent beklagen fehlendes Know-how in ihren Teams. Gleichzeitig berichten 65 Prozent von einem verbesserten Risikoprofil durch die Diversifizierung ihrer Infrastruktur. Details zu allen erhobenen Daten finden sich bei CloudBolt.
(fo)
Künstliche Intelligenz
SAP-Chef Klein verdient mehr als 16 Millionen Euro
Insbesondere die langfristig gute Entwicklung des Aktienkurses hat SAP-Chef Christian Klein erneut ein sattes Gehalt eingebracht. Er verdiente im vergangenen Jahr gut 16,2 Millionen Euro, wie aus dem Vergütungsbericht von Europas größtem Softwarekonzern hervorgeht. Rund 90 Prozent der Summe gehen auf erfolgsabhängige Boni zurück.
Weiterlesen nach der Anzeige
Im Vergleich zum Vorjahr fällt die Vergütung des Top-Managers aber geringer aus: 2024 hatte Klein fast 19 Millionen Euro verdient – und war dadurch zum Spitzenverdiener unter den Dax-Vorstandschefs aufgestiegen. Bereits damals hatte vor allem der Anstieg des Aktienkurses den Wert der Anteile in die Höhe getrieben, die der Aufsichtsrat den Managern als langfristigen Bonus gewährt. Zum Vergleich: 2023 hatte Klein noch rund 7,2 Millionen Euro erhalten.
Der 45-Jährige dürfte weiterhin zu den bestbezahlten Managern in Deutschland gehören. In diesem Jahr stehen noch einige Vergütungsberichte der 40 größten börsennotierten Unternehmen aus. Eine Rangliste wird es erst in den nächsten Wochen geben.
32,7 Millionen Euro für gesamten Vorstand
Die Vorstände bei SAP werden nach einem komplexen System bezahlt: Im Wesentlichen setzen sich ihre Bezüge aus einer Festvergütung sowie kurz- und langfristigen Bonuszahlungen zusammen. Die Boni machen den größten Teil des Gehalts aus und sind unter anderem vom Erreichen bestimmter Vorgaben abhängig. Der gesamte Vorstand verdiente 2025 etwas weniger, nämlich gut 32,7 Millionen Euro. Ein Jahr zuvor waren es rund 34,6 Millionen Euro.
2025 stieg der Umsatz des Konzerns dank des starken Plus bei Cloudsoftware um acht Prozent auf 36,8 Milliarden Euro. Unter dem Strich wuchs der Gewinn auf 7,5 Milliarden Euro – mehr als doppelt so viel wie ein Jahr zuvor.
Dennoch litt die SAP-Aktie zuletzt unter der Sorge, dass das Geschäftsmodell der Walldorfer durch KI zunehmend gefährdet sein könnte. Seit seinem Hoch vor einem Jahr hat das Papier deutlich mehr als 40 Prozent an Wert verloren. Auf längere Sicht ist die Entwicklung jedoch weiterhin positiv.
Weiterlesen nach der Anzeige
(axk)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
