Künstliche Intelligenz
Meta Platforms bestätigt Abkehr vom Metaverse und Spielen mit Virtual Reality
Diesen Dienstag rollt die Kündigungswelle bei Reality Labs, der Metaverse-Abteilung Meta Platforms’. Diese Abteilung sollte den vormals als Facebook bekannten Datenkonzern in die Zukunft führen, zu den echten Pfründen in der virtuellen Realitäten. 100 Milliarden Dollar später wird jetzt umgeschichtet: Der Konzern setzt auf KI, die Abteilung auf am Körper getragene Geräte, vulgo Wearables.
Weiterlesen nach der Anzeige
Das hat Meta Platforms am Dienstag bestätigt. Über 1.000 Mitarbeiter werden bei den Reality Labs gegangen. Investitionen in virtuelle Realität (VR) werden zurückgefahren, um die Sache „nachhaltig” zu gestalten, wie Meta-Technikchef Andrew Bosworth laut Bloomberg in einem internen Rundschreiben festhält.
Ein weiteres Rundschreiben verlautbart demnach, dass er drei konzerneigene Computerspielestudios schließt, die Computerspiele in die VR gehievt haben: Armature (bekannt für die VR-Version von Resident Evil 4), Sanzaru (zum Beispiel Asgard’s Wrath, Marvel Powers United) und Twisted Pixel (unter anderem Deadpool VR und Defector). Zudem wird die für hunderte Millionen US-Dollar erworbene Fitness-App Supernatural auf Lebenserhaltung umgestellt: Der VR-Dienst soll vorerst weiterlaufen, aber neue Inhalte oder Leistungsmerkmale wird es nicht geben.
Das Metaverse ist tot, lang lebe das Metaverse
Am Metaverse selbst will Bosworth festhalten, zumindest dem Namen nach. Er möchte, dass es in Hinkunft auf Mobiltelefonen reüssiert. Verständlich, haben die voluminösen VR-Brillen doch ihren Massenmarkt nie gefunden. Doch was das Metaverse ohne VR ist, bleibt offen.
An Brillen hält der Manager fest – allerdings mit KI und Augmented Reality anstatt Virtual Reality. Die Ray-Ban-Sonnenbrillen mit Kamera und KI-Assistent verkaufen sich, also soll deren Produktion vervielfacht werden. Sie sind einer Kooperation Metas mit dem europäischen Brillenhersteller EssilorLuxottica entsprungen.
(ds)
Künstliche Intelligenz
Zurechtfinden in Windows 11 – nicht nur für Windows-10-Umsteiger | c’t uplink
Wer jetzt von Windows 10 auf Windows 11 umsteigt, mag von Optik und Optionen abgeschreckt sein. Aber auch Langzeitnutzer von Windows 11 bekommen ständig Neuerungen untergeschoben. Im Podcast geht c’t-Redakteur und Windows-Experte Jan Schüßler ausführlich auf den aktuellen Entwicklungsstand ein und gibt viele Tipps, wie Sie sich Taskleiste, Startmenü, Datenschutzeinstellungen, Explorer und mehr individuell einstellen. Die Tipps sind daher nicht nur für Umsteiger von Windows 10 interessant, sondern auch, falls Sie auf der ewigen Baustelle Windows 11 gerade mal ein paar Wochen lang nicht in alle Konfigurationsfenster geschaut haben.
Weiterlesen nach der Anzeige

Den wöchentlichen c’t-Podcast c’t uplink gibt es …
Das Startmenü gibt es gerade in einer alten und neuen Version, Jan beschreibt die Unterschiede und wie Sie Nerviges abschalten. Auch die Taskleiste von Windows 11, anfangs von vielen als optionsarm empfunden, hat Angenehmes dazugelernt. Im Explorer ist wie schon immer bei Windows ratsam, die Dateiendungen anzuzeigen. Das neue Kontextmenü macht einiges besser, vieles langsamer oder schlechter, aber es gibt einen Weg zurück.
Zudem geben wir Tipps zu Zusatzfunktionen, sowohl mitgelieferten, die Sie nur – an der richtigen Stelle – installieren müssen, als auch welche aus dem Download-Store. Einige der Tools verursachen allerdings mehr Probleme, als sie nutzen. Als besonders hilfreich und gut integriert erweisen sich vor allem Microsofts eigene Tools, die Sysinternal Tools und die PowerToys.
Schließlich der Datenschutz: Die berüchtigte Telemetrie lässt sich recht einfach recht gründlich ausschalten, aber viele andere Einstellungen erfordern ebenfalls Aufmerksamkeit. Auch hier helfen Drittanbietertools nur eingeschränkt.
Zu Gast im Studio: Jan Schüßler
Host: Jörg Wirtgen
Produktion: Tobias Reimer
► Der c’t-Artikel zum Thema (Paywall):
Weiterlesen nach der Anzeige
Startmenü und Taskleiste:
Desktop und Explorer:
Zusatzfunktionen:
Datenschutz:
[Link auf
In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.
► c’t Magazin
► c’t auf Mastodon
► c’t auf Instagram
► c’t auf Facebook
► c’t auf Bluesky
► c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!
(jow)
Künstliche Intelligenz
KI-Update Deep-Dive: Deutschlands Weg zur KI-Infrastruktur
Souveräne KI-Leistung aus dem Untergrund
Weiterlesen nach der Anzeige
Rechenzentren sind der Motor der aktuellen KI-Entwicklung, doch der Wettbewerb ist hart. Während US-Konzerne wie Amazon, Google, Meta und Microsoft zusammen rund 650 Milliarden Dollar in KI-Infrastruktur investieren wollen – eine Summe, die den deutschen Bundeshaushalt übersteigt – stellt sich die Frage, wie Deutschland in diesem Feld mithalten kann. Eine Antwort darauf soll der Bau heimischer Rechenzentren sein. Eines davon wurde in diesem Monat von der Telekom in München eröffnet. Christof Windeck, Redakteur beim c’t Magazin, war vor Ort und gibt in der neuen Folge des KI-Updates einen Einblick in die Pläne für den Standort Deutschland und die damit verbundenen Herausforderungen.
Die Telekom wirbt damit, dass Daten, die Kunden in dieser souveränen, deutschen KI-Cloud verarbeiten, vor dem Zugriff ausländischer Behörden geschützt seien. Das Rechenzentrum, das in Kooperation mit dem Chiphersteller Nvidia betrieben wird, soll im Endausbau mit rund 10.000 KI-Beschleunigern ausgestattet sein. Laut Telekom entspreche das dann „ungefähr 50 Prozent der gesamten KI-Rechenleistung, die derzeit in Deutschland verfügbar ist“, sagt Windeck. Das zeige jedoch vor allem, wie wenig öffentlich buchbare KI-Rechenleistung es in Deutschland bisher gibt.

Eine weitere Besonderheit ist der Standort. Das Rechenzentrum wurde in nur sechs Monaten in einem bestehenden, sechsstöckigen Keller eines ehemaligen Bankgebäudes im Münchner Tucherpark errichtet. Gekühlt wird es unter anderem mit Wasser aus dem nahegelegenen Eisbach, sagt Windeck. Ein Wehr staut den Eisbach, um das Kühlwasser für das unterirdische Rechenzentrum zu entnehmen, wobei gesetzliche Vorgaben zum Schutz der Umwelt eingehalten würden.
KI für die Industrie statt für den Massenmarkt
Die Telekom und Nvidia zielen mit dem Angebot nach eigener Aussage auf „Industrial AI“. Es gehe also nicht darum, große Sprachmodelle wie die von OpenAI zu entwickeln, sondern KI-Leistung für Industriepartner bereitzustellen. „Für diese europäischen oder auch deutschen Hersteller, die das mal nutzen sollen, kann eben auch diese digitale Souveränität sehr wichtig sein“, meint der c’t-Redakteur. Als möglicher Kunde war etwa Siemens bei der Eröffnung vertreten. Ein bereits konkretes Projekt ist die Initiative Soofi, die das Rechenzentrum für die Entwicklung eines souveränen europäischen Sprachmodells nutzen will. Dieses LLM soll europäischen Unternehmen als Basis für eigene KI-Anwendungen dienen. Im Vergleich zu anderen großen Sprachmodellen wie OpenAIs GPT-4 ist es aber deutlich kleiner mit nur einem Bruchteil der Parameter.
Ein zentrales Problem, das Windeck erklärt: „Es gibt einfach die Nachfrage in Europa überhaupt nicht.“ Viele deutsche Unternehmen seien noch zurückhaltend. Der Telekom-Vorstandsvorsitzende Tim Höttges habe bei der Eröffnung betont, man gehe bewusst „in Vorleistung“, um ein souveränes Angebot zu schaffen, nachdem sich viele Kunden über die Abhängigkeit von US-Anbietern beklagt hatten.
Weiterlesen nach der Anzeige
Das Rennen um die europäischen KI-Fördermittel
Laut Windecks Einschätzung verfolgt die Telekom mit dem schnellen Aufbau des Rechenzentrums auch ein strategisches Ziel: „Mit diesem Rechenzentrum bewirbt sich die Telekom natürlich“ um Fördermittel aus dem Programm der „European AI Gigafactories“, mit dem die EU den Aufbau von KI-Infrastruktur unterstützen will. „Mindestens eine muss nach Deutschland kommen“, zitiert Windeck den Telekom-Chef.
Im Vergleich zu anderen geplanten Projekten in Deutschland, wie dem der Schwarz-Gruppe (Lidl, Kaufland) im brandenburgischen Lübbenau mit 200 Megawatt, oder gar in den USA, wo von mehreren Gigawatt die Rede ist, sei das Münchner Rechenzentrum mit einer geplanten Leistung von bis zu 20 Megawatt eher klein. Zudem bauen auch die großen US-Anbieter wie Microsoft und Amazon ihre Kapazitäten in Deutschland massiv aus.
Das Konzept der „Industrial AI“ für spezialisierte Anwendungen im deutschen Mittelstand klingt zwar vielversprechend. Doch ob die Investitionen in die teure Infrastruktur sich am Ende auszahlen, ist ungewiss. Das grundlegende Problem fasst Christof Windeck zusammen: „Es bleibt eigentlich so, dass man nicht genau weiß, wer wie wirklich Geld damit verdienen kann, weil man noch nicht genau weiß, wer wie was tatsächlich dafür bezahlt.“ Solange erfolgreiche Anwendungsfälle und Geschäftsmodelle im Verborgenen bleiben, wird die Zukunft der souveränen KI-Infrastruktur in Deutschland ein Wettlauf mit vielen Unbekannten bleiben.
(igr)
Künstliche Intelligenz
VMware-Kosten: „1000 Prozent Druck – es könnte deinen Job kosten“
Die befürchtete Massenflucht von VMware-Kunden ist ausgeblieben. Laut einer aktuellen Umfrage von CloudBolt, die im Januar 2026 unter 302 IT-Entscheidern in nordamerikanischen Unternehmen mit mindestens 1000 Mitarbeitern durchgeführt wurde, haben bislang nur 4 Prozent ihre VMware-Infrastruktur vollständig abgelöst. Allerdings reduzieren 86 Prozent der Befragten aktiv ihren VMware-Einsatz – Broadcoms Übernahme und die damit verbundenen Änderungen haben also dennoch negative Auswirkungen.
Weiterlesen nach der Anzeige
Die Studie, die zwei Jahre nach der Broadcom-Übernahme eine Bestandsaufnahme vornimmt, offenbart eine klare Diskrepanz zwischen Erwartung und Realität. Während 2024 noch 73 Prozent der Befragten eine Kostenverdopplung oder mehr befürchteten, erlebten tatsächlich nur 14 Prozent Preissteigerungen von über 100 Prozent. Die Mehrheit (59 Prozent) verzeichnete Erhöhungen im Bereich von 25 bis 49 Prozent. Allerdings berichteten IT-Verantwortliche in Einzelfällen von extremen Steigerungen zwischen 350 und 700 Prozent.
Besonders deutlich werden die Auswirkungen bei europäischen Cloud-Anbietern. Zum Beispiel hat der EU-Cloudverband CISPE Preissteigerungen von 800 bis 1500 Prozent dokumentiert. Broadcom hatte nach der Akquisition die Lizenzpolitik grundlegend umgestellt: Perpetual Licenses wurden abgeschafft, stattdessen gibt es nur noch Subscription-Modelle mit gebündelten Produkten und Core-basierter Abrechnung.
Langsame Migration statt schneller Exodus
Die Gründe für den ausbleibenden Massenexodus sind vielfältig. 25 Prozent der Befragten nennen die Komplexität und das Risiko einer Migration als Haupthindernis, 23 Prozent verweisen auf unerwartet hohe Kosten. Weitere 21 Prozent stoßen auf technische Limitierungen. Die typische Dauer für das Auflösen von Abhängigkeiten wird mit 18 bis 24 Monaten angegeben. Beispielhaft zitiert die Studie einen IT-Leiter mit den Worten: „Der Prozess, ein Jahrzehnt an Prozessabhängigkeiten aufzulösen, dauert 18 bis 24 Monate.“
Von den Unternehmen, die Workloads migriert haben, wechselten 72 Prozent zu Public-Cloud-IaaS-Angeboten. Hyper-V und Azure Stack kamen auf 43 Prozent, SaaS-Lösungen auf 34 Prozent. Als Alternativen zu VMware werden vor allem Nutanix AHV, Proxmox VE, Red Hat OpenShift Virtualization (KVM), Harvester von SUSE und OpenStack genannt. Bemerkenswert: 63 Prozent der Befragten haben ihre VMware-Strategie seit der Akquisition mindestens zweimal geändert.
Vertrauen steigt trotz Störungen
Ebenfalls bemerkenswert: 60 Prozent der Befragten berichten von einem höheren Vertrauen in ihre VMware-Strategie im Vergleich zu 2024. Die Studie interpretiert das als Übergang von Panik zu pragmatischer Ausführung – eine Art Akzeptanzphase nach anfänglichem Schock. Während 2024 noch 46 Prozent die Broadcom-Übernahme als extrem oder sehr störend empfanden, sind es 2026 nur noch 25 Prozent.
Weiterlesen nach der Anzeige
Allerdings hat sich der Druck aus der Führungsetage erhöht: 41 Prozent berichten von gestiegenem Engagement von CEO und CFO in VMware-Entscheidungen. Die Virtualisierungsstrategie ist damit zum Board-Level-Thema geworden. Ein IT-Verantwortlicher beschrieb den Druck drastisch: „1000 Prozent Druck – es könnte deinen Job kosten.“
Broadcom-Strategie setzt auf Squeeze
Die Studie kommt zu dem Schluss, dass Broadcom bewusst mit Kundenabwanderung kalkuliert und stattdessen die Margen bei den verbleibenden Kunden maximiert. 85 Prozent der Befragten erwarten weitere Preiserhöhungen. Der langsame Exodus führt zu einem „Squeeze“: Da die Kundenbasis schrumpft, werden die Preise für die Verbleibenden weiter steigen. Gartner prognostiziert einen Rückgang des VMware-Marktanteils von rund 70 Prozent (2024) auf etwa 40 Prozent (2029).
Neue Herausforderungen entstehen durch die zunehmende Multi-Plattform-Komplexität: 52 Prozent der Befragten sehen darin ein Problem, 33 Prozent beklagen fehlendes Know-how in ihren Teams. Gleichzeitig berichten 65 Prozent von einem verbesserten Risikoprofil durch die Diversifizierung ihrer Infrastruktur. Details zu allen erhobenen Daten finden sich bei CloudBolt.
(fo)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
