Künstliche Intelligenz
Speicherkrise: PC-Hersteller erwägen chinesischen Speicher
Wer ein Notebook oder einen Desktop-PC kauft, könnte darin künftig Arbeitsspeicher des chinesischen Herstellers ChangXin Memory Technologies (CXMT) finden. Fast alle großen PC-Hersteller sollen den Speicher derzeit testen oder auf der Suche nach Kontakten sein, um an das Dynamic Random Access Memory (DRAM) zu gelangen.
Weiterlesen nach der Anzeige
Darüber berichtet die oft gut informierte Nachrichtenagentur Nikkei Asia. Demnach stecken HP, Dell und Acer bereits in der Zertifizierungsphase. Dabei prüfen die Hersteller etwa, ob der Speicher stabil läuft und wie langlebig er ist. Asus soll etwas später dran, aber ebenfalls am chinesischen DRAM interessiert sein.
Der Weltmarktführer Lenovo ist in China beheimatet und dürfte längst CXMT-Bausteine zumindest für den heimischen Markt beziehen. Aus der Top 6 der weltweit größten PC-Hersteller fehlt demnach nur Apple und auch da ist offen, ob die Firma CXMT nicht zugeneigt ist.
Apple soll 2022 schon Interesse an NAND-Flash-Speicher vom chinesischen Hersteller Yangtze Memory Technologies Co. (YMTC) gehabt haben. Wahrscheinlich aufgrund von politischem Druck entschied sich die Firma dann aber gegen den Einsatz in iPhones.
DDR5 und LPDDR5X mit hoher Geschwindigkeit
Laut eigener Produktseite stellt CXMT DDR5-8000-Bausteine mit einer Kapazität von 24 Gigabit her. Solche „krummen“ Kapazitäten sind inzwischen im Kommen. Der Hersteller muss sich demnach nicht vor der Konkurrenz in Form von Samsung, SK Hynix und Micron verstecken. Lediglich die Effizienz könnte noch niedriger sein. Laut Nikkei soll CXMT die Chipausbeute und -qualität in den vergangenen Monaten verbessert haben.
Für Notebooks bietet CXMT derweil unter anderem LPDDR5X-DRAM mit einer Kapazität von 16 Gigabit pro Baustein an. Mit der angegebenen LPDDR5X-10667-Geschwindigkeit könnte der Hersteller alle aktuellen Prozessoren von AMD und Intel ausreizen.
Keine Kostenersparnisse
Weiterlesen nach der Anzeige
Digitimes aus Taiwan merkt derweil an, dass die beiden chinesischen Speicherhersteller CXMT und YMTC ihre Niedrigpreis-Strategie aufgegeben hätten. Demnach verlangen sie ähnlich hohe Preise wie die Konkurrenz. Die PC-Hersteller würden somit kein Geld mit dem chinesischen Speicher sparen, hätten aber einen zusätzlichen Zulieferer, um etwaige Knappheit auszugleichen.
Laut dem südkoreanischen Marktbeobachter Counterpoint Research hat CXMT bereits einen weltweiten Marktanteil von fünf Prozent bei DRAM. Der Großteil dieser Chips steckt in chinesischen Geräten. Der taiwanische Marktbeobachter Trendforce führt CXMT nicht eigenständig auf, allerdings dürfte CXMT den Großteil der restlichen rund fünf Prozent Marktanteil („alle anderen“) ausmachen.
(mma)
Künstliche Intelligenz
VirtualBox erhält experimentellen KVM-Support | heise online
Oracle hat in den aktuellen Entwickler-Builds von VirtualBox experimentellen Support für KVM (Kernel-based Virtual Machine) integriert. Wie aus dem VirtualBox-Issue-Tracker auf GitHub hervorgeht, ermöglicht die neue Funktion den Einsatz des nativen Linux-Hypervisors als Backend. Die Integration erfolgt über den Native Execution Manager (NEM), der bereits Hyper-V (Windows) und den Apple Hypervisor (macOS) unterstützt.
Weiterlesen nach der Anzeige
Die Implementierung ist derzeit nur in manuell erstellten Development-Builds verfügbar. Nutzer müssen dazu Patches auf den VirtualBox-Quellcode anwenden und das System mit den Configure-Flags --with-kvm --disable-kmods kompilieren. Das KVM-Backend eliminiert dabei die Abhängigkeit von den eigenen VirtualBox-Kernel-Modulen, die unter Linux-Kernels ab Version 6.12 zunehmend Probleme verursachen können.
Vorteile bei Kernel-Konflikten
Besonders nützlich erweist sich der KVM-Support, wenn die proprietären VirtualBox-Module Schwierigkeiten bereiten. Dies betrifft etwa Systeme mit aktivierter Kernel-Signaturprüfung oder Umgebungen, in denen Konflikte zwischen den VirtualBox- und KVM-Modulen auftreten. Ein von Oracle im Oktober 2025 veröffentlichter Kernel-Patch ermöglicht zudem die Koexistenz beider Systeme, indem die Funktionen kvm_enable_virtualization() und kvm_disable_virtualization() re-exportiert werden.
Parallel zu Oracles Entwicklung existiert bereits das unabhängige Open-Source-Projekt virtualbox-kvm von Cyberus Technology. Es bietet seit 2024 ein KVM-Backend für VirtualBox, das Features wie Nested Virtualization unterstützt. Der letzte Release erschien Anfang Februar 2026 (Support von VirtualBox 7.1.6a).
Sicherheitsaspekte und Ausblick
Aus Sicherheitsperspektive reduziert das KVM-Backend die Angriffsfläche, da es als Type-1-ähnlicher Hypervisor direkt in den Kernel integriert ist. Dies verringert potenzielle Schwachstellen gegenüber Type-2-Hypervisoren mit eigenen Kernel-Modulen. Bekannte Schwachstellen in VirtualBox betreffen häufig GPU- und 3D-Komponenten, ähnliche Probleme existieren auch bei QEMU/KVM in der virtio-gpu-Implementation.
Weiterlesen nach der Anzeige
Ob und wann Oracle den KVM-Support in eine stabile VirtualBox-Version integriert, ist derzeit offen – schließlich befindet sich die Funktion explizit in einem frühen experimentellen Stadium. Für Nutzer, die vollständig auf KVM setzen möchten, bleibt QEMU/KVM die ausgereifte Alternative mit nativer KVM-Integration und hoher Performance.
Oracle folgt mit dem Schritt dem Konkurrenten VMware: Broadcom begann bereits Ende 2024, den Einsatz von KVM in seiner Virtualisierungssoftware vorzubereiten. Seitdem gab es jedoch keinerlei Updates oder einen offiziellen Zeitplan für diesen Umbau.
(fo)
Künstliche Intelligenz
Apple AirTag 2: Nicht nur zum Gut-finden | Mac & i-Podcast
Eine halbe Dekade hat sich Apple Zeit gelassen, um die AirTags in zweiter Generation frisch aufzulegen. Am Konzept ändert sich nichts, die Neuerungen sind zugleich zentral wie überschaubar: Verbesserte Funkchips sorgen in bestimmten Szenarien für mehr Reichweite, der Lautsprecher piepst kräftiger. Die Bluetooth-Tracker sind längst im Alltag angekommen, Apples „Wo ist?“-Netzwerk wird immer größer und andere Hersteller mischen ebenfalls mit – teils zu Dumping-Preisen.
Weiterlesen nach der Anzeige
In Episode 114 bewerten Malte Kirchner und Leo Becker, was die AirTags 2 konkret im Alltag bringen. Die Liste der Neuerungen hat auch Schattenseiten: Die Inkompatibilität zu älteren Betriebssystemversionen sorgt für Frust und einhelliges Kopfschütteln. Uns beschäftigen außerdem die bleibenden Nebenwirkungen der Technik: Stalking und missbräuchliche Nutzung bleiben ein Problem, auch wenn die anfänglichen Verbotsdebatten längst abgekühlt sind. Zudem geht es um Ultrabreitband als entscheidende Funktechnik für den Nahbereich, die auch digitale Schlüssel massentauglich machen könnte.
Apple-Themen – immer ausführlich
Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.
Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio) und bei Spotify. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de.
(lbe)
Künstliche Intelligenz
heise meets … „Wenn ich als CIO meinen Job behalten will, muss ich handeln“
Die größte deutschsprachige Studie zu generativer KI (Gen AI) in IT-Organisationen liefert ernüchternde Zahlen: 73 Prozent der befragten Unternehmen erzielen noch keinen messbaren Nutzen aus ihren Investitionen in generative künstliche Intelligenz (Gen AI).
Weiterlesen nach der Anzeige
Jennifer Diersch und Felix Salomon von der Unternehmensberatung kobaltblau haben gemeinsam mit Partnern wie Lünendonk und VOICE 230 CIOs und IT-Entscheider aus Deutschland, Österreich und der Schweiz befragt.

heise meets…. Der Entscheider-Talk – von Entscheidern für Entscheider – immer aktuell und nah am Geschehen.
Sie können uns auf allen Podcast Kanälen hören.
Wählen Sie Ihren Kanal aus.
Im „heise meets“-Podcast erläutern sie, warum viele Unternehmen noch am Anfang ihrer Reise mit generativer Künstlicher Intelligenz (Gen AI) stehen – und was sie jetzt machen müssen. Die Studie unterscheidet vier Evolutionsstufen:
- Gen-AI-Assisted beschreibt den klassischen Einsatz als Assistent neben der Arbeit, etwa ChatGPT für E-Mails.
- Gen-AI-Orchestrated integriert die Technologie direkt in bestehende Systeme.
- Gen-AI-Integrated setzt KI für ganze Prozessketten ein.
- Die höchste Stufe bildet die AI-native IT-Organisation, in der Teile der IT-Aufgaben vollständig autonom ablaufen.
Viele Teilnehmer hätten gesagt, dass sie Copilot unternehmensweit und GitHub Copilot für Entwickler einsetzen. Außerdem habe man von ChatGPT Enterprise-Lizenzen für alle gekauft. Das seien zwar erste Schritte, sie brächten jedoch keine Produktivitätsgewinne.
Fehlende Datenqualität als größte Hürde
Die Studie identifiziert fehlende Data Governance und Datenqualität, mangelnde Skills bei Mitarbeitenden sowie regulatorische Bedenken als zentrale Bremsklötze. Besonders alarmierend sei, dass zwei Drittel der Befragten bei der größten Hürde – der Datenqualität – noch keine Maßnahmen ergriffen hätten.
Weiterlesen nach der Anzeige
Das passe nicht zusammen, sagt Diersch. Die Interviewpartner berichten, dass technisch zwar vieles möglich sei, aber die Mitarbeiter nicht ausreichend darin geschult würden, wenn die KI zwar eloquent, aber eben falsch antwortet.
Ein weiteres Problem sei die Kostenexplosion durch externe Anbieter. Salomon warnt vor der „Scheckkarten-IT-Organisation“, bei der Unternehmen teure KI-Lösungen von Dienstleistern einkaufen, ohne den erhofften Mehrwert zu erzielen.
Als Gegenbeispiel nennt er einen großen Hersteller, der zunächst DeepL für automatisierte Übersetzungen nutzte. Als die Lizenzkosten explodierten, baute das Unternehmen eine eigene Lösung und reduzierte die Kosten um das Tausendfache.
CIOs müssen jetzt die Weichen stellen
Für die erfolgreiche Skalierung von Gen AI empfehlen die Berater fünf Kernelemente, wie KI bewusst organisieren und gestalten, Grundlagen für Datenschutz und Data Governance schaffen, realistische Ambitionslevel je Capability setzen, die Rolle der IT-Organisation als Plattformbetreiber vorbereiten sowie konsequentes Upskilling und Change Management betreiben.
Die Botschaft der Studie sei eindeutig: Wer als CIO seinen Job behalten will, müsse sich mit Gen AI beschäftigen. Und zwar in den nächsten 12 bis 18 Monaten, weil die Entwicklungen so schnell vorangingen, dass man sonst den Anschluss verlöre.
Andernfalls drohe, dass das eigene Business von Wettbewerbern überholt werde. „Der CIO sollte einen festen Platz in der Geschäftsleitung haben“, sagt Salomon. Die vollständige Studie steht auf der Website von kobaltblau zum Download bereit.
Ein vollständiges Transkript der aktuellen Podcast-Episode von heise meets gibt es unter den Shownotes bei Podigee zu lesen.
(mki)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
