Apps & Mobile Entwicklung
Enormer Speicherbedarf: Sandisk könnte NAND-Preise verdoppeln

Laut einer Analyse des Finanzunternehmens Nomura könnte Sandisk die Preise für NAND in Enterprise-SSDs nochmals erhöhen. Es sei möglich, dass sich diese im laufenden Quartal sogar mehr als verdoppeln. Wie ComputerBase aus mit dem Thema vertrauter Quelle erfuhr, sind solche Preissteigerungen auch bei Client-SSDs zu erwarten.
Verdoppelte NAND-Preise für Enterprise-SSDs
Wie dem veröffentlichten Auszug einer Analyse des Finanzunternehmens Nomura zu entnehmen ist, könnten die Hersteller von NAND-Flash-Speicher ihre Preise im laufenden ersten Quartal 2026 nochmals deutlich erhöhen. Beispielhaft könne der US-Hersteller Sandisk (der Partner von Kioxia) seine Preise für den bei Enterprise-SSDs genutzten Speicher um mehr als 100 Prozent gegenüber dem vorherigen Quartal anheben, heißt es dort.
Grundstein für diese Prognosen sind Aussagen des Nvidia-CEOs, der auf der CES verdeutlicht hatte, dass neben Arbeitsspeicher (DRAM und HBM) eben auch Massenspeicher bei den KI-Aufgaben künftig eine immer wichtigere Rolle spielt. Die neue Inference Context Memory Storage Platform (ICMSP) verlangt nach großen und schnellen SSDs und dementsprechend nach viel Flash-Speicher.
In der Analyse wird vorgerechnet, dass in nur einem Nvidia Rubin NVL72 Rack bis zu 1.200 TB Massenspeicher unterkommen können. Bei einer Liefermenge von geschätzten 50.000 dieser Racks pro Jahr würde sich das auf bis zu 60.000.000 TB oder 60 Exabyte summieren.
Das allein wäre noch kein Grund für derartig drastische Preiserhöhungen, doch gibt es noch viele andere Systeme, die ebenfalls immer mehr Speicher benötigen.
Laut dem CEO vom Controller-Hersteller Phison hatten sich die NAND-Preise bereits im vergangenen Jahr binnen 6 Monaten verdoppelt.
Auch Client-SSDs könnten betroffen sein
Noch müssen Endkunden nicht den doppelten Preis für eine SSD hinlegen, in der letzten Stichprobe der Redaktion haben sich SSDs 2025 „nur“ um 43 Prozent verteuert.
Allerdings schlagen sich die Engpässe durch den enormen Speicherbedarf auch bei den Client-SSDs nieder. Wie ComputerBase aus einer mit dem Thema vertrauten Quelle erfuhr, soll Sandisk jüngst auch für hiesige Distributoren die Preise nahezu verdoppelt haben.
Dass die SSD-Preise in diesem Jahr also weiter steigen werden, erscheint aktuell unausweichlich.
Apps & Mobile Entwicklung
Resident Evil Requiem unter Linux: Erfahrungen
So gut Resident Evil Requiem technisch unter Windows auch ist, technische Probleme begleiten das Windows-Spiel unter auf dem Linux-Desktop: Nur mit AMD Radeon und damit auch im Steam Deck läuft es rund, Nvidia und Intel schwächeln noch.
Auf dem Steam Deck gut spielbar
Die gute Nachricht zuerst: Resident Evil Requiem läuft auf dem Steam Deck – und das ganz ohne offizielle Steam-Deck-Kompatibilität.
In den ersten 60 bis 90 Minuten Spielzeit liegt die Framerate in der Regel über 45 FPS mit minimalen Einstellungen. Lediglich das Upscaling musste von Hand von FSR 1 auf FSR 3 geschaltet werden. Alles weitere hat der Titel korrekt der Leistung der Konsole entsprechend eingestellt.
Trotz der niedrigen Settings, der geringen Auflösung und des Upscalings sieht das Spiel auf dem keinen Display des Steam Deck sehr gut aus. Es spielt sich flüssig, nur ab und an spürt man einen kleinen Ruckler, der aber den Spielspaß nicht trübt. Was die Gründe für die fehlende Freigabe seitens Steam sind, erschließt sich an der Stelle nicht.
Große Probleme auf dem Linux-Desktop
Für den Ersteindruck von Resident Evil Requiem auf dem Linux-Desktop kommt ein CachyOS-System mit aktuellem Patch-Stand zum Einsatz. Angetrieben wird das System von einem Ryzen 7 7700X, 32 GB DDR5-6000 und aktuellen Grafikkarten aller drei großen Hersteller. Software-Basis bilden der Linux Kernel 6.19, Mesa 26.0.1 und Nvidia 590.48.01. Als Proton dient die angepasste CachyOS-Version.
AMD Radeon RX 9070
Grundsätzlich läuft Resident Evil Requiem gut mit der Radeon. Die Performance stimmt und ist nah dran an Windows. Doch ein wesentliches Feature fehlt: Raytracing. Das Spiel blendet die Option gar nicht erst im Menü ein. Dafür lässt sich FSR 4 problemlos erzwingen. Nötig bleibt dafür weiterhin ein angepasstes Proton.
Nvidia GeForce RTX 5070
Die GeForce-Karte bereitet unter Linux hingegen mehr Sorgen. Nicht nur, dass auch hier Raytracing nicht zur Verfügung steht; es gibt auch zahlreiche Bildfehler, welche ein Spielen unmöglich machen. Auch muss der Titel in puncto Performance deutlich Feder lassen im Vergleich zu Windows.
Intel Arc B580
Bei Intel hingegen sieht die Sache anders aus und dennoch schlechter. Zum einen steht Raytracing, wie auch auf den anderen Grafikkarten, nicht zur Verfügung. Im Gegensatz zu Nvidia läuft Resident Evil auf der Battlemage-Karte ohne Grafikfehler. Doch was das Ganze unspielbar macht, ist die Performance. Selbst mit minimalen Einstellungen und dem Einsatz von Upscaling kommt man kaum in den unteren zweistelligen FPS-Bereich.
Fazit
Resident Evil Requiem mag ein gutes Spiel sein, doch Linux-Spieler müssen sich noch gedulden – je nachdem auf welcher Plattform man unterwegs ist.
Das Steam Deck bietet aktuell wohl die beste Erfahrung um den Titel in Relation zu Hardware unter Linux zu spielen. Auch mit einer AMD-Grafikkarte kann man weitestgehend unbesorgt spielen – wenn man auf Raytracing verzichten kann. Für Nvidia- und Intel-Nutzer heißt es hingegen noch warten: Während Nvidia die Probleme wohl mit einem Treiberupdate wird lösen können, wird es vermutlich mit Intel Arc noch länger dauern.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Apps & Mobile Entwicklung
Massenüberwachung und autonome Waffen: Wie OpenAI den Pentagon-Vertrag von Anthropic übernimmt
Die Trump-Administration eskaliert den Streit um KI-Massenüberwachung und autonome Waffen: Anthropic wird als Lieferketten-Risiko eingestuft und soll aus den Systemen des US-Kriegsministeriums verschwinden. Die offene Lücke besetzt jetzt OpenAI. Öffentlich wird nun diskutiert, welche Zugeständnisse dafür nötig waren.
Trump beendet Verhandlungen, Hegseth eskaliert den Konflikt
Dass sämtliche US-Bundesbehörden keine Anthropic-Modelle mehr verwenden soll, erklärte am späten Freitagnachmittag zunächst US-Präsident Donald Trump. Nun läuft eine sechsmonatige Übergangsfrist, in der etwa das Kriegsministerium Zeit hat, um die KI-Systeme zu ersetzen. Trump bezeichnete Anthropic als vermeintlich linke und woke Firma, von der sich das US-Militär nicht vorschreiben lasse, wie es Kriege zu führen habe.
Wie die Journalisten Kevin Roose und Casey Newton im Hard-Fork-Podcast berichten, erfolgte Trumps Posting zu einem Zeitpunkt, als Anthropic und das Kriegsministerium im Hintergrund noch verhandelten. Die Gespräche waren damit beendet. Für Anthropic-Mitarbeitende wirkte es zu diesem Zeitpunkt trotzdem wie eine letztlich zufriedenstellende Lösung, weil Trump weder die Einstufung als Lieferkettenrisiko noch den Defense Production Act erwähnte – das waren die massiven Drohungen in diesem Konflikt.
Kurz nach Trump legte aber US-Kriegsminister Peter Hegseth nach. Er verkündete, Anthropic als Lieferkettenrisiko für die Nationale Sicherheit einzustufen. „Mit sofortiger Wirkung dürfen keine Auftragnehmer, Lieferanten oder Partner, die mit dem US-Militär Geschäfte machen, kommerzielle Aktivitäten mit Anthropic durchführen“, so Hegseth.
Inwieweit sind Google und Amazon betroffen?
Damit erfolgte also die Eskalation. Hätte die US-Administration ausschließlich die Verträge beendet, wäre es ein finanzieller Schaden für Anthropic gewesen, der aber keine Auswirkungen auf das Alltagsgeschäft hat. Indem Anthropic nun als Lieferkettenrisiko klassifiziert ist, ändert sich das. Relevant ist das vor allem für Amazon und Google. Beide Big-Tech-Konzerne sind mit zweistelligen Milliarden-Beträgen in Anthropic investiert und stellen die Cloud-Computing-Kapazitäten für das KI-Unternehmen bereit. Gleichzeitig erfüllen diese aber auch Aufträge für das Pentagon.
Interessant ist, wie Anthropic die Auswirkungen der Lieferkettenrisiko-Einstufung einordnet. Für Privatnutzer soll diese keine Konsequenzen haben. Bei Unternehmen, die Verträge mit dem Pentagon haben, ist der Einsatz von Claude-Modellen nur unterbunden, wenn an Aufträgen für das Pentagon gearbeitet wird. Außerhalb der Pentagon-Abkommen können betroffene Unternehmen wie gehabt die Anthropic-Systeme verwenden.
Nach Lesart von Anthropic müssten die Cloud-Anbieter also lediglich sicherstellen, dass Claude-Modelle nicht die Pentagon-Aufträge involviert sind. Aufwändig, aber machbar. Folgt man hingegen der Lesart des Kriegsministeriums, müsste die Zusammenarbeit hingegen komplett beendet werden, wenn Amazon und Google weiterhin Dienste für das Pentagon anbieten wollen.
Anthropic will gegen die Lieferkettenrisiko-Einstufung klagen
In einer Stellungnahme bedauert Anthropic derweil, dass man sich nicht mit dem Kriegsministerium auf einen Vertrag einigen konnte. Die Ausnahmen für autonome Waffen und Massenüberwachung wären derzeit ohnehin nicht mit US-Recht vereinbar. Und vor allem für autonome Waffen würden die Modelle schlicht noch nicht zuverlässig genug arbeiten.
Gegen die Einstufung als Lieferkettenrisiko will man Klage einreichen. Dass ein US-Unternehmen so klassifiziert wäre, sei „rechtlich unlauter und ein gefährlicher Präzedenzfall für alle Unternehmen, die mit der US-Regierung verhandeln“. Bislang nutzten US-Administrationen dieses Mittel für chinesische Unternehmen wie Huawei oder russische Dienste wie Kaspersky Labs.
OpenAI nutzt Lücke und wird massiv kritisiert
Während Anthropic den Konflikt mit der Klage weiterführen will, hat OpenAI noch am Freitagabend bekanntgegeben, ein Abkommen mit dem US-Kriegsministerium abgeschlossen zu haben. Für das Pentagon will man eine angepasste Version der Modelle bereitstellen, die auch für den Umgang mit vertraulichen und klassifizierten Informationen freigegeben sind.
Sam Altman erklärte auf X, dass OpenAIs Vertrag auch die Ausnahmen für Massenüberwachung, das Steuern autonomer Waffen sowie automatisierte Entscheidungen mit weitreichenden Konsequenzen – also etwa Social-Credit-Systeme. Mit dem Kriegsministerium gebe es in diesen Bereichen auch keinen Dissens.
Die Kritik an diesem Abkommen ist dennoch enorm, in sozialen Medien trendete die Forderung, die ChatGPT-Abonnements zu kündigen. Seitdem sind OpenAI und Sam Altman vor allem um Schadensbegrenzung bemüht.
Kernkonflikt: Massenüberwachung und Steuerung autonomer Waffen technisch oder rechtlich ausschließen?
Der Kern des Konflikts ist die Frage, wie tief die Restriktionen in den KI-Systemen verankert sein müssen. Anthropic will Massenüberwachung im Inland sowie Steuerung autonomer Waffennutzung technisch ausschließen, während OpenAI zwar auch auf Sicherheitsrichtlinien hinweist, grundsätzliche aber den Vertrag als Instrument nutzt, um bestimmte Einsatzzwecke auszuschließen.
Anthropics Punkt ist aber, dass juristische Klauseln sich weiter auslegen oder schlicht missachten lassen. Verträge sind also keine Garantien. Die Auszüge aus dem Vertragstext, die OpenAI veröffentlicht hat, belegt diesen Vorwurf nun nach der Sichtweise von Kritikern.
Was laut dem Hard-Fork-Podcast aber wichtig bei der Bewertung der Verträge ist: Noch herrscht ein hohes Ausmaß an Unsicherheit über die Details. Vorsicht ist also angebracht. Es zeichnet sich aber ab, dass die Debatten in nächster Zeit vor allem um die Frage drehen, inwieweit rechtliche und vertragliche Vorgaben geeignet sind, um die Fähigkeiten von KI-Modellen einzuschränken. Was unter „lawful use“ – also rechtmäßiger Nutzung – zu verstehen ist, ist dabei einer der Knackpunkte.
xAI als weitere Alternative
Dass Anthropic als Lieferkettenrisiko eingestuft wird, bedauert Sam Altman. Während OpenAI also Anthropic tendenziell unterstützt, positioniert sich Elon Musk öffentlich voll auf Linie des Pentagon. Er und sein KI-Unternehmen xAI profitieren aber ebenfalls von dem Streit, künftig soll es auch eine angepasste Grok-Version für das Militär geben.
In mehreren US-Bundesbehörden bestehen aber enorme Zweifel, ob man Elon Musks KI-Dienste tatsächlich in klassifizierten Netzwerken nutzen will, berichtet das Wall Street Journal. Zu groß ist die Sorge vor Sicherheitsbedenken. Systemische Risiken würden etwa drohen, weil Grok übermäßig gefällig („sycophantic“) und zu anfällig für Manipulationen sei.
Als warnendes Beispiel nennen Vertreter der US-Regierung die rund um den Jahreswechsel veröffentlichte Bildfunktion in Grok, mit denen Nutzer massenhaft sexualisierter Bilder von Frauen und sogar Kindern erstellten. Dieser Vorfall zeige, wie Grok von feindlichen Akteuren ausgenutzt werden könnte.
US-Militär nutzt Claude-Modelle im Iran-Krieg
Im seit Samstag laufenden Iran-Krieg kommen Anthropics Claude-Modelle weiterhin zum Einsatz. Das gilt auch für das U.S. Central Command im Mittleren Osten, berichtet das Wall Street Journal unter Verweis auf Personen, die mit den Vorgängen vertraut sind.
Obwohl die Spannungen zwischen Kriegsministerium und Anthropic in den letzten Wochen bereits zunahmen, blieben die KI-Tools dem Bericht zufolge fest in die militärischen Abläufe integriert. Verwendet werden diese demnach für Lageanalysen, Zielidentifikationen und Simulationen von Gefechtsszenarien.
Apps & Mobile Entwicklung
Copilot Task: Der Agent für Windows 11, der autonom Aufgaben erledigt
Mit Copilot Task soll sich der KI-Assistent zum Agenten verwandeln, der eigenständig Aufgaben erfüllt. Microsoft hat nun angekündigt, dass man eine Forschungsvorschau-Version für die ersten Windows-11-Nutzer freigeschaltet hat.
Helfen soll Copilot Task insbesondere bei alltäglichen Routineaufgaben, indem der Agent diese möglichst autonom und eigenständig erledigt. Zu den Aufgaben zählen etwa die Organisation des E-Mail-Postfachs, das Überwachen von Preisentwicklungen bei bestimmten Produkten oder das Erstellen eines Wochenplans.
Zusätzlich kann der Agent Dokumente erstellen und dafür die Inhalte aus verschiedenen Datenquellen wie E-Mails oder Office-Dokumenten besorgen. Planen lassen sich mit Copilot Task auch Termine und Events. Wie so oft nennt auch Microsoft eine Reise als Beispiel, bei der der Agent eigenständig die Preise von Hotels, Flügen und Mietwägen im Blick behält und zu günstigen Zeitpunkten bucht.
Copilot Task ist Microsofts Wette für das agentische Zeitalter
Im Kern beschreibt Microsoft damit ein System, das ähnliche Funktionen bietet wie aktuell gehypte Agenten-Systeme – also etwa Anthropics Claude Code oder OpenClaw. Microsoft nennt aber vor allem alltägliche Aufgaben, bis dato für den Einsatz von Agenten-Systemen populäre Bereiche wie Coding tauchen in der Beschreibung nicht auf.
Wie die anderen Agenten arbeitet auch Copilot Task im Hintergrund. Das System nutzt eigenständig Computer-Ressourcen und einen Browser, um autonom Apps und Dienste zu steuern. Copilot Task ist allerdings tief in Windows 11 verankert. Die Vorgehensweise hat Microsoft bereits beschrieben, als man im November 2025 das agentische Zeitalter ankündigte. Im aktuellen Blog-Beitrag beschreibt Microsoft Copilot Task nun als „unsere Wette“, um die „leistungsfähigste und nützlichste KI“ für alle zugänglich zu machen. Die Ambitionen sind also groß, man will die führenden KI-Entwickler attackieren.
Microsofts Agenten-Pläne sorgten aber zumindest bei Enthusiast-Nutzern bislang für wenig Begeisterung. Statt an KI-Funktionen zu arbeiten, solle sich der Konzern sich auf Kernfunktionen von Windows 11 konzentrieren, lautet einer der Kritikpunkte. Nach dem Recall-Debakel bestehen zudem Sicherheitsbedenken; die Frage ist, ob Microsoft das KI-System architektonisch korrekt umsetzt.
Neben Copilot Task plant Microsoft noch weitere KI-Neuerungen für Windows 11. Zusätzlich will der Konzern die Kernfunktionen des Betriebssystems überarbeiten.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
