Connect with us

Apps & Mobile Entwicklung

KI-Infrastruktur in den USA: Hälfte der Rechenzentren für 2026 verzögert oder gestoppt


Immer wieder gibt es Meldungen, dass der Ausbau der KI-Rechenzentren in den USA nicht mit den Zeitplänen mithalten kann. Bloomberg nennt nun eine konkrete Zahl: Bei annähernd der Hälfte der für 2026 geplanten Projekte wird erwartet, dass diese sich verzögern oder komplett gestrichen werden.

Zentraler Grund ist laut dem Bloomberg-Bericht der Mangel an Komponenten für die elektrische Infrastruktur, konkret geht es also um Transformatoren, Schaltanlagen und Batterien. Entsprechende Bauteile sind nicht nur für die Rechenzentren erforderlich, sondern auch für den Ausbau der Stromnetze, die den enorm steigenden Verbrauch bewältigen müssen.

Laut Analysen des Thinktanks Sightline Climate sollen in diesem Jahr Rechenzentren ans Netz gehen, die rund 12 Gigawatt an Energie benötigen. Schätzungsweise befindet sich aber nur ein Drittel im Bau.

Trumps Handelspolitik schadet den Anbietern

Anbieter elektrischer Komponenten in den USA können die Nachfrage laut Bloomberg nicht mehr bewältigen. Die Tech-Unternehmen sind daher auf Importe aus aller Welt angewiesen. Genau diese Handelsbeziehungen sind aber durch die Zölle von US-Präsident Donald Trump beeinträchtigt. Ein großer Anteil der Komponenten wird etwa in China gefertigt.

Die US-Administration versucht zwar seit geraumer Zeit, die Produktionskapazitäten in den USA zu erhöhen. Wenn die Pläne der US-Anbieter für den KI-Ausbau umgesetzt werden sollen, ist man aber im großen Maß auf Produkte angewiesen, die in China hergestellt werden, heißt es im Bericht.

Durch die erhöhte Nachfrage, die der KI-Boom ausgelöst hat, steigen zudem die Preise für Komponenten wie Transformatoren. Teilweise haben diese sich laut dem Bericht verfünffacht. Teile sollen nun in größerer Stückzahl und kürzeren Zeiträumen geliefert werden. Wenn die Lieferzeit bei Bestellungen von Hochleistungstransformatoren vor dem Jahr 2020 typischerweise noch 24 bis 30 Monate betragen hat, wollen KI-Unternehmen die Komponenten aktuell in weniger als 18 Monaten.

Lieferkette elektrischer Komponenten als „wildes Puzzle“

Crusoe Energy Systems baut derzeit in Texas einen Datacenter-Campus. Laut Bloomberg ist das Unternehmen bekannt für die Geschwindigkeit. Laut eigenen Aussagen ist Crusoe in der Lage, Teile eines Rechenzentrums binnen eines Jahres ans Netz zu bringen. Ein Trick ist, frühzeitig eine ausreichende Menge elektrischer Komponenten zu kaufen. So konnte man Vorräte anlegen, bevor Handelsbarrieren errichtet worden sind.

Insgesamt machen die elektrischen Komponenten weniger als zehn Prozent der Kosten eines Rechenzentrums aus. Ohne diese Bauteile lässt es sich aber nicht in Betrieb nehmen. „Wenn sich ein Teil der Lieferkette verzögert, kann das komplette Projekt nicht fertiggestellt werden“, sagt Andrew Likens, Crusoes Direktor für Energie und Infrastruktur. Momentan sei es daher ein „ziemlich wildes Puzzle“.

Um ausreichend elektrische Komponenten auf Lager zu haben, hat Crusoe die Vorbestellungen deutlich erhöht. Nun kauft man schon Teile, obwohl noch nicht mal klar ist, ob es dafür einen Auftrag gibt. Riskanter, für Crusoe hat es sich aber als erfolgreiche Strategie erwiesen.

Auch bei den elektrischen Komponenten kommt es also zu Marktdynamiken, die vergleichbar sind mit der Speicherkrise.

Durch den Iran-Krieg erhöhte Strompreise verschärfen die Krise

Crusoe stand zuletzt aber auch im Fokus verzögerter und umgeplanter Projekte. Berichte kursierten, wonach ein Ausbauvorhaben von OpenAI und Oracle in Texas, das Crusoe im Rahmen von Stargate umsetzt, nicht wie geplant läuft. Die Beteiligten bezeichneten den Bloomberg-Bericht von Anfang März aber als falsch und irreführend.

Dass sich der Energiebereich immer mehr zum Flaschenhals entwickelt, war jedoch absehbar. Microsofts CEO Satya Nadella erklärte etwa im Januar, Chips seien nicht das Kernproblem. Herausfordernd wäre es, ausreichend Energie für neue Rechenzentren bereitzustellen.

  • Big Tech setzt auf „Winner takes all“: 650 Mrd. Dollar an Investitionen für KI-Wettrüsten in 2026

Die KI-Investitionen sollen in diesem Jahr ein Rekordniveau erreichen. Allein die vier Big-Tech-Konzerne Amazon, Microsoft, Google und Meta haben Capex-Ausgaben in Höhe von rund 650 Milliarden US-Dollar angekündigt.

Neben den Engpässen bei technischen Komponenten ist aber der aufgrund des Iran-Kriegs steigende Strompreis ein weiteres Hemmnis. Angesichts der erwarteten Wachstumsschwäche gehen erste Analysten laut einem Bericht von Reuters davon aus, dass die Big-Tech-Konzerne die Höhe der Investitionen im Verlauf des Jahres noch zusammenstreichen werden.



Source link

Apps & Mobile Entwicklung

M12-Festplatten: Toshiba knackt die 30-TB-Marke mit 11 Scheiben Glas


M12-Festplatten: Toshiba knackt die 30-TB-Marke mit 11 Scheiben Glas

Bild: Toshiba

Jetzt hat auch Toshiba die 30-TB-Marke bei seinen Festplatten geknackt. Dafür wechselt der Hersteller auf gläserne Scheiben und bringt davon elf im mit Helium gefüllten 3,5″-Gehäuse unter. Damit werden 28 TB möglich. Durch überlappende Spuren (SMR) geht es hinauf auf bis zu 34 TB.

Fast zwei Jahre hat es gedauert bis Toshiba aus der ersten öffentlichen Demonstration des 11-Platter-Designs ein fertiges Produkt macht, während Western Digital bereits seit längerem elf Magnetscheiben einsetzt. Seagate wiederum ist bis 32 TB vorerst bei 10 Plattern geblieben

  • WD Red Pro 26 TB im Test: Elf Magnetscheiben gegen die Laser-Technik HAMR
  • Seagate IronWolf Pro 32 TB im Test: Die derzeit größte HDD für NAS-Systeme

Toshiba bestückt damit die neue Enterprise-HDD–Serie M12, die als Muster bereits ausgeliefert wird und fortan bei Hyperscalern und Cloud Service Providern (CSP) im Rechenzentrum eingesetzt werden soll.

Bei elf Scheiben wird auf Glas gewechselt

Gegenüber der MG11-Serie steigt die Zahl der Scheiben also von 10 auf 11. Das wird unter anderem durch einen Materialwechsel möglich: Statt aus Aluminiumsubstrat bestehen diese nun größtenteils aus Glas, „was dünnere Designs ermöglicht und die Langlebigkeit verbessert“, erklärt Toshiba.

Am Aufnahmeverfahren hat sich wiederum nichts geändert und so setzt Toshiba weiterhin auf das sogenannte Flux Control Microwave-Assisted Magnetic Recording (FC‑MAMR), bevor auch bei diesem Hersteller irgendwann das Heat Assisted Magnetic Recording (HAMR) zum Einsatz kommen wird. Für die Zukunft plant der Hersteller aber auch bereits mit 12 Plattern, was den Umstieg auf HAMR noch etwas hinauszögern könnte.

Start mit 30 bis 34 TB und SMR

Die ersten Muster der M12-Serie sollen Speicherkapazitäten von 30 TB bis 34 TB besitzen. Diese wird aber nur durch überlappende Datenspuren (Tracks) erreicht, was als Shingled Magnetic Recording (SMR) bekannt ist. Erst im dritten Quartal 2026 sollen Modelle mit konventionellen Spuren (CMR) erscheinen, die dann aber nur maximal 28 TB bieten.

Insbesondere beim zufälligen Schreiben kommt es mit SMR zu Leistungseinbußen. Diese sollen durch die „vom Host gemanagte SMR-Architektur, bei der das Hostsystem die Platzierung und das Neuschreiben von Daten organisiert“, gemildert werden.

Knapp unter 300 MB/s

Toshiba nennt zudem maximale Datentransferrate von 282 MiB/s, was umgerechnet rund 296 MB/s entspricht. Die MG11-Serie war allerdings schon bei knapp über 300 MB/s angelangt. Wie üblich sind die Server-HDDs für den Dauerbetrieb ausgelegt und besitzen ein Workload-Rating von jährlich 550 TB. Die MTBF wird mit 2,5 Millionen Stunden angegeben und die durchschnittliche jährliche Ausfallrate wird auf 0,35 Prozent beziffert.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Intel Arc B390 vs. Nvidia GeForce RTX 5060 Laptop GPU im Test


Was den zahlreichen Tests zur Leistung der Panther-Lake-iGPU, Intel Arc B390, bisher noch fehlte, war der Vergleich mit einer kleinen mobilen Nvidia GeForce RTX 5000 Laptop GPU. Hier ist er: Intel Arc B390 vs. Nvidia GeForce RTX 5060 Laptop GPU im Test.

Arc B390 vs. RTX 5060 Laptop GPU

Die Nvidia GeForce RTX 5060 Laptop GPU ist nicht die kleine mobile aktuelle Blackwell-GeForce von Nvidia, denn mit etwas Zeitversatz hatte Nvidia im Frühjahr 2025 auch noch eine GeForce RTX 5050 Laptop GPU in den Markt entlassen. Ein solches Muster liegt der Redaktion aktuell allerdings nicht vor.

Die GeForce RTX 5060 Laptop GPU bietet 30 Prozent mehr Shader, beim Speicher (8 GB GDDR7) und Speicherinterface (128 Bit) liegen beide gleich auf. Das gilt beinahe auch für die von Nvidia freigegebene TDP-Bandbreite, die bei der RTX 5050 Laptop GPU allerdings noch einmal 10 Watt niedriger ausfallen darf.

GeForce RTX 5000 Laptop GPU vs. RTX 4000 Laptop GPU im Vergleich

Testergebnisse

Die getestete Nvidia GeForce RTX 5060 Laptop GPU ist neben einem Core Ultra 9 386H im neuen Lenovo Yoga Pro 7i Gen 11 (Lenovo Store) verbaut.

Die Nvidia GeForce RTX 5060 Laptop GPU im Lenovo Yoga Pro 7i Gen 11
Die Nvidia GeForce RTX 5060 Laptop GPU im Lenovo Yoga Pro 7i Gen 11

Taktraten und TDP

Im höchsten Leistungsprofil stehen ihr laut Sensor-Daten durchschnittlich 79 Watt in den Benchmarks zu. Damit liegt sie ziemlich genau in der Mitte der von Nvidia definierten TDP-Bandbreite für die RTX 5060 Laptop GPU, die von 45 bis 125 Watt reicht (inklusive bis zu 25 Watt über Dynamic Boost 2.0, die vom Power-Budget der CPU kommen, wenn sie die Leistung nicht benötigt). Der durchschnittliche Takt liegt interessanterweise auf dem Niveau der aktuellen iGPUs von Intel.

Gaming-Benchmarks

Getestet wurde die GeForce RTX 5060 Laptop GPU im zuletzt schon für iGPUs genutzten Parcours. Nutzer dürften in der Praxis zwar etwas anspruchsvollere Settings fahren, als sie im Test zum Einsatz kamen, für einen Vergleich der beiden Plattformen bieten sie sich aber auch auf der GeForce noch an.

Im Durchschnitt kann sich die GeForce RTX 5060 Laptop GPU bei circa 80 Watt TDP um gut 61 Prozent von der schnellsten bisher getesteten Intel Arc B390 GPU (hohe TDP, kombiniert mit LPDDR5X-9600) absetzen. Die GeForce RTX 5050 für Desktop-PCs liegt noch einmal sieben Prozent voraus vor der RTX 5060 Laptop GPU. Im Vergleich zur kleinen Panther-Lake-iGPU „Intel Graphics“ ist der Leistungszuwachs durch den Einsatz der GeForce mit Faktor 3,7 enorm – die im Lenovo Yoga Pro 7i Gen 11 gewählte Kombination ergibt damit durchaus Sinn.

Leistungsrating Full HD

    • GeForce RTX 5050 8 GB
      Ryzen 7 9800X3D, 32 GB

    • GeForce RTX 5060 Laptop GPU 8 GB
      Yoga Pro 7i, „80 W GPU“, 8533

    • Ryzen AI Max+ 395 II
      Beelink GTR9 Pro, 120 W, 8000

    • Ryzen AI Max+ 395 I
      Beelink GTR9 Pro, 65 W, 8000

    • Core Ultra X9 388H I, Arc B390
      Zenbook Duo, „65 W“, 9600

    • Core Ultra X7 358H II, Arc B390
      Galaxy Book 6 Pro, „65 W“, 9600

    • Core Ultra X7 358H I, Arc B390
      Prestige 14 AI+, „65 W“, 8533

    • Core Ultra X9 388H II, Arc B390
      Zenbook Duo, „25 W“, 9600

    • Ryzen AI 9 HX 370 I
      SER9, „65 W“, 7500

    • Core Ultra 9 285H
      GTi15 Ultra, „65 W“, 5600

    • Ryzen AI 9 HX 370 II
      Zenbook S16, „24 W“, 7500

    • Core Ultra 9 386H I, Intel Graphics
      Yoga Pro 7i, Intel Graphics, 8533

    • Core Ultra 9 185H
      X14 Pro, „65 W“, 7500

Einheit: Prozent, Geometrisches Mittel

Nachfolgend sind die für den Test genutzten Einstellungen sowie die Einzelergebnisse aufgeführt:

Die Benchmark-Settings

Fazit

Nein, eine Nvidia GeForce RTX 5060 Laptop GPU mit nur circa 80 Watt TGP statt maximal erlaubten 115 + 25 Watt (Standard TDP + Dynamic Boost 2.0) ist für Intels Arc B390 in schnellster Ausführung nicht erreichbar. Etwas über 60 Prozent mehr FPS liefert die zweitkleinste mobile Blackwell-dGPU im Vergleich und fährt zugleich auch das umfassendere Featureset auf (CUDA, DLSS 4.5 etc.). Dafür genehmigt sich das Gesamtsystem aber auch deutlich mehr Leistung (47 Watt für Core Ultra 300 mit Arc B390 versus 79 Watt allein für die GeForce).

Auch eine noch weiter in der TDP gedrosselte RTX 5060 Laptop GPU wird einen deutlichen Vorsprung behalten, bei einer GeForce RTX 5050 Laptop GPU dürfte das nicht mehr der Fall sein. ComputerBase kann aktuell jedoch noch keine eigenen Benchmarks vorweisen, die das belegen.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.



Source link

Weiterlesen

Apps & Mobile Entwicklung

ChatGPT-Superapp und Agenten: Wie sich OpenAI aus der (öffentlichen) Misere befreien will


OpenAI hat jetzt offiziell die letzte Finanzierungsrunde abgeschlossen. Insgesamt sammelt der ChatGPT-Entwickler 122 Milliarden US-Dollar ein und kommt damit auf eine Bewertung von 852 Milliarden US-Dollar. Was eigentlich ein Erfolg ist, geht in dem chaotischen Bild unter, das OpenAI derzeit abgibt.

Chaos trotz des Erfolgs

Was man sich bei allen Fehleranalysen immer noch vor Augen halten muss: OpenAI hat mit ChatGPT einen Dienst, der laut der aktuellen Meldung zur Finanzierungsrunde vom 31. März auf mittlerweile mehr als 900 Millionen wöchentlich aktive Nutzer kommt und 50 Millionen zahlende Abonnenten hat. Die Finanzierungsrunde ist ein neuer Rekord. Rasant wächst auch der Umsatz, der derzeit bei 2 Milliarden US-Dollar pro Monat liegt.

Überschattet wird all das aber von der Unruhe rund um OpenAI. Eine Auswahl der Ereignisse aus den letzten sechs Wochen:

  • OpenAI hat kurzfristig das Ende des KI-Videogenerators Sora verkündet, eine 1-Milliarde-Dollar-Partnerschaft endete damit ebenfalls.
  • Chef Sam Altman soll laut einem Bericht von Reuters großen Finanzinvestoren eine Mindestrendite von 17,5 Prozent in Aussicht gestellt haben, was außergewöhnlich hoch ist. Als Hintergrund gilt der Wettstreit mit Anthropic.
  • Im Rahmen der Finanzierungsrunde intensivierte OpenAI die Partnerschaft mit Amazon. Das Ziel ist, mehr Cloud-Ressourcen zu erhalten. Microsoft als bisheriger Premium- und Exklusivpartner soll aber verärgert sein und eine Klage prüfen.
  • Erst wollte OpenAI keine Erotikinhalte für ChatGPT, dann sollte ein entsprechender Modus kommen, inzwischen wurde dieser nach mehrfachen Verzögerungen auf unbestimmte Zeit verschoben.
  • Der Pentagon-Deal entwickelte sich zum Debakel. Auch wenn Sam Altman versprach, bei KI-Massenüberwachung und autonomer Waffensteuerung vergleichbare Sicherheitsgarantien wie Anthropic durchzusetzen, wirkte es öffentlich eher, als wollte OpenAI auf die Schnelle ein verfügbares Abkommen abgreifen.
  • Das Stargate-Projekt schwächelt, beim Infrastruktur-Ausbau hinkt OpenAI den eigenen Zielen hinterher. Innerhalb des Projekts soll es laut The Information zudem Missstimmung zwischen OpenAI und Softbank geben.

Nervosität innerhalb von OpenAI stammt wohl vor allem aus dem intensiver werdenden AI-Wettrüsten. Im Dezember 2025 erklärte Sam Altman intern den Code Red, weil Googles Assistent Gemini aufholte. Aktuell ist Anthropic mit dem KI-Agenten Claude Code und Cowork der Rivale, der OpenAI vor sich hertreibt.

Noch in diesem Jahr sollen sowohl OpenAI als auch Anthropic an die Börse gehen. Es ist ein Wettlauf, bei dem ein neuer Rekord erwartet wird. Neben dem Prestige geht es also vor allem um Investorengelder, die nötig sind, um die Infrastruktur für den Betrieb der KI-Dienste und die Weiterentwicklung der Modelle zu finanzieren.

ChatGPT x Agent x Web-Browsing: Superapp offiziell bestätigt

Der Lösungsansatz soll nun eine AI-Superapp sein, die man im aktuellen Blog-Beitrag offiziell ankündigt. Vereinen soll diese Superapp ChatGPT, den Agenten Codex, das Web-Browsing und weitere Agenten-Fähigkeiten.

Laut OpenAI will man damit vor allem die Benutzeroberfläche vereinfachen. Fortschritte bei den Modellfunktionen sollen damit schneller die Nutzer erreichen. Ebenso soll das Firmengeschäft profitieren, wenn Nutzer eine im privaten Bereich vertraute Oberfläche auch im Unternehmen verwenden können.

Mangel an Computing-Power fordert Tribut

Begrenzender Faktor ist derzeit vor allem Computing-Power. Das merkt derzeit auch Anthropic. Zuletzt musste das Unternehmen die Nutzungslimits für den populären Agenten Claude Code zumindest in Stoßzeiten reduzieren. Bei der Anpassung gab es offenbar einen Bug. Nutzer berichteten, dass man mit einem Claude-Max-Abo für 200 Dollar im Monat teils weniger Kapazitäten habe als mit einem kostenfreien Plan. Anthropic prüft den Vorfall nun mit Hochdruck.

Eine Entwicklung, die zeigt: Nicht nur OpenAI hat Wachstumsschmerzen. Und es wirkt naheliegend, dass man einen KI-Videogenerator wie Sora beendet. Der sorgte zwar für virale Hypes, darüber hinaus wirkte es wie eine Entwicklung, die bei OpenAI ins Nirgendwo führte.

So lassen sich zumindest jüngste Äußerungen von OpenAI-Präsident Greg Brockman interpretieren. Er sagte im Interview mit Alex Kantrowitz, die GPT-Modelle wären der Weg zu einer Allgemeinen Künstlichen Intelligenz (engl. AGI). Sora war vielversprechend, aber technologisch ein anderer Weg. Angesichts knapper Computing-Kapazitäten war die Entscheidung daher nötig.

Ob GPT-Modelle tatsächlich der Weg zu AGI sind, ist in der Branche äußerst umstritten, berichtet The Decoder. Der Fokus auf weniger Apps soll bei OpenAI aber so oder so wieder die Qualität steigern. „Wir haben unsere Bemühungen auf zu viele Apps verteilt“, erklärte die für Anwendungen verantwortliche Direktorin Fidji Simo in der letzten Woche. Diese Fragmentierung will man nun aufheben.

Neue Top-Modelle sollen großen Sprung bringen

Spannend ist derzeit daher vor allem, wie der Wettkampf mit Anthropic im Bereich der Agenten weiter verläuft. Bei beiden Unternehmen werden in nächster Zeit neue und besonders leistungsstarke Modelle erwartet. Bei OpenAI trägt es den Codenamen Spud, laut The Informationen sollen die Trainingsläufe bereits abgeschlossen sein.

Ebenso interessant wird, wie sich die Fortschritte bei der Infrastruktur-Entwicklung auswirken. Bloomberg berichtet aktuell, die Hälfte der für 2026 erwarteten Rechenzentren-Projekte verzögern sich und wurden komplett gestrichen. Einer der Gründe ist der Mangel an elektronischen Komponenten wie Transformatoren. Hohe Energiepreise aufgrund des Iran-Kriegs sind ebenfalls ein Damoklesschwert für die Branche.



Source link

Weiterlesen

Beliebt