Apps & Mobile Entwicklung

Nvidia, Telekom, SAP: Deutsche KI-Cloud mit 10.000 GPUs geht Anfang 2026 online


Nvidia und Telekom hatten im Juni ihre Pläne einer 10.000 GPU starken „Industrial AI Cloud“ in Deutschland bekannt gegeben. Heute haben die Partner erklärt, dass sie im ersten Quartal 2026 mit dem neuen Datacenter-Standort bei München online gehen wollen. Damit werde die AI-Kapazität in Deutschland um 50 Prozent gesteigert.

Jetzt gibt es keine Ausreden mehr“, sagte Timotheus Höttges, CEO der Deutschen Telekom, zum Termin in Berlin und meinte damit die deutsche Industrie, die mit der „Industrial AI Cloud“ in Deutschland jetzt nicht mehr argumentieren könne, dass es hierzulande keine souveränen KI-Kapazitäten gebe. Es folgten dramatisch Worte: „Deutschland wird nicht überleben, wenn wir diese neue Technologie nicht nutzen.

Deutsche KI-Kapazität um 50 Prozent steigern

Der Aufbau eines Datacenters mit 10.000 GPUs steigere die AI-Kapazität in Deutschland auf einen Schlag um 50 Prozent, erklärten die Partner. In Europa stünden derzeit lediglich 5 Prozent der globalen GPU-Leistung für Künstliche Intelligenz. In den USA hingegen 70 Prozent, in China 14 Prozent. Diesen Rückstand will die Deutsche Telekom reduzieren. Für das Projekt haben die Partner 1 Milliarde Euro in die Hand genommen. Von der Idee bis zum Launch sei nur ein halbes Jahr vergangen.

Startschuss im ersten Quartal 2026

Nachdem Nvidia zuerst zur Computex im Juni in Aussicht gestellt hatte, dass Deutschland eine „Industrial AI Cloud“ bekommen wird, folgte wenige Tage später die offizielle Ankündigung der Kooperation mit der Deutschen Telekom.

Jensen Huang mit Tim Höttges in Berlin

Jetzt ist bekannt, dass das Datacenter bei München aufgebaut wird und im Laufe des ersten Quartals 2026 für Kunden online gehen soll. Soweit bekannt ist, wurde als Standort der Tucherpark im Stadtteil Schwabing-Freimann gewählt. Dort ist die „Industrial AI Cloud“ mehrere Stockwerke unter der Erde an einem ehemaligen Datacenter-Standort der Hypovereinsbank entstanden. Die Kühlung soll dabei unter anderem über den Eisbach erfolgen, der parallel zur Isar durch den Tucherpark fließt.

Telekom setzt auf DGX B200 und RTX Pro Server

Die Telekom hat sich bei ihrer „Industrial AI Cloud“ für „mehr als tausend“ Nvidia DGX B200 und RTX Pro Server entschieden. Die noch dichter gepackten GB200- und GB300-Racks, die ausschließlich mittels Wasserkühlung betrieben werden können, sind demnach nicht für den Standort gewählt worden.

DGX B200 ist die weniger dicht gepackte, luftgekühlte x86-Plattform von Nvidia, bei der sich ein Node aus zwei Xeon Platinum 8570 und acht Nvidia B200 zusammensetzt – acht Packages und demnach 16 GPU-Dies. Bis zu 72 PFLOPS für das Training und 144 PFLOPS für das Inferencing stellt eines dieser Systeme bei einem Energiebedarf von bis zu 14,3 kW zur Verfügung. Bei den RTX Pro Servern handelt es sich um luftgekühlte Systeme mit acht RTX Pro 6000 Blackwell Server Edition via PCIe.

Tim Höttges und Jensen Huang neben einem DGX B200

12 Megawatt aus erneuerbaren Energien

Den Energiebedarf des Rechenzentrums bezifferte Höttges mit 12 Megawatt, die vollständig aus erneuerbare Energien stammen sollen. Die Deutsche Telekom betreibt und least derzeit insgesamt 184 Rechenzentren mit einem Energiebedarf von 390 MW.

Deutsche KI-Souveränität mit US-Technologie

Geschaffen werden soll eine digitale Infrastruktur für öffentliche Einrichtungen und innere Sicherheit. Die physische Infrastruktur stellt die Deutsche Telekom, während SAP die eigene Business Technology Platform und Anwendungen beisteuert. Von einem „Deutschland-Stack“ und deutscher KI-Souveränität war zur Ankündigung die Rede. Darauf sollen künftig alle digitalen Lösungen für die genannten Zielgruppen entwickelt werden. Während die Technologie aus den USA und Deutschland stammt, soll der Betrieb in deutscher und europäischer Hand liegen. Die Daten sollen jedoch vollständig in Deutschland verbleiben.

Wie die Telekom deutsche KI-Souveränität definiert

Kunden aus dem B2B- und B2C-Segment

Passend dazu wurden heute die ersten Kunden und Nutzer der „Industrial AI Cloud“ genannt. Das sind im B2B-Sektor Siemens, Agile Robots, Wandelbots, PhysicsX und EY. Mit Quantum Systems ist zudem ein deutscher Hersteller von zivilen und militärischen Überwachungsdrohnen vertreten. Und im B2C-Segment schafft die Deutsche Telekom mit dem Datacenter neue Inferencing-Kapazitäten für den AI-Anbieter Perplexity.

Stage 2 folgt mit 100.000 GPUs

Das Datacenter bei München bezeichnet die Deutsche Telekom als „Stage 1“ Perspektivisch soll im Rahmen der „Stage 2“ und des europäischen „AI Continent Action Plan“ eine „German AI Gigafactory“ mit 100.000 GPUs entstehen. Neben der Deutschen Telekom, Nvidia und SAP werde dafür ein Infrastrukturpartner ins Boot geholt, sagte Höttges. Konkrete Details zur deutschen Gigafactory waren heute allerdings noch kein Thema.

Stage 2 sieht 100.000 GPUs vor



Source link

Beliebt

Die mobile Version verlassen