Apps & Mobile Entwicklung
TSMC in Europa: Eine französische AI-GPU als Aushängeschild
ComputerBase war auf dem TSMC OIP Ecosystem Forum in Amsterdam und konnte vor Ort einen Eindruck davon gewinnen, welche Themen TSMC, aber auch europäische Partner aktuell beschäftigen: Effizienz, Packaging – und einseitig mehr Unabhängigkeit. Ein AI-Beschleuniger mit 288 GB HBM3e aus Frankreich war hingegen für TSMC ein Vorbild.
ComputerBase trifft TSMCs Europa-Chef in Amsterdam
750 Milliarden US-Dollar schwer, so groß ist der Halbleitermarkt im Jahr 2025. Damit liegt er über allen Prognosen, selbst über denen, die erst wenige Jahre alt sind. Das Wachstum wird weltweit primär über Cloud und Datacenter realisiert.
In Europa sind es noch vorrangig klassische Themen wie IoT und Automotive, doch auch Datacenter darf inzwischen nicht mehr vergessen werden. Und bei Robotics hat Europa einen ziemlich guten Stand, erklärt Paul de Bot, TSMCs Europa-Chef, zum Auftakt des 2025 TSMC Europe Open Innovation Platform Ecosystem Forum.
TSMC trägt einen großen Anteil am weltweiten Halbleitermarkt. Die Veranstaltung in Amsterdam war dafür gedacht, den Auftragsfertiger mit Partnern und Kunden zusammenzuführen. Für Europa heißt dies vor allem zu zeigen, dass das Rad nicht noch einmal neu erfunden werden muss, es darf Know-how genutzt werden, welches bereits verfügbar ist. Das Motto: TSMC ist hier um zu helfen.
Klingt gut, ist für ein Europa, das eigenständiger werden möchte, aber durchaus auch ein Hindernis – das wurde in Amsterdam in Gesprächen klar. Die Kehrseite der Medaille: Allein dauert der Weg viel zu lange und die vermutete Kostenersparnis, die zu Anfang oft ein ausschlaggebendes Thema war, führte am Ende oft dazu, dass Produkte viel zu spät fertig geworden sind und dann eventuell überhaupt keine Chance mehr am Markt hatten. Denn wie umfangreich allein das Thema 3D-Stacking ist, zeigten weit über 200 Dokumente im EDA-Segment der Veranstaltung, die sich nur darum drehten.
„Think big, innovate fast .. and use our OIP ecosystem“, lautete daher der Aufruf von Paul de Bot. Auch das Verbleiben in einem Nischenmarkt sei keine Lösung, erläutert Bot im Gespräch mit ComputerBase weiter. Die Unterscheidung von anderen ist freilich weiterhin wichtig, aber ohne eine entsprechend schnelle Umsetzung sei sie am Ende wertlos.
AI-Beschleuniger mit 288 GB HBM3e aus Frankreich
Ein Beispiel ist das Unternehmen Vsora, dem TSMC in Amsterdam sogar die große Bühne als Teil der Keynote gab. Das französische Unternehmen war bisher eher IP-Lieferant für die Automotive-Industrie, hat dadurch aber so viel Wissen angesammelt, dass binnen kurzer Zeit ein eigener AI-Inference-Chip entwickelt wurde und dank des Ökosystems von TSMC nicht nur als 144 Milliarden Transistoren schwerer Chip in 5 nm bei TSMC gefertigt, sondern auch mittels CoWoS-S komplex in einem Package integriert wird: Acht Stacks HBM3e mit insgesamt 288 GByte inklusive.
Das Tape-out ist bereits erfolgt – andere Unternehmen wie Tachyum schaffen dies seit Jahren nicht. Nun soll schnellstmöglich die Marktreife erreicht werden.
CEO Khaled Maalej erklärt auf der Bühne, dass dies mit dem TSMC-Ökosystem mit Partnern wie Cadence, Synopsys, GUC und weiteren „einfach“ möglich sei. Entscheidender Faktor für einen AI-Beschleuniger dieser Art war das Packaging, erläuterte er. Dennoch ermutigte er, dass auch andere Unternehmen den Weg gehen können: Es brauche keine hunderte Millionen für die Entwicklung und viele hunderte Leute in einem Designteam um ein solches Produkt – mit TSMC – umzusetzen.
Über 11.000 Produkte von über 500 Kunden
TSMCs PR-Chefin ergänzt dazu, dass TSMCs Kundschaft auf über 500 Unternehmen angewachsen ist, also nicht nur aus Apple, Nvidia oder Qualcomm besteht. Nach wie vor sei das Unternehmen aktiv bestrebt, auch kleinen Firmen Platz einzuräumen, damit sie ihre Lösungen auf den Markt bringen können. Und schließlich hat Nvidia vor 27 Jahren auch einmal klein angefangen und bei TSMC als Neukunde angefragt. Über 11.000 verschiedene Produkte fertige TSMC derzeit.
Europa braucht aber dennoch ein, zwei oder drei große Firmen, nicht 27 kleine, die an der Weltspitze mitspielen wollen, betonte Paul de Bot. Wenn diese dann eine entsprechende Nachfrage erzeugen können, dann folgt auch der Rest. Dies schließt auch Produktionsstätten ein, wie bei TSMC aktuell sichtbar wird: Die Ausbauten in den USA und Japan, aber auch Deutschland sind Teil dieses Weges: Die Nachfrage ist da, also kommt auch die Produktion.
Für Deutschland bedeutet die Speciality-Fab, die TSMC zusammen mit Partnern in Dresden errichtet, ein Schritt in die Zukunft. Noch sind bei Automotive & Co primär 2D-Transistoren an der Tagesordnung, doch die klassischen Chips für die Branche entwickeln sich langsam von 65 nm über 40 nm zu 28 nm, 22 nm und noch kleineren Strukturen. Damit hält auch in diesem Bereich erstmals FinFET Einzug – ein Novum.
Die Lehre muss aufholen
Apropos FinFET. Wie TSMC im Gespräch ebenfalls deutlich machte, kommen auch auf die Universitäten und Lehranstalten neue Aufgaben zu. Viele lehren noch planare Transistoren, während TSMC im High-End-Bereich zu Nanosheets alias Gate all around übergeht und FinFETs seit über zehn Jahren an der Tagesordnung sind. Auch hier sei eine Aufholjagd nötig.
Hier setzt TSMC bereits auf AI
Über allem schwebte auch in Amsterdam AI, allerdings mit einem Fokus auf den Einsatz bei TSMC inklusive der Anmerkung, dass „AI“ als Machine Learning schon länger in den eigenen Prozessoren Verwendung findet. Aber der Einsatz von AI wird aktuell mit Hochdruck voran getrieben und hilft auch TSMC und Partnern, Produkte und Prozesse mitunter viel effizienter zu gestalten. Bei absoluten High-End-Chips ist das noch nur geringfügig der Fall, aber das Routing durch das Substrat via AI zu optimieren, kann laut TSMC bereits eine Steigerung um den Faktor 100 bei der Produktivität im Designprozess bedeuten. Für die kritische „time to market“ sei das extrem von Vorteil.
TSMCs Fokus rückt auf Effizienz
Die Welt lechzt nach mehr Leistung, gleichzeitig kommt dem Thema Effizienz – nicht zu verwechseln mit einer auch absolut sinkenden Leistungsaufnahme – eine stetig wichtigere Rolle zuteil. Denn wenn ein Bestandteil etwas weniger Strom verbraucht, lässt sich aus einem Gesamtpaket mehr Leistung herausholen.
Und das gilt nicht nur für AI-Beschleuniger in „Gigafabriken“, sondern beispielsweise auch für Chips für den Automotive-Markt. Dort werden mit fortschreitender Automatisierung Chips gefragt sein, die über 1000 TOPS an Leistung bieten, um Autonomes Fahren nach Level 4+ zu ermöglichen (siehe Nvidias Thor-Chip). Und dass die Ausstattung für Cockpit auf 300+ TOPS mitwächst, überrascht auch nicht.
Super Power Rail (Backside Power Delivery)
Die Roadmap, die TSMC in Amsterdam erneut bestätigt, geht mit dem Eintritt in das GAA-Zeitalter mit TSMC N2 derzeit einen weiteren Schritt in Richtung Effizienz, mit dem darauf folgenden A16 soll die Effizienz hingegen signifikante Fortschritte machen: Super Power Rail heißt die dafür eingesetzte Technologie bei TSMC und steht für die rückseitige Stromversorgung der Transistoren.
Packaging bleibt ein Erfolgsfaktor
Immer mehr Chips im Packaging zu stapeln, bleibt die zweite große Herausforderung und ein entscheidender Erfolgsfaktor der kommenden Jahre. Immer größere Interposer („Basisplatten“) mit zusätzlichem Platz für Chips und Speicher werden benötigt und auch von TSMC angeboten. Immer größere und immer bessere Interposer zu liefern, wird für den Erfolg eines Auftragsfertigers immer wichtiger werden.
CoWoS-L als aktuell fortschrittlichste Ausbaustufe für „Chips on Wafer on Substrate“ kann über diverse Parameter wie integrierte Spannungsregler (IVR) bereits angepasst werden. Dazu wird die Kapazität der Embedded Deep Trench Capacitors (eDTC) direkt im Silizium oder Interposer stetig erhöht, die Fluktuationen abfangen. Und wenn CoWoS nicht reicht, bleibt auch das System on Wafer (SoW) eine Option für die Zukunft, die eventuell bald öfter anzutreffen sein könnte.
TSMCs Interposer sind gefragt
TSMC hat auf diesem Feld in der Tat viel Expertise vorzuweisen. So kommt es letztlich nicht von ungefähr, dass Speicherhersteller in Kürze ihre Base-Dies (Interposer) für HBM wohl fast alle von TSMC beziehen werden. Vor allem die zweite Generation HBM4 als Custom-Lösung (C-HBM4E) verspricht viel Potenzial um Kundenwünsche noch spezifischer umzusetzen – und alle Speicherhersteller haben diese Technologie deshalb auf ihren Roadmaps. Auch Compute in Memory (CIM) wird in Zukunft deutlich effizienter und so vielleicht etwas für einen breiteren Markt.
Silicon Photonics
Neben der „Memory Wall“, also der Speicherbandbreite als ein Hindernis bei der AI-Skalierung, ist Silicon Photonics eines der Zukunftsthemen – und deshalb auch in Amsterdam bei TSMC wieder präsent. Silicon Photonics (die Verbindung von Chips über Lichtleiter) hat noch viel Optimierungsspielraum in Hinblick auf die Effizienz. Es kommt dabei sehr auf die Umsetzung an. Wird es nur angeflanscht, oder direkt auf dem Package oder ist es gar voll integriert? Die Antwort auf die Frage macht durchaus einen gewaltigen Unterschied bei der Effizienz.
Die Komplexität wächst enorm
Der Komplexitätszugewinn bei neuen Produkten, die auf derartige Technologien setzen, ist jedoch nicht zu unterschätzen, erklärten führende TSMC-Ingenieure auf der Bühne: Noch mehr Integration, höhere Stromstärken und dadurch Wärmequellen, die Stromversorgung durch mehrere Lagen Chips – Standardisierung kann helfen, der Komplexität Herr zu werden und TSMC arbeitet mit Partnern unter Hochdruck daran.
Denn vor allem sind es Partnerlösungen, mit denen es am Ende Probleme geben kann, weil Grenzfälle auftauchen, die zuvor ohne Gesamtkonstrukt nicht zu sehen waren oder limitierten. In einem Partnergespräch wurde hier unter anderem AMDs X3D-Lösung genannt. Das Stapeln der Chips war im Endeffekt – einmal gelöst – kein Problem, doch dann kam das Problem der thermischen Isolation des CPU-Dies durch den L3-Cache-Die bei der 1. und 2. Generation X3D-CPUs auf. Die Problemlösung ab der neuen Generation in Ryzen 9000 war bekanntlich, den L3-Cache von der Ober- auf die Unterseite zu legen, der Hotspot CPU wurde nun nicht mehr nach oben hin zum Kühler abgeschirmt.
Weitere Vorträge in Amsterdam deckten ein breites Feld ab, in denen Partner über ihre Möglichkeiten und Herangehensweise an bestimmte Probleme sprachen und sie zumindest zum Teil auch offenlegten. Dabei ging es von kleinsten Schnittstellen noch im Designprozess bis hin zum Finalisieren eines zukünftigen Produkts, welches bald in den Markt eintritt, wie beispielsweise LPDDR6-14400 oder auch Qualcomms Ausführungen zur Entwicklung eines kommenden Chips der die N2/N2P-Fertigungstechnologie nutzt, die sich von bisherigen FinFETs eben mitunter doch deutlich unterscheidet.
An TSMC führt aktuell kaum ein Weg vorbei
Alles in allem wurde in Amsterdam einmal mehr das Offensichtliche sichtbar: TSMC ist derzeit der unangefochtene Platzhirsch unter den Chip-Auftragsfertigern. Und das gilt inzwischen nicht mehr nur für die reine Belichtung der Wafer, sondern auch und insbesondere für das, was mit den einzelnen Chips auf einem Package dann noch umgesetzt werden kann.
ComputerBase wurde von TSMC zum Europe Open Innovation Platform Ecosystem Forum in Amsterdam eingeladen. Das Unternehmen übernahm dabei die Reisekosten. Eine Einflussnahme des Unternehmens auf den Bericht fand nur insofern statt, dass keine eigenen Fotos und Videos erstellt werden durften. Im Nachgang sollte Material durch TSMC bereitgestellt werden. Dazu kam es mit Verweis auf „Qualitätsprobleme“ am Ende nicht. Der Bericht muss daher ohne Fotos von der Veranstaltung auskommen. Eine Verpflichtung zur Veröffentlichung bestand nicht.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Apps & Mobile Entwicklung
DDR5, LPDDR5X, GDDR7: Samsungs DRAM hat doppelt so hohe Margen gegenüber HBM

Zuletzt schon vermeldet untermauern weitere Medienberichte dies nun: Samsung wird viel mehr DRAM fertigen, (auch) weil die Margen sehr hoch sind. Die Zahlen gehen dabei in eine Richtung, die zuletzt schon spekuliert wurden: Um die 75 Prozent könnten es vor allem bei Serverspeicher nun werden, Tendenz steigend.
Die explosionsartig gestiegene Nachfrage nach klassischem Arbeitsspeicher ist ein (Geld-)Segen für Samsung. Vor allem Arbeitsspeicher für Serversysteme, also DDR5 als RDIMM, rechnet sich. War er ohnehin schon stets etwas teurer als DDR5 für Consumer, werden mit ihm ab Anfang 2026 rekordverdächtige Margen eingefahren. Der Durchschnittspreis für ein 64-GByte-Modul soll dann jenseits der 500-US-Dollar-Marke rangieren, zuletzt wanderte der tagesaktuelle Spotpreis mitunter schon auf 780 US-Dollar, während der Durchschnittspreis noch bei 450 US-Dollar lag.
Die Margen sollen schon jetzt bei um die 75 Prozent liegen, mit der Tendenz zu weiteren Steigerungen. Samsung plant deshalb, zusätzliche Kapazitäten für klassischen DRAM freizumachen, was neben DDR5 auch die Verfügbarkeit von LPDDR5X und GDDR7 verbessern soll. Wie bei SK Hynix vermeldet soll dabei auch eine Aufrüstung der Produktionsanalgen vom 1a-Prozess auf neuere helfen. Die Rede ist von bis zu 80.000 Wafern zusätzlicher Kapazität, die so im Monat bereitstehen könnten.
Bei HBM konzentriert sich das Unternehmen voll auf HBM4. Samsung war bekanntlich viel zu spät im Geschäft mit HBM3E. Dies musste am Ende teuer erkauft werden, denn nun versuchte der südkoreanische Mischkonzern SK Hynix zu unterbieten. Preislich gesehen ist Samsung HBM3E laut Medienbericht nun bis zu 30 Prozent günstiger als der HBM von SK Hynix, doch Langzeitverträge verhindern hier unter anderem einen Durchbruch. Zudem wird erwartet, dass HBM3E ohnehin ab 2026 günstiger wird, da der Fokus zu HBM4 schwenkt – für Samsung gibt es bei HBM3E nicht mehr viel zu gewinnen. Während SK Hynix so bisher auch Margen über 60 Prozent mit HBM einfährt, sind es bei Samsung nur um die 30 Prozent. Dies Aussagen wurden zuletzt durch ähnliche Berichte bereits deutlich.
Apps & Mobile Entwicklung
Neues Hilfsprogramm soll Menschen entlasten, die beim Heizen an ihre Grenzen stoßen
Immer mehr Haushalte kämpfen mit explodierenden Heizkosten – manche lassen ihr Zuhause sogar bewusst auskühlen. Neue Daten zeigen das ganze Ausmaß der Belastung. Gleichzeitig kündigt sich erstmals gezielte Unterstützung für Betroffene an.
Vielleicht kennt Ihr dieses Gefühl gerade selbst: Die Heizung läuft niedriger als Euch eigentlich lieb ist, weil die nächste Rechnung im Hinterkopf sitzt. Genau damit seid Ihr nicht allein – im Gegenteil. Eine aktuelle Auswertung zeigt, wie viele Menschen inzwischen im eigenen Zuhause frieren. Doch erstmals reagiert ein großer Energieversorger mit gezielter Unterstützung, die genau dort ansetzt, wo der finanzielle Druck am stärksten ist
Jeder Zehnte konnte die letzte Heizrechnung nicht zahlen
Die neue Auswertung von Octopus Energy und Civey zeigt eine alarmierende Entwicklung: Etwa die Hälfte aller Deutschen heizt aktuell weniger, als sie es für angenehm halten würde. Und der Grund ist klar – die Sorge vor den Kosten. Besonders eindrücklich: Jeder Fünfte verzichtet dauerhaft auf die Wunschtemperatur, und ein Viertel zumindest teilweise. Damit ist klar, dass die steigenden Heizkosten längst nicht nur die finanziell Schwächsten treffen, sondern mitten im Alltag der Mittelschicht angekommen sind.

Noch deutlicher wird das Bild, wenn man auf die Zahlungsfähigkeit blickt: Jeder Zehnte konnte seine Heizkosten in den vergangenen zwei Jahren nicht oder nur verspätet zahlen. Ein Drittel musste an anderer Stelle spürbar sparen, um die Rechnungen zu begleichen. Besonders stark betroffen sind Mietende: Mit 29 Prozent ist der Anteil derjenigen, die dauerhaft frieren müssen, mehr als doppelt so hoch wie bei Hauseigentümern.
Und wenn es um Unterstützung geht, ist das Bild eindeutig: Die meisten Menschen sehen die Verantwortung nicht beim Vermieter, sondern bei der Politik und den Energieversorgern. Genau hier setzt nun ein neues Hilfsprogramm an, das vielen Betroffenen spürbare Entlastung versprechen soll.
Octopus Energy startet Hilfsprogramm über 1 Million Euro
Auf Basis der alarmierenden Ergebnisse hat Octopus Energy das neue Hilfsprogramm „OctoHilfe“ angekündigt. Der Energieversorger greift dabei auf Erfahrungen aus Großbritannien zurück: Dort wurden unter dem Programm „Octo Assist“ bereits über 100.000 Haushalte mit insgesamt 45 Millionen Euro unterstützt. Die bald startende Maßnahme soll gezielt jenen helfen, die unter den hohen Energiekosten besonders leiden.
Die Unterstützung umfasst mehrere Bausteine – von direkter finanzieller Entlastung über den Erlass von Grundgebühren bis hin zu flexiblen Zahlungsplänen und individueller Energieberatung. Interessierte können sich bereits jetzt auf der Webseite registrieren, um den Start der Antragsphase nicht zu verpassen.
Octopus-CEO Bastian Gierull betont dabei die gesellschaftliche Dimension: „Energiearmut trifft in Deutschland vor allem Menschen, die keine Stimme in der Öffentlichkeit haben. Als Energieversorger können wir zwar helfen, aber den Kern des Problems muss die Politik lösen.“ Vor allem fordert er faire Preise und ein Marktmodell, das die finanziell Schwächsten nicht zusätzlich belastet.

5.000 kostenlose Heizdecken – viertes Jahr in Folge
Parallel zur neuen Initiative läuft ein weiteres Hilfsprojekt bereits im vierten Jahr: Octopus Energy verschenkt mehr als 5.000 Heizdecken an bedürftige Kundinnen und Kunden. Die elektrischen Decken benötigen rund 4 Cent pro Stunde – eine extrem günstige Möglichkeit, zumindest punktuell für Wärme zu sorgen, ohne gleich das ganze Zuhause aufzuheizen.
Der Bedarf dafür ist enorm: Mehr als 60.000 Menschen haben sich in diesem Jahr bereits um eine der Decken beworben. Gerade für Haushalte, die im Winter bewusst frieren, kann eine solche Unterstützung einen spürbaren Unterschied machen.
Fazit: Erste Hilfe – doch das Grundproblem bleibt
Die neuen Daten zeigen klar, wie sehr die hohen Heizkosten inzwischen in den Alltag vieler Menschen eingreifen. Wenn jeder Fünfte in den eigenen vier Wänden friert und jeder Zehnte Rechnungen nicht mehr zahlen kann, geht es längst nicht mehr um Einzelfälle – sondern um ein strukturelles Problem.
Programme wie die „OctoHilfe“ oder die Aktion mit den Heizdecken schaffen kurzfristige Entlastung und können genau dort unterstützen, wo die Not am größten ist. Doch dauerhaft müssen Energiepreise sinken und faire Rahmenbedingungen entstehen – sonst bleibt das Frieren für viele ein wiederkehrender Wintergast.
Apps & Mobile Entwicklung
Herder-Supercomputer: Hunter-Nachfolger in Stuttgart setzt auf Zen 6 und MI430X

Der Hunter-Nachfolger Herder setzt am HLRS in Stuttgart ab 2027 erneut voll auf AMD. Dafür paart das System Venice-CPUs mit Instinct MI430X. Wie im Sommer beim ComputerBase-Besuch versprochen hat das Institut zusammen mit AMD und HPE, die die Blades dann zu einem Supercomputer zusammenbauen, noch 2025 Details bekannt gegeben.
Hawk -> Hunter -> Herder
Hunter ist am staatlich betriebenen Höchstleistungsrechenzentrum Stuttgart (HLRS) der Nachfolger von Hawk, die Vorstellung erfolgte Ende 2023. Hunter ist dabei nur ein Zwischenschritt auf dem Weg zu Herder, mit dem die Leistung am Standort weiter deutlich steigen soll. Herder geht offiziell 2027 in Betrieb, Hunter soll dann direkt heruntergefahren werden.
Viel schneller – aber auch viel energiehungriger
Denn Herder ist noch einmal deutlich schneller und effizienter unterwegs. Die AMD Instinct MI300A als „übergroße APU“ in Hunter sind bekanntlich ziemlich speziell, zumal sie in Hunter auch nur einen Teil des Gesamtsystems ausmachen. Neben 752 AMD Instinct MI300A gibt es da nämlich auch noch 512 AMD Epyc 9374F.
In Herder übernehmen wieder klassisch CPUs vom Typ AMD Epyc Venice mit neuen Zen-6-Kernen und und GPUs vom Typ Instinct MI430X. Damit steigt der Energieverbrauch des Gesamtsystem jedoch auch deutlich an, die CPUs rangieren im Normalfall bei 400 bis 500 Watt, und Instinct MI430X dürfte irgendwo im 2.000-Watt-Umfeld spielen, nachdem zuletzt MI455X anscheinend in die Region 2.500 Watt befördert wurde.
AMD Instinct MI430X bietet 432 GByte HBM4 und wurde von AMD erst vor einem Monat offiziell bestätigt. Der Beschleuniger weicht doch etwas von den klassischen AI-Beschleunigern ab: Denn statt nur FP8 und FP4 oder andere kleine Formate mit maximalem Fokus zu unterstützen, ist diese Lösung explizit auch noch für FP64 gedacht. MI430X ist also ein klassischer HPC-Beschleuniger.
Verpackt werden die CPUs und Beschleuniger in HPEs neuem Baukasten-System Cray Supercomputing GX5000. Dabei dürfte es sich um die Ausführung „HPE Cray Supercomputing GX350a Accelerated Blade“ handeln, die explizit eine Venice-CPU mit vier MI430X paart. 28 dieser Blades passen laut HPE in ein Rack, 112 MI430X sind dann in einem Kasten verbaut. Hinzu gesellt sich das HPE Cray Storage System E2000, HPE Slingshot 400 übernimmt als Netzwerk. Das System ist zu 100 Prozent wassergekühlt.
Da die passenden neuen Blades erst ab 2027 verfügbar sind und ausgeliefert werden, kann auch Herder nicht früher gebaut werden. Laut aktuellem Plan soll er aber noch Ende 2027 in Betrieb gehen können. Stehen wird das System im Neubau HLRS III, direkt nebenan des Gebäudes, in dem Hunter steht. Die Abwärme von dort soll vollständig für den Universitätscampus in Stuttgart genutzt werden.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
