Künstliche Intelligenz
Herder: Die Hardware für Stuttgarts nächsten Supercomputer steht fest
Das Höchstleistungsrechenzentrum der Universität Stuttgart (HLRS) hat sich auf die Komponenten seines nächsten Supercomputers Herder festgelegt. Erneut kommt er mit Prozessoren und GPU-Beschleunigern von AMD; dieses Mal allerdings wieder in getrennter Form.
Weiterlesen nach der Anzeige
Nach aktueller Planung bekommt Herder 1488 Beschleuniger aus AMDs kommender 400er-Generation vom Typ Instinct MI430X, gepaart mit 372 Epyc-Prozessoren vom kommenden Typ Venice. Es ist der erste Prozessor mit Zen-6-Architektur und 2-Nanometer-Technik des Chipauftragsfertigers TSMC. Im bisherigen System Hunter sitzen noch Instinct-MI300A-Beschleuniger, die CPU und GPU auf einem einzelnen Träger vereinen.
Jede Instinct MI430X kommt mit 432 GByte High-Bandwidth Memory (HBM4), der 19,6 TByte/s überträgt. Das ergibt systemweit knapp 643 TByte HBM4, zuzüglich des DDR5-RAMs für die Epyc-CPUs. Die Menge an DDR5-RAM ist noch nicht bekannt.
Je zwei CPUs und acht GPUs stecken auf einem Mainboard aus der neuen Cray-GX5000-Plattform von HPE. Herder bekommt eine Flüssigkeitskühlung, deren Abwärme zur Heizung des Vaihinger Campus der Universität Stuttgart genutzt wird.
Bau im Jahr 2027
Unterm Strich stellt Herder einen kleinen Bruder des US-amerikanischen Exascale-Systems Discovery dar. Das HLRS muss allerdings nicht ganz so lange warten: HPE beginnt in der zweiten Jahreshälfte 2027 mit dem Bau. Bis Ende 2027 soll das System betriebsbereit sein.
Das Zentrum prognostiziert, dass die Spitzenleistung von Herder gegenüber dem aktuellen System Hunter um mindestens den Faktor 7 steigt. Das entspräche mindestens 340 Petaflops im doppeltgenauen Datenformat FP64 (Gleitkommawerte mit 64 Bit Genauigkeit). Für KI-Anwendungen liegt die Rechenleistung deutlich darüber, weil da simplere Datenformate wie FP8 und INT8 (8-bittige Ganzzahlen) genügen.
Weiterlesen nach der Anzeige
Als Einsatzfelder sieht das HLRS Computerwissenschaft, Ingenieurwesen, Physik, Chemie, Klimawissenschaft und Biomedizin.
Die Kosten belaufen sich auf rund 100 Millionen Euro. Das Bundesministerium für Forschung, Technologie und Raumfahrt sowie das Ministerium für Wissenschaft, Forschung und Kunst des Landes Baden-Württemberg übernehmen die Kosten.
(mma)
Künstliche Intelligenz
TDWI München 2026: Vorträge für die Konferenz zu Data, Analytics und KI gesucht
Vom 23. bis 25. Juni 2026 findet die TDWI München statt. Die Konferenz hat sich als Wissensdrehscheibe und Netzwerkplattform für die Daten-Community etabliert.
Weiterlesen nach der Anzeige
Bis Ende Januar 2026 sucht der Veranstalter heise conferences nach Vorträgen für die TDWI München zu Themen von Datenarchitektur und Strategie über Data Science und KI bis zur Datenkultur.
Ein Programmbeirat aus Fachexpertinnen und -experten kuratiert das Programm und sucht aus den Einreichungen etwa 120 Vorträge für die TDWI München aus.
Programm mit 12 Tracks
Der Call for Contributions ist bis zum 26. Januar 2026 geöffnet. Die Konferenz bietet zwölf thematische Tracks. Als neue Schwerpunkte kommt 2026 Industrial Data & AI hinzu. Daneben gibt es unter anderem folgende Tracks:
- Data Architecture
- Data Management
- Data Culture
- Data Science & AI
- Data Strategy & Data Governance
- Self-Service BI & Analytics
- Branchentrack Finanzindustrie
Projekterfahrungen und -berichte sind ebenso gewünscht wie Trends und Ausblicke zu den Themen der TDWI München. Wer mit einem Vortrag auf der Konferenz dabei sein möchte, aber noch keine Speaker-Erfahrung hat, hat die Chance, auf einen Mentor aus der Community zurückzugreifen.
Anwenderstorys sind besonders gern gesehen. Die Programmgestalter freuen sich zudem über Vorträge zu innovativen Formaten. So gab es in den letzten Jahren beispielsweise eine Chess Clock Debate und ein Dashboard-Karaoke.
Weiterlesen nach der Anzeige
(rme)
Künstliche Intelligenz
Missing Link: Hubble Deep Field – ein Foto und seine Geschichte
Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.
Weiterlesen nach der Anzeige
Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.

Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.
Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.
Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.

Das Hubble Deep Field aus dem Jahr 1995
(Bild: NASA)
Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.
Idee der 1970er Jahre
Weiterlesen nach der Anzeige
Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.
Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.
1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.
Künstliche Intelligenz
ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test
Lenovos ThinkBook Plus G6 Rollable ist ein Hingucker, weil es nur auf den ersten Blick ein normales Notebook ist. Drückt man eine Sondertaste neben F12, so fährt das Notebook seinen Bildschirm motorisiert nach oben aus. Er gewinnt dadurch in etwa nochmal die Hälfte an zusätzlicher Höhe. Das funktioniert dank eines flexiblen OLED-Displays.
Anders als herkömmliche Monitore benötigt es keinen mehrlagigen Schichtaufbau mit starrer Hintergrundbeleuchtung, sondern lässt sich auf flexiblen Folien fertigen. Gerätehersteller benutzen diese technische Besonderheit für Smartphones mit faltbaren Displays, aber auch für Gaming-Bildschirme, die man jederzeit zwischen planer und gekrümmter Oberfläche umbauen kann. Das ThinkBook Plus G6 Rollable hat auch keine nervige Unterbrechung der Bildfläche, die man bei bisherigen Dual-Display-Notebooks zwangsläufig antrifft.
Anders als dort muss man obendrein keine Kompromisse bei den Eingabegeräten hinnehmen. Sie sind in gängiger Position fest im Rumpf verbaut: Tastatur hinten, Touchpad mittig davor. Dies ist bei Notebooks mit ungewöhnlichen oder mehreren Bildschirmen keinesfalls selbstverständlich. Dort sind abnehmbare Bluetooth-Tastaturen gängig oder welche, die ganz nach vorne gezogen sind und die Handballenablage verdrängen.
Das war die Leseprobe unseres heise-Plus-Artikels „ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Datenschutz & Sicherheitvor 3 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 3 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Entwicklung & Codevor 3 WochenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Social Mediavor 3 MonatenSchluss mit FOMO im Social Media Marketing – Welche Trends und Features sind für Social Media Manager*innen wirklich relevant?
