Connect with us

Künstliche Intelligenz

HPE baut Nachfolger für Supercomputer Frontier mit AMD-Technik und MI430X


Weiterlesen nach der Anzeige

Der per Ausschreibung rund 500 Millionen US-Dollar teure Supercomputer Discovery soll im Oak Ridge National Laboratory (ORNL) stehen und wird wie schon sein Vorgänger Frontier von HPE gebaut. Vor gut einem Jahr lief die Einreichungsfrist für das Projekt OLCF-6 ab. Nun ist HPE als Gewinner der Ausschreibung benannt weorden.

Wahrscheinlich ab Ende 2027 oder Anfang 2028 wird der neue Supercomputer betriebsbereit sein. Er setzt wie der aktuelle Top500-Zweite Frontier auf AMD-Hauptprozessoren, die KI-Beschleuniger vom Typ Instinct MI430X flankieren. Wie viele jeweils verbaut werden, ist noch nicht bekannt. Interessanterweise sieht man auch hier offenbar keine ausreichenden Vorteile der APU-Konfiguration, sondern geht den klassischen Weg getrennter CPUs und Beschleuniger. Mit Zen-6-Architektur erwarten wir allerdings auch einen Nachfolger der MI300A-APU, vielleicht als MI400A.

Fest steht jedoch, dass Discovery auf Basis der HPE Cray Supercomputing GX5000 entsteht und ein KI-optimiertes Speichersystem (HPE Cray Supercomputing Storage Systems K3000) mitbringen wird. Das arbeitet mit reinen Flash-Speichern und ist laut Hersteller das erste kommerziell hergestellte Speichersystem auf Basis von Distributed Asynchronous Object Storage (DAOS).

Zuvor kam DAOS beim Aurora-Supercomputer von Intel zum Einsatz. Bereits im Aurora schaffte das 230 PByte fassende Speichersystem eine Transferrate von mehr als 31 TByte/s, wohingegen das Lustre-Storagesystem „Eagle“ für die großen Datenmengen immerhin 650 GByte/s übertrug. Die IOPS-Leistung stieg im Vergleich zum E2000-Storage-Rack von 54 auf 75 Millionen IOPS.

Dass HPE diese Technik in den Massenmarkt bringt, liegt auch daran, dass das gesamte DAOS-Team von Intel zu HPE wechselte. Basis für die K3000-Racks werden ProLiant-Server-Lösungen sein, die HPE vorab aber noch nicht genau spezifizieren wollte.

Weiterlesen nach der Anzeige

Die neue Serverschrank-Generation setzt auf eine verbesserte Flüssigkeitskühlung und kompaktere Bauweise. Die neue Kühlung erfasst nicht nur CPUs, Beschleuniger und Speicher, sondern nahezu alle nennenswert wärmeerzeugenden Bauteile inklusive der Netzwerkinfrastruktur. Dadurch konnte HPE die Breite der Racks von 2,1 Metern auf 1,35 Meter für je ein Compute- und ein Kühlungs-Rack senken und will so 25 Prozent mehr Racks in die vorhandenen Räumlichkeiten bringen. Die einzelnen Schränke nehmen Hardware mit einer elektrischen Leistung von jeweils 400 bis 600 kW auf. Zurzeit sind maximal etwa 150 kW üblich.

Darüberhinaus konnte HPE die mögliche Leistungsaufnahme pro Compute-Blade von 11 auf mehr als 25 Kilowatt anheben. Das Wasser muss vor dem erneuten Durchlauf jetzt nicht mehr auf 32, sondern nur noch auf 40 Grad Celsius heruntergekühlt werden. Das erhöht die Energieeffizienz des gesamten Systems – ebenfalls eine Anforderung der OLCF-6-Ausschreibung und laut HPE auch ein wichtiger Punkt speziell für europäische Kunden.

Außerdem ermöglicht die neue Kühlung jetzt auch eine Mischbestückung einzelner Schränke mit Compute-Blades unterschiedlicher (elektrischer) Leistung, da der Durchfluss pro Compute-Blade separat geregelt werden kann.

Erste Systeme auf Basis der GX5000 werden laut HPE für Anfang 2027 erwartet.

Etwas weniger spannend ist der ebenfalls bewilligte ORNL-KI-Cluster „Lux“. Er nutzt bereits verfügbare Technik, darunter AMD Epyc-CPUs, Pensando-Netzwerkkarten (ebenfalls von AMD) und die MI355X-Beschleunigerkarten. Lux wird dazu HPEs Proliant Compute-Server XD685 nutzen.

Dass Lux nicht als bahnbrechendes System konzipiert ist, wird bereits in dessen Ankündigung deutlich. Während Discovery neue wissenschaftliche Horizonte ermöglichen soll, ist bei Lux lediglich die Rede davon, mehr Wissenschaftlern den Zugang zu spezialisierten KI-Ressourcen zu ermöglichen.


(csp)



Source link

Künstliche Intelligenz

Das kleinstes Pixel der Welt gibt’s in Würzburg


Das kleinste Pixel der Welt haben Forscher der Julius-Maximilians-Universität Würzburg (JMU) gebaut. Es sendet oranges Licht mit einer Wellenlänge von 650 Nanometern aus, hat aber 30 Nanometer Kantenlänge, ist also nur 90 Quadratmikrometer groß. (Ein Nanometer ist ein Millionstel Millimeter, ein Mikrometer ein tausendstel Millimeter.) In einen Quadratmillimeter würden also theoretisch mehr als 3000×3000 Pixel passen. Mit klassischer Optik wäre das nicht zu schaffen.

Weiterlesen nach der Anzeige

Bildschirme bestehen aus vielen Bildelementen, sogenannten Pixel (picture elements). In modernen Bildschirmen besteht jedes Pixel aus einer Leuchtdiode, die Lichtwellen aussendet. Das ist bewährte Technik, solange die Pixel nicht zu klein werden müssen. Schrumpfen sie in den Bereich der Wellenlänge des auszusendenden Lichts, versagt klassische Optik. Je kleiner der Bildschirm, desto weniger Pixel passen darauf, umso geringer wird die Auflösung. Für besonders kleine Bildschirme, die gleichzeitig hohe Auflösungen haben sollen, wie beispielsweise Kontaktlinsen mit eingebauten Bildschirmen, sind also neue Ansätze jenseits klassischer Optik erforderlich.

Hier helfen winzige optische Antennen, meist aus Gold, die Lichtenergie genauer konzentrieren als jede Linse. Optische Antennen haben allerdings die Angewohnheit, Energie hauptsächlich an ihren Ecken abzugeben. „Die dabei auftretenden elektrischen Felder würden zu so starken Kräften führen, dass die Gold-Atome beweglich würden und Stück für Stück in das optisch aktive Material hineinwüchsen“, erklärt Professor Jens Pflaum von der JMU. Diese „Filament“ genannten Auswüchse führen mit der Zeit zu einem Kurzschluss, der das Pixel zerstört.

Die Gruppe Experimentalphysiker um die Würzburger Forscher Cheng Zhang und Björn Ewald hat sich dafür eine Lösung einfallen lassen: Isolation. Die Ecken der optischen Antennen werden so abgedeckt, dass nur ihrer Mitte eine kreisrunde Öffnung von 200 Nanometern Durchmesser offen bleibt. Da muss die Antenne ihre Energie dort abgeben. Filamente, so die Forscher, bilden sich keine mehr, was die winzigen organischen Leuchtdioden (OLED) langlebig macht. „Schon die ersten Nanopixel waren für zwei Wochen unter normalen Raumbedingungen stabil“, ist Professor Bert Hecht beeindruckt.

Gleichzeitig leuchten die winzigen Pixel stark: 3.000 Candela pro Quadratmeter (nits) übertreffen die Leuchtstärke aktueller Oberklasse-Smartphones wie dem Pixel 10. Die Effizienz ist allerdings mit einem Prozent noch sehr gering. Außerdem ist derzeit jede gewünschte Farbe verfügbar, solange man sich Orange wünscht. An diesen Einschränkungen arbeitet die JMU weiter, mit dem Ziel einer neuen Bildschirmgeneration „made in Würzburg“.

Über die Grundlagen optischer Antennen informiert beispielsweise dieser Vortrag von Professor Paul Leiderers von der Universität Konstanz:

Weiterlesen nach der Anzeige

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Optische Antennen – eine Anwendung der Nanotechnologie

Vortrag Professor Paul Leiderers vom 10. Februar 2020

Zur Forschergruppe der JMU gehören neben Zhang und Ewald auch Leo Siebigs, Luca Steinbrecher, Maximilian Rödel, Thomas Fleischmann, Monika Emmerling. Sie arbeiten unter der Ägide der genannten Professoren Pflaum und Hecht. Der Bericht Individually addressable nanoscale OLEDs ist jüngst in der Zeitschrift Science Advances erschienen.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

Static Fire: Wiederverwendbare chinesische Rakete soll bald starten


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

China ist inzwischen als Raumfahrtnation etabliert: Das Land schickt nicht nur Satelliten in die Erdumlaufbahn, sondern bereitet auch bemannte Mondmissionen vor. Nur eines fehlt bisher: wiederverwendbare Raketen. Das will das private chinesische Raumfahrtunternehmen Landspace ändern. Einen wichtigen Schritt hat es gerade erreicht.

Weiterlesen nach der Anzeige

Landspace hat die Schwerlastrakete ZhuQue-3 (ZQ-3) entwickelt, die in ihren Dimensionen dem Starship des US-Raumfahrtunternehmens SpaceX ähnelt. In der vergangenen Woche hat Landspace mehrere wichtige Tests erfolgreich durchgeführt, darunter einen statischen Triebwerkstest.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

ZhuQue-3 hot fire test

Die Tests fanden auf dem Raketenstartplatz Jiuquan in der autonomen Region Innere Mongolei statt. Dort hat Landspace die Betankung der ersten Stufe der ZQ-3 getestet sowie das Feuern der Triebwerke, wobei die Raketenstufe nicht abhob.

Phase eins der Tests sei damit „erfolgreich abgeschlossen“ worden, teilte Landspace mit. Phase zwei konzentriere sich „in erster Linie auf den Orbitalstart bei gleichzeitigem Versuch der Bergung der ersten Stufe“. Einen Termin für den Erstflug hat Landspace nicht mitgeteilt. Er könnte aber noch in diesem Jahr erfolgen.

Die zweistufige Rakete ZhuQue-3 ist nach dem Roten Vogel des Südens benannt, einem klassischen chinesischen Sternbild. Sie ist in der ersten Version 66,1 Meter hoch und hat einen Durchmesser von 4,5 Metern. Die Kapsel für die Nutzlast hat einen Durchmesser von 5,2 Meter. Die Rakete weist eine Startmasse von etwa 570 Tonnen auf.

Die erste Stufe, die hauptsächlich aus Edelstahl besteht und wiederverwendbar sein soll, verfügt über neun Tianque-12A-Triebwerke, die mit flüssigem Sauerstoff (LOX) und Methan (LCH4) betrieben werden. In dieser Konfiguration soll die Rakete acht Tonnen Nutzlast in eine niedrige Erdumlaufbahn (Low Earth Orbit, LEO) bringen. Soll die Stufe nicht wiederverwendet werden, erhöht sich die Nutzlast auf 11,8 Tonnen.

Weiterlesen nach der Anzeige

Geplant ist eine größere Variante, die ZQ-3E, die 76 Meter groß sein wird. Sie soll 18,3 Tonnen Nutzlast in den LEO transportieren oder 21,3 Tonnen, wenn sie nicht wiederverwendet werden soll.

Landspace ist das erste chinesische Raumfahrtunternehmen, das 2018 eine eigene Rakete gestartet hat, wenn auch damals erfolglos. Seit 2023 hat es mehrere Starts mit der Rakete Zhuque-2 durchgeführt und damit Satelliten in den LEO sowie in einen sonnensynchronen Orbit (SSO) gebracht. 2024 testete Landspace erstmals erfolgreich den kontrollierten Abstieg einer ZQ-3.


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

EU setzt auf eigene Cloud-Standards – gegen oder mit US-Dominanz


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Europäische Kommission hat ein detailliertes Bewertungssystem für Cloud-Dienste vorgestellt und kündigt gleichzeitig eine Beschaffungsinitiative im Volumen von 180 Millionen Euro an. Das neue Cloud Sovereignty Framework soll EU-Institutionen und -Agenturen dabei helfen, Cloud-Services nach einheitlichen Souveränitätskriterien auszuwählen. Damit will Brüssel die Abhängigkeit von außereuropäischen Anbietern reduzieren.

Weiterlesen nach der Anzeige

Das Framework definiert erstmals konkrete Metriken für Cloud-Souveränität und will so abstrakte Prinzipien durch messbare Größen ersetzen. Im Zentrum stehen acht Souveränitätsziele, die strategische, rechtliche, operative und technologische Dimensionen abdecken. Jedes Ziel lässt sich anhand des Sovereign European Assurance Level (SEAL) bewerten – einem Ranking-System, das Cloud-Anbieter nach ihrer Übereinstimmung mit EU-Souveränitätsstandards einstuft.

Die acht Souveränitätsziele umfassen unter anderem die Kontrolle über Datenstandorte, Schutz vor extraterritorialer Rechtsdurchsetzung, Transparenz der Lieferketten sowie technologische Unabhängigkeit bei Schlüsselkomponenten. Besonders relevant ist dabei die Bewertung, inwieweit Cloud-Dienste dem Zugriff durch Nicht-EU-Behörden entzogen sind – eine direkte Reaktion auf den US Cloud Act und ähnliche Regelungen.

Das SEAL-Bewertungssystem arbeitet mit verschiedenen Assurance Levels, die den Grad der Souveränität quantifizieren. Cloud-Anbieter müssen dabei Nachweise erbringen, dass ihre Dienste den definierten Kriterien entsprechen. Dazu gehören etwa Angaben zur Unternehmensstruktur, zu Datenverarbeitungsstandorten, zur eingesetzten Technologie und zu möglichen rechtlichen Einflussmöglichkeiten durch Drittstaaten.

Die Bewertung berücksichtigt sowohl technische als auch organisatorische Aspekte: Von der Frage, wo Anbieter die Verschlüsselungsschlüssel speichern, über die Herkunft von Hardware-Komponenten bis hin zur rechtlichen Kontrolle über Tochtergesellschaften. Auch die Lieferkette wird durchleuchtet – CPUs, GPUs, Speicherkomponenten oder Netzwerk-Hardware müssen auf ihre EU-Herkunft oder zugesicherte Transparenz geprüft werden.


Berggipfel, blauer Hintergrund, Schriftzug IT Summit by heise

Berggipfel, blauer Hintergrund, Schriftzug IT Summit by heise

Wie können Unternehmen und Behörden ihre IT aus den Abhängigkeiten von US-Hyperscalern, amerikanischen oder chinesischen KI-Anbietern und Softwareherstellern lösen? Das diskutieren Fachleute aus Politik, Wirtschaft und Wissenschaft am 11. und 12. November auf dem IT Summit by heise in München. Vorträge und Speaker finden Sie im Programm des IT Summit. Am ersten Konferenztag findet zudem ein kostenloser Workshop statt, der zeigt, wie Open-Source-Lösungen zur digitalen Souveränität und Cybersicherheit beitragen können. Buchen Sie jetzt Ihr Ticket.

Weiterlesen nach der Anzeige

Die geplante Beschaffung von 180 Millionen Euro für souveräne Cloud-Dienste könnte den europäischen Cloud-Markt nachhaltig beeinflussen. Auf den ersten Blick soll das Framework europäischen Anbietern dienen, es könnten jedoch genauso US-Hyperscaler profitieren: Microsoft, Google und Amazon haben bereits europäische Tochtergesellschaften gegründet und bieten spezielle EU-Cloud-Dienste an, die lokale Datenhaltung garantieren sollen.

All diese Kriterien könnten für etablierte US-Anbieter leichter zu erfüllen sein, als für kleinere europäische Cloud-Provider, die möglicherweise nicht alle technologischen Anforderungen stemmen können. Die Kommission betont jedoch, dass gerade die Bewertung der Kontrollstrukturen und der rechtlichen Unabhängigkeit echte europäische Anbieter bevorzugen würde.

Das Framework fügt sich in die breitere EU-Digitalstrategie ein, die neben der Datenschutz-Grundverordnung (DSGVO) auch Initiativen wie Gaia-X und den geplanten Cloud and AI Development Act umfasst. Während Gaia-X als föderierte Dateninfrastruktur konzipiert ist, setzt das Cloud Sovereignty Framework auf konkrete Bewertungskriterien für die öffentliche Beschaffung.

EU-Institutionen und -Agenturen sollen das Framework ab sofort bei Ausschreibungen anwenden können. Auch nationale Behörden und private Unternehmen können die Kriterien für ihre Cloud-Strategie nutzen. Die Überwachung der Einhaltung soll durch regelmäßige Audits und Zertifizierungsstellen erfolgen, wobei Details zum Enforcement-Mechanismus noch ausgearbeitet werden.

Offen bleibt, wie sich das Framework zur bestehenden Cloud-Zertifizierung nach dem europäischen Cybersecurity Act verhält und ob eine Harmonisierung der verschiedenen Bewertungssysteme geplant ist. Für Cloud-Anbieter bedeutet das Framework jedenfalls zusätzlichen Dokumentationsaufwand, wenn sie sich mit nachweisbarer Souveränität am Markt positionieren wollen.


(fo)



Source link

Weiterlesen

Beliebt