Künstliche Intelligenz
Quanteninternet: Klassische Netzwerktechnik überträgt Quanteninformation
Ein Forschungsteam der University of Pennsylvania hat in einem Experiment Quanteninformationen über klassische Internetprotokolle, Router und Glasfaserkabel übertragen. Damit demonstrierte das Team, dass zukünftiges Quanteninternet möglicherweise in Teilen auf bestehender Netzwerktechnik basieren könnte. Die Studie erschien im Fachmagazin Science.
Vom Internet zum Quanteninternet
Ein Quanteninternet könnte zukünftig zentrale Herausforderungen in der Kommunikation und Datenverarbeitung lösen. Es verspricht abhörsichere Datenübertragung und die Vernetzung von Quantencomputern. So könnten diese Informationen austauschen oder gemeinsam komplexe Berechnungen durchführen.
Doch der Aufbau eines Quantennetzwerks ist mit vielen technischen Hürden verbunden. Quantenobjekte sind extrem empfindlich gegenüber äußeren Einflüssen wie Vibrationen oder Temperaturveränderungen. Selbst minimale Störungen können die Informationen zerstören, die sie tragen. Hinzu kommt, dass herkömmliche Netzwerktechniken, wie Signalverstärker und Router, Quantensignale nicht ohne Weiteres verarbeiten können.
Mehrere Studien konnten bereits belegen, dass herkömmliche Glasfaserkabel Quanteninformation übertragen können. So etablierte etwa ein Team aus England, Polen und den Niederlanden kürzlich Quantenkommunikation über ein 250 Kilometer langes, kommerzielles Glasfaserkabel zwischen Frankfurt am Main und Kehl bei Straßburg. Photonen, also einzelne Lichtteilchen, trugen die Information dabei vom Sender zum Empfänger.
Ob typische Internetprotokolle und weitere Netzwerktechnik für den Transport von Quanteninformationen genutzt werden können, ohne diese zu zerstören, blieb bislang aber weitgehend unerforscht.
Hybride Datenpakete
Um diese beiden Bereiche zu verbinden, kombinierte das Team um Yichi Zhang der University of Pennsylvania klassische und quantenbasierte Daten zu einem hybriden Datenpaket. Das bekannte Internetprotokoll (IP) teilt Informationen in Datenpakete auf, versieht sie mit Kopfdaten (einem Header) und ordnet sie so über eine IP-Adresse den Zielen zu. Mit einer ähnlichen Idee entwickelte das Team einen Chip, der einen klassischen Header mit der zu übertragenden Quanteninformation, der sogenannten Quantum-Payload, kombiniert. Die Quanteninformation kodierten sie innerhalb von verschränkten Photonenpaaren.
Mithilfe des Headers adressierten Router die hybriden Datenpakete korrekt und leiteten sie weiter, ohne auf die sensiblen Quanteninformationen zuzugreifen. Zusätzlich integrierten die Forschenden ein Fehlererkennungssystem in den IP-Header, das Störungen von außen erkennt und abmildert, bevor sie die Quanteninformationen beeinträchtigen. Dieses System erwies sich während eines fünfstündigen Tests als wichtiges Werkzeug, um die Quanteninformationen zu erhalten, wie das Team in seiner Publikation schreibt.
Drei Strecken im Test
Um ihr Konzept zu testen, entwickelte das Team drei verschiedene Teststrecken über eine Strecke von bis zu sieben Kilometern. Dabei nutzte es Glasfaserkabel, Router und Knotenpunkte, um Quanteninformationen an mehrere Adressen zu übertragen. Im größten Aufbau leitete das Team Quanteninformationen von zwei möglichen Absendeadressen über zwei Router zu drei möglichen Zieladressen. Laut der Forschenden demonstrieren ihre Ergebnisse, dass hybride Datenpakete stabil über ein klassisches Netzwerk transportiert werden können.
Dieser Knotenpunkt des Quantennetzwerks ist etwa einen Kilometer von der Quelle des Quantensignals entfernt. Sie sind über ein Glasfaserkabel miteinander verbunden.
(Bild: Sylvia Zhang)
„In vielerlei Hinsicht wird ein Quanteninternetprotokoll auch unseren klassischen Internetprotokollen ähneln“, erklärt Hannes Bernien, Quantenforscher an der Universität Innsbruck, der nicht an der Studie beteiligt war. Wie dies funktionieren könne, hätten die Forscher mit ihrer Studie auf elegante Weise gezeigt und so einen wichtigen Schritt hin zu einem skalierbaren Quanteninternet gemacht.
„In einem klassischen Netzwerk gibt es allerdings viele weitere Komponenten, die fundamental nicht mit Quantensignalen kompatibel sind“, gibt Bernien zu bedenken. Signalverstärker, die längere Distanzen überwinden sollen, seien aufgrund physikalischer Gesetze in der Quantenwelt nicht möglich. „Insofern denke ich, dass ein Quantennetzwerk immer eine eigene Infrastruktur benötigen wird.“
Vernetzte Quantencomputer für Quanten-Cloud-Computing
Quantennetzwerke, die Informationen abhörsicher übertragen, sind mittlerweile bereits kommerziell verfügbar und funktionieren über Distanzen bis zu etwa 100 Kilometern. Spannend sei aber vor allem die Vernetzung von Quantencomputern oder Quantensensoren. „Für mich ist ein Quanteninternet erst dann richtig interessant, wenn es Quantenprozessoren verbindet“, sagt Bernien. „Das ist eigentlich genauso wie bei unserem heutigen Internet, das ja ohne Computer ziemlich langweilig wäre.“
Solch ein Quantennetzwerk würde etwa Cloud-Computing ermöglichen. „Man geht mittlerweile davon aus, dass ein modularer Ansatz verwendet werden muss, um einen Quantencomputer der notwendigen Größe zu bauen“, sagt der Forscher. Statt einen großen Quantenrechner zu bauen, verknüpft man also viele kleine mithilfe eines Quantennetzwerks.
Das Team aus Pennsylvania sehen ihre Arbeit als Grundlage für weitere Entwicklungen. Mit fortschreitender Technik könnten hybride Netzwerke mit höheren Datenraten und größerer Skalierbarkeit realisiert werden, um den steigenden Anforderungen eines Quanteninternets gerecht zu werden. Die Kombination aus klassischer Netzwerktechnik und Quantensystemen könnte dabei helfen, die bestehende Infrastruktur effizient zu nutzen, während sie schrittweise für die Bedürfnisse von Quantenanwendungen angepasst wird.
(spa)
Künstliche Intelligenz
Für Mini-PCs: Nvidia veröffentlicht Details zum starken Kombiprozessor GB10
Nvidia hat seine kompakte Workstation DGX Spark schon Anfang Januar auf der CES enthüllt (damals noch unter dem Codenamen Project Digits) und auch erste Details zum darin verwendeten Kombiprozessor GB10 genannt. Erst auf der derzeit im kalifornischen Stanford stattfindenden Fachkonferenz Hot Chips wurde aber die genaue Partitionierung des Chipletverbunds enthüllt. Wobei Chiplets in Nvidias Wortschatz nicht existieren: Die Firma spricht in Anlehnung an ein „ganzes“ Die stattdessen von Dielets. Deren gibt es nur zwei, nämlich das mit der GPU (G-Dielet) und das mit dem restlichen System-on-Chip (S-Dielet). Beide laufen bei TSMC in einem nicht näher bezeichneten 3-Nanometer-Prozess vom Band.
Das GPU-Chiplet stammt von Nvidia selbst und beherbergt eine Grafikeinheit der Blackwell-Generation mit Tensor-Kernen der 5. Generation. Die Grafikeinheit beherrscht DLSS 4 und Raytracing; bei CUDA-Rechenaufgaben stehen 32 Teraflops im Datenblatt. Ungewöhnlich: Gemäß der gezeigten Blockdiagramme gehören auch Video-De- und Encoder zum GPU-Chiplet. Diese findet man üblicherweise im SoC-Teil eines Chipletverbunds, damit das GPU-Chiplet beim Videogucken abgeschaltet bleiben kann.
Die Verbindung zum SoC-Chiplet geschieht mittels Nvidias hauseigenem NVLink-C2C, worüber bis zu 600 GByte/s fließen. Die Bandbreite ist notwendig, da sich in der GPU lediglich 24 MByte Cache befinden. Alle Speicherzugriffe, die darüber hinaus gehen, müssen über NVLink-C2C durchs SoC-Chiplet, denn die Speichercontroller für über 256 Bit angebundene 128 GByte LPDDR5X-9400 sind dort untergebracht.
Mediatek-Zulieferung
Das SoC-Chiplet ist eine Auftragsarbeit von Mediatek, in der sich zu eigenen Funktionsblöcken (Intellectual Property, IP) auch welche aus anderen Quellen gesellen. Unter anderem die NVLink-C2C-Schnittstelle kommt von Nvidia, während die zwanzig ARM-Kerne von ARM stammen. Nvidia zufolge sind die Kerne in zwei Clustern à zehn Kernen zusammengefasst, denen jeweils 16 MByte gemeinsamer Level-3-Cache zur Seite stehen. Obendrein gibt es 16 MByte System-Level-Cache, der aus CPU-Sicht einem L4-Cache entspricht. Was Nvidias aktuellen Folien nicht sagen, aber schon länger bekannt ist: Die beiden Cluster sind nicht identisch. Stattdessen gibt es je einen mit Cortex-X925 und Cortex-A725. Somit sind es auch nicht die gleichen Kerne wie beim Serverboard GB200, wo Nvidia Neoverse-Kerne verwendet.
Blockdiagram von GB10: Das SoC-Chiplet links stammt von Mediatek, das GPU-Chiplet rechts von Nvidia.
(Bild: Nvidia)
Im SoC steckt ein Display-Controller für einen HDMI- und drei Displayport-Ausgänge. Letztere werden als USB-C-Buchsen ausgeführt; passend dazu ist ein USB-Controller an Bord. In GB10 sind zwei Sicherheitscontroller implementiert: Einer kümmert sich um Secure Boot und andere Low-Level-Funktionen, der andere steht UEFI und Betriebssystem zur Verfügung und kann auch als Firmware-TPM (fTPM) dienen. Schließlich wäre da für externe Systembausteine noch ein PCI-Express-Controller, der PCIe 5.0 spricht. Acht solche Leitungen binden den Netzwerkchip ConnectX an, über den sich zwei DGX Spark zu einem großen Ganzen verbinden lassen, um noch größere KI-Modelle laufen zu lassen. Weitere PCIe-Leitungen laufen auf der Hauptplatine zur M.2-SSD und dem WLAN-Bluetooth-Controller.
Systemisches
Nvidia zufolge darf GB10 im DGX Spark bis zu 140 Watt verbraten, die sich je nach Rechenlast zwischen CPU- und GPU-Kernen verteilen. Letzteres ist an sich SoC-typisch und würde nicht für Stirnrunzeln sorgen, wäre da nicht eine ungewöhnliche Implementierung. Wie oben geschrieben besteht GB10 aus zwei Chiplets von zwei Firmen, die mittels NVLink-C2C verbunden sind. NVLink-C2C ist seinerseits eine Datenschnittstelle, aber keine zur Leistungsverteilung. Die gewählte Lösung: Obwohl beide Chiplets auf einem Package sitzen und logisch wie ein großes Ganzes agieren, sind sie auf der Versorgungsebene getrennt – und benötigen daher jeweils eigene Stromversorgungen.
Diese ungewöhnliche Gegebenheit hat Nvidia freilich nicht selbst verraten. Und auch den ganzen DGX-Spark-Partnern kann das egal sein, weil sie fertige Hauptplatinen von Nvidia zugeliefert bekommen. GB10 soll aber den eng verwandten Ableger N1X bekommen, der mit bis zu 80 Watt Thermal Design Power (TDP) für Gaming-Notebooks gedacht ist. Ergo fluchen die Notebookhersteller, weil sie auf ihren individuellen Mainboards eben zwei Versorgungen bauen müssen, was teuer ist und Platz frisst. Beide müssen obendrein für die Spitzenwerte von 80 Watt dimensioniert sein, auch wenn sie in der Praxis überwiegend jeweils eher mittelmäßig ausgelastet sein werden.
Offener Zeitplan
Die Frage eines Konferenzteilnehmers, wann er denn mit der Auslieferung seiner Spark-Vorbestellung rechnen könne, sorgte im Publikum für Erheiterung, doch eine Antwort blieb Nvidia auf der Hot Chips wie zuvor schuldig. Zum Hintergrund: Vorbestellungen sind seit dem Frühjahr für mehrere Tausend Euro möglich, doch selbst die bisherigen butterweichen Angaben zur Verfügbarkeit wurden allesamt gerissen. Bis dato haben daher weder Nvidia selbst noch Partner, die bis auf Gehäuse und Kühlung identische Spark-Systeme verkaufen wollen, etwas ausgeliefert. Es gab noch nicht einmal eine öffentliche Demo eines laufenden DGX-Spark-Systems.
Nvidia wird die Workstation DGX Spark mit GB10 nicht nur selbst verkaufen, sondern auch über Partner (hintere Reihe). Diese können aber lediglich Gehäusedesign und Kühlsystem anpassen.
(Bild: heise medien / Florian Müssig)
Offiziell nennt Nvidia keine Gründe, doch aus informierten Kreisen ist längst durchgesickert, dass Fehler im Chip Nacharbeit erforderten. Der Display-Controller hatte im ersten Stepping einen derart großen Bug (er spuckte nur eine Bildschirmauflösung aus), dass die Entwickler zurück ans digitale Reißbrett mussten. Es waren neue Belichtungsmasken nötig, was bei jeder Chipentwicklung den Zeitplan um mehrere Monate nach hinten wirft. Der Respin für den Display-Controller ist dem Vernehmen nach inzwischen erfolgt, war Insidern zufolge aber wiederum nicht die einzige Problemzone. Auch bei den CPU-Kernen soll etwas gehakt haben, was die Ingenieure letztendlich aber ohne neue Belichtungsmasken in den Griff bekamen.
Linux? Windows? Beide?
Nvidia selbst sieht für DGX Spark nur das hauseigene Ubuntu-Linux-Derivat DGX OS vor, doch alle Partner möchten ihren Kunden auch Windows anbieten. Und für Gaming-Notebooks mit N1X ist Windows-Unterstützung unumgänglich, sodass Nvidia früher oder später passende Treiber stricken muss. Schließlich muss auch Microsoft ins Boot geholt werden: GB10 beziehungsweise N1X sind die ersten ARM-Prozessoren für Windows 11, die nicht von Qualcomm stammen. Es wäre nicht verwunderlich, wenn es deshalb unter der Haube an so mancher Stelle knirscht.
Und dann ist da noch der Knackpunkt, dass Windows 11 anders als Linux aktuell gar kein echtes Unified Memory beherrscht. Das macht derzeit schon AMDs Strix Halo alias Ryzen AI 300 Max zu schaffen: CPU und GPU nutzen dort zwar physisch denselben Speicher, aber nicht logisch. Beide habe getrennte Speicherbereiche, zwischen den Daten wie eh und je umkopiert werden müssen, wenn sie CPU und GPU austauschen. Diesen Knoten kann nur Microsoft selbst lösen.
(mue)
Künstliche Intelligenz
BitTorrent-App iTorrent: Apple entzieht Entwickler offenbar Sideloading-Lizenz
Der BitTorrent-Client iTorrent ist nicht länger über den AltStore in der EU erhältlich. Apple habe die erforderliche Berechtigung zum Vertrieb von Apps in alternativen App-Marktplätzen „ohne Vorwarnung“ entfernt, beklagt der Entwickler in einem Github-Thread, entsprechend könne er die App nicht mehr bereitstellen – weder im AltStore noch über einen anderen alternativen App-Marktplatz. Er habe den iPhone-Konzern kontaktiert, aber nach längerer Wartezeit nur „generischen Müll“ als Antwort erhalten. Zuletzt wurde ihm demnach von Apples Developer-Support mitgeteilt, neue Informationen seien „beim Eskalationsteam angefragt“.
iTorrent-Problem besteht seit Wochen
Das Problem besteht bereits seit Mitte Juli und ist auch nach Wochen ungelöst. Bei dem alternativen App-Marktplatz AltStore PAL, über den sich iTorrent bislang laden ließ, zeigt man sich ebenfalls ratlos. Etwas sei in Apples App-Vertriebsportal „App Store Connect“ kaputtgegangen und habe dazu geführt, dass iTorrent nicht mehr in AltStore PAL gelistet wird, schreibt der Anbieter Riley Testut und merkt an, dass es sich um eine der dort populärsten Apps handelt. AltStore sei bereits über Wochen mit Apple in Kontakt, geändert habe sich nichts. Es sei „richtig schwer, einen App-Marktplatz zu betreiben, wenn Apps einfach willkürlich verschwinden“, so Testut.
Ob Apple iTorrent gezielt blockiert oder nur das wacklige und von Apple ungewollte Gerüst zum Sideloading-Vertrieb von iOS-Apps Probleme verursacht, bleibt vorerst offen. Ein anderer BitTorrent-Client ist weiterhin im AltStore zu finden – ebenso wie eine Porn-App, die Apple zähneknirschend zugelassen hat.
Apple ermöglicht Sideloading – aber ungern
Der Digital Markets Act zwingt Apple innerhalb der EU, alternative App-Läden und den Sideloading-App-Vertrieb über eine Webseite zuzulassen. Vor kurzem musste der Konzern das bislang umständliche Download-Prozedere von App-Läden deutlich verschlanken, sodass nun auch normale Nutzer das bewerkstelligen können.
Entwickler müssen sich aber weiterhin für Apples Dev-Portal registrieren und ihre Apps zur Prüfung bei Apple einreichen – auch für den Vertrieb außerhalb des App Stores. Apple prüft die Apps nach eigener Angabe sowohl automatisiert als auch durch Mitarbeiter, hat aber gelobt, bei alternativen Vertriebswegen nicht mehr inhaltlich einzugreifen. In mindestens zwei Fällen blockierte der Konzern Sideloading-Apps trotzdem, darunter einen Macintosh-128K-Emulator sowie einen Virtualisierer. Letzteren ließ das Unternehmen – wohl auf Druck der EU-Kommission – schließlich doch noch zu.
(lbe)
Künstliche Intelligenz
Anfänglicher Liebling der Blogger: Typepad wird Ende September geschlossen
Nach mehr als 20 Jahren endet in wenigen Wochen die Geschichte von Typepad. Die Blogging-Software hat Anfang des Jahrtausends mit dazu beigetragen, die Online-Tagebücher zu einem Massenphänomen zu machen. In einem Blogeintrag erklären die Verantwortlichen jetzt, dass sich Nutzer und Nutzerinnen von Typepad nach dem 30. September nicht mehr einloggen können. Die Accounts und alle damit zusammenhängenden Dienste würden dann unwiderruflich gelöscht. Ab diesem Datum nehme das Unternehmen auch keine Zahlungen mehr an; darüber hinaus bezahlte Beträge sollen erstattet werden. Wer will, könne seine Daten noch bis zum 30. September exportieren, beispielsweise um sie in eine WordPress-Seite zu importieren.
Seit fünf Jahren ohne neue User
Typepad gibt es seit 2003, der Dienst sollte die Blogging-Software Movable Type für eine breite Nutzerschaft verfügbar machen. Genutzt wurde der Dienst dann aber nicht für Blogs von Privatleuten, auch verschiedene Medienorganisationen haben zwischenzeitlich darauf gesetzt. Später geriet der Dienst aber unter anderem gegenüber WordPress ins Hintertreffen, seit fünf Jahren konnten sich keine neuen User mehr dafür registrieren. Noch im März haben die Verantwortlichen auf die Nachfrage eines Nutzers versichert, dass man aber nicht vorhabe, den Dienst für die noch aktiven User einzustellen. Trotzdem wurde damals aber bereits eine Exportfunktion angekündigt, die ist seit dieser Woche verfügbar.
Die Typepad zugrunde liegende Technik Movable Type wurde von der Firma Six Apart entwickelt und hat in den frühen 2000er-Jahren die Blogging-Szene dominiert. Dann haben die Verantwortlichen aber Wagniskapital angenommen und eine schnelle Erweiterung ihrer Firma vorangetrieben. Schließlich änderte Six Apart die Lizenzierung der vormals freien Software, woraufhin ein Großteil der begeisterten Nutzerschaft zum Konkurrenten WordPress gewechselt ist. Noch später hat Six Apart Movable Type unter der GPL wieder als Open Source veröffentlicht, aber schon damals war darüber spekuliert worden, dass das wohl zu spät war. Zwei Versionen war auch wieder Schluss mit Open Source. Movable Type gibt es weiterhin, aber für Typepad endet die Geschichte nun 18 Jahre später.
(mho)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 1 Woche
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 1 Woche
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Social Mediavor 1 Woche
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
UX/UI & Webdesignvor 3 Monaten
Philip Bürli › PAGE online