Künstliche Intelligenz
Für Mini-PCs: Nvidia veröffentlicht Details zum starken Kombiprozessor GB10
Nvidia hat seine kompakte Workstation DGX Spark schon Anfang Januar auf der CES enthüllt (damals noch unter dem Codenamen Project Digits) und auch erste Details zum darin verwendeten Kombiprozessor GB10 genannt. Erst auf der derzeit im kalifornischen Stanford stattfindenden Fachkonferenz Hot Chips wurde aber die genaue Partitionierung des Chipletverbunds enthüllt. Wobei Chiplets in Nvidias Wortschatz nicht existieren: Die Firma spricht in Anlehnung an ein „ganzes“ Die stattdessen von Dielets. Deren gibt es nur zwei, nämlich das mit der GPU (G-Dielet) und das mit dem restlichen System-on-Chip (S-Dielet). Beide laufen bei TSMC in einem nicht näher bezeichneten 3-Nanometer-Prozess vom Band.
Das GPU-Chiplet stammt von Nvidia selbst und beherbergt eine Grafikeinheit der Blackwell-Generation mit Tensor-Kernen der 5. Generation. Die Grafikeinheit beherrscht DLSS 4 und Raytracing; bei CUDA-Rechenaufgaben stehen 32 Teraflops im Datenblatt. Ungewöhnlich: Gemäß der gezeigten Blockdiagramme gehören auch Video-De- und Encoder zum GPU-Chiplet. Diese findet man üblicherweise im SoC-Teil eines Chipletverbunds, damit das GPU-Chiplet beim Videogucken abgeschaltet bleiben kann.
Die Verbindung zum SoC-Chiplet geschieht mittels Nvidias hauseigenem NVLink-C2C, worüber bis zu 600 GByte/s fließen. Die Bandbreite ist notwendig, da sich in der GPU lediglich 24 MByte Cache befinden. Alle Speicherzugriffe, die darüber hinaus gehen, müssen über NVLink-C2C durchs SoC-Chiplet, denn die Speichercontroller für über 256 Bit angebundene 128 GByte LPDDR5X-9400 sind dort untergebracht.
Mediatek-Zulieferung
Das SoC-Chiplet ist eine Auftragsarbeit von Mediatek, in der sich zu eigenen Funktionsblöcken (Intellectual Property, IP) auch welche aus anderen Quellen gesellen. Unter anderem die NVLink-C2C-Schnittstelle kommt von Nvidia, während die zwanzig ARM-Kerne von ARM stammen. Nvidia zufolge sind die Kerne in zwei Clustern à zehn Kernen zusammengefasst, denen jeweils 16 MByte gemeinsamer Level-3-Cache zur Seite stehen. Obendrein gibt es 16 MByte System-Level-Cache, der aus CPU-Sicht einem L4-Cache entspricht. Was Nvidias aktuellen Folien nicht sagen, aber schon länger bekannt ist: Die beiden Cluster sind nicht identisch. Stattdessen gibt es je einen mit Cortex-X925 und Cortex-A725. Somit sind es auch nicht die gleichen Kerne wie beim Serverboard GB200, wo Nvidia Neoverse-Kerne verwendet.
Blockdiagram von GB10: Das SoC-Chiplet links stammt von Mediatek, das GPU-Chiplet rechts von Nvidia.
(Bild: Nvidia)
Im SoC steckt ein Display-Controller für einen HDMI- und drei Displayport-Ausgänge. Letztere werden als USB-C-Buchsen ausgeführt; passend dazu ist ein USB-Controller an Bord. In GB10 sind zwei Sicherheitscontroller implementiert: Einer kümmert sich um Secure Boot und andere Low-Level-Funktionen, der andere steht UEFI und Betriebssystem zur Verfügung und kann auch als Firmware-TPM (fTPM) dienen. Schließlich wäre da für externe Systembausteine noch ein PCI-Express-Controller, der PCIe 5.0 spricht. Acht solche Leitungen binden den Netzwerkchip ConnectX an, über den sich zwei DGX Spark zu einem großen Ganzen verbinden lassen, um noch größere KI-Modelle laufen zu lassen. Weitere PCIe-Leitungen laufen auf der Hauptplatine zur M.2-SSD und dem WLAN-Bluetooth-Controller.
Systemisches
Nvidia zufolge darf GB10 im DGX Spark bis zu 140 Watt verbraten, die sich je nach Rechenlast zwischen CPU- und GPU-Kernen verteilen. Letzteres ist an sich SoC-typisch und würde nicht für Stirnrunzeln sorgen, wäre da nicht eine ungewöhnliche Implementierung. Wie oben geschrieben besteht GB10 aus zwei Chiplets von zwei Firmen, die mittels NVLink-C2C verbunden sind. NVLink-C2C ist seinerseits eine Datenschnittstelle, aber keine zur Leistungsverteilung. Die gewählte Lösung: Obwohl beide Chiplets auf einem Package sitzen und logisch wie ein großes Ganzes agieren, sind sie auf der Versorgungsebene getrennt – und benötigen daher jeweils eigene Stromversorgungen.
Diese ungewöhnliche Gegebenheit hat Nvidia freilich nicht selbst verraten. Und auch den ganzen DGX-Spark-Partnern kann das egal sein, weil sie fertige Hauptplatinen von Nvidia zugeliefert bekommen. GB10 soll aber den eng verwandten Ableger N1X bekommen, der mit bis zu 80 Watt Thermal Design Power (TDP) für Gaming-Notebooks gedacht ist. Ergo fluchen die Notebookhersteller, weil sie auf ihren individuellen Mainboards eben zwei Versorgungen bauen müssen, was teuer ist und Platz frisst. Beide müssen obendrein für die Spitzenwerte von 80 Watt dimensioniert sein, auch wenn sie in der Praxis überwiegend jeweils eher mittelmäßig ausgelastet sein werden.
Offener Zeitplan
Die Frage eines Konferenzteilnehmers, wann er denn mit der Auslieferung seiner Spark-Vorbestellung rechnen könne, sorgte im Publikum für Erheiterung, doch eine Antwort blieb Nvidia auf der Hot Chips wie zuvor schuldig. Zum Hintergrund: Vorbestellungen sind seit dem Frühjahr für mehrere Tausend Euro möglich, doch selbst die bisherigen butterweichen Angaben zur Verfügbarkeit wurden allesamt gerissen. Bis dato haben daher weder Nvidia selbst noch Partner, die bis auf Gehäuse und Kühlung identische Spark-Systeme verkaufen wollen, etwas ausgeliefert. Es gab noch nicht einmal eine öffentliche Demo eines laufenden DGX-Spark-Systems.
Nvidia wird die Workstation DGX Spark mit GB10 nicht nur selbst verkaufen, sondern auch über Partner (hintere Reihe). Diese können aber lediglich Gehäusedesign und Kühlsystem anpassen.
(Bild: heise medien / Florian Müssig)
Offiziell nennt Nvidia keine Gründe, doch aus informierten Kreisen ist längst durchgesickert, dass Fehler im Chip Nacharbeit erforderten. Der Display-Controller hatte im ersten Stepping einen derart großen Bug (er spuckte nur eine Bildschirmauflösung aus), dass die Entwickler zurück ans digitale Reißbrett mussten. Es waren neue Belichtungsmasken nötig, was bei jeder Chipentwicklung den Zeitplan um mehrere Monate nach hinten wirft. Der Respin für den Display-Controller ist dem Vernehmen nach inzwischen erfolgt, war Insidern zufolge aber wiederum nicht die einzige Problemzone. Auch bei den CPU-Kernen soll etwas gehakt haben, was die Ingenieure letztendlich aber ohne neue Belichtungsmasken in den Griff bekamen.
Linux? Windows? Beide?
Nvidia selbst sieht für DGX Spark nur das hauseigene Ubuntu-Linux-Derivat DGX OS vor, doch alle Partner möchten ihren Kunden auch Windows anbieten. Und für Gaming-Notebooks mit N1X ist Windows-Unterstützung unumgänglich, sodass Nvidia früher oder später passende Treiber stricken muss. Schließlich muss auch Microsoft ins Boot geholt werden: GB10 beziehungsweise N1X sind die ersten ARM-Prozessoren für Windows 11, die nicht von Qualcomm stammen. Es wäre nicht verwunderlich, wenn es deshalb unter der Haube an so mancher Stelle knirscht.
Und dann ist da noch der Knackpunkt, dass Windows 11 anders als Linux aktuell gar kein echtes Unified Memory beherrscht. Das macht derzeit schon AMDs Strix Halo alias Ryzen AI 300 Max zu schaffen: CPU und GPU nutzen dort zwar physisch denselben Speicher, aber nicht logisch. Beide habe getrennte Speicherbereiche, zwischen den Daten wie eh und je umkopiert werden müssen, wenn sie CPU und GPU austauschen. Diesen Knoten kann nur Microsoft selbst lösen.
(mue)
Künstliche Intelligenz
Mit Reverse Engineering Packer und API-Hooking verstehen
Im ersten Artikel dieses Tutorials standen API-Aufrufe im Fokus. Während einige Aufrufnamen selbsterklärend sind, erschließt sich die Funktion anderer nur schwer. Glücklicherweise dokumentiert Microsoft die Windows-API-Aufrufe umfassend, inklusive Zweck, Eingaben (Parametern) und Ausgaben, was die Analyse erheblich erleichtert. Gerade deshalb versuchen viele Schadprogramme, ihre API-Aufrufe zu verbergen, beispielsweise durch Packing.
Beim Packing wird die ursprüngliche Schadsoftware komprimiert, verschleiert, verschlüsselt oder anderweitig codiert und zusammen mit Assemblercode, der den Entpackalgorithmus enthält, in eine neue ausführbare Datei eingebettet. Das soll zum einen verhindern, dass Schutzprogramme die Schadsoftware erkennen, und zum andern den Originalcode so verbergen, dass eine Analyse der Funktionsweise erschwert wird.
- Malware nutzt Packing, um bösartigen Code zu verschleiern und statische Analysen zu erschweren.
- Weitere Tarnung erfolgt durch API-Hooking, bei dem das Verhalten legitimer Programme gezielt verändert wird.
- Mit den richtigen Tools lassen sich Packer enttarnen und Hooking-Techniken aufdecken.
Nadia Meichtry ist Digital-Forensics- und Incident-Response-Spezialistin bei der Oneconsult AG. Sie unterstützt bei der Bewältigung und Untersuchung von Cybervorfällen.
Freie Werkzeuge für Verteidiger und Angreifer
Packing lässt sich mit frei verfügbaren Werkzeugen durchführen. Ein bekanntes Beispiel ist UPX (Ultimate Packer for Executables), einer der wenigen Packer mit integrierter Entpackfunktion, der mit einem einzigen Befehl entpackt wird. Malware-Entwickler können UPX jedoch auch modifizieren, um das Entpacken für Reverse Engineers zu erschweren. Darüber hinaus existieren viele andere Packer. Kommerzielle Produkte wie Themida bieten zusätzliche Funktionen wie Codeverschlüsselung, Anti-Analyse und Anti-Debugging. Manche Hackergruppen setzen auch eigens entwickelte maßgeschneiderte Packer ein, die exklusiv für ihre Kampagnen verwendet werden und deutlich schwieriger zu entpacken sind.
Das war die Leseprobe unseres heise-Plus-Artikels „Mit Reverse Engineering Packer und API-Hooking verstehen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Der große Waschmaschinen-Guide: Was smart tatsächlich spart
Im voll vernetzten und auf Effizienz getrimmten Haushalt fristet ein zentraler Helfer ein Schattendasein: die Waschmaschine. Dabei besitzt sie ein erhebliches Energiesparpotenzial. Haushalte nutzen etwa 14 Prozent ihres Stromverbrauchs für das Waschen und Trocknen. Smarte Waschmaschinen wollen das mit intelligenten Automatiken und ausgefeilter Software ändern. Gleichzeitig erleichtern WLAN und Apps die Bedienung und erweitern den Funktionsumfang. Das soll nicht nur den Komfort steigern, sondern auch bares Geld sparen.
Doch wie weit reicht das tatsächlich? Der Artikel beleuchtet die smarten Features, mit denen Waschmaschinen verschiedener Preisklassen heute ausgestattet sind. Der Begriff „smart“ hat in diesem Kontext zwei Bedeutungen. Es meint einerseits die Vernetzung via WLAN und App mit dem Smart Home, damit Sie die Maschinen fernsteuern oder mit dynamischen Stromtarifen sowie der PV-Anlage koppeln können. Andererseits geht es um Automatiken, die das Waschen selbst effizienter machen sollen, etwa Wäscheerkennung und Dosiersysteme. Dabei prüfen wir, welchen konkreten finanziellen Nutzen solche Helfer bieten. Nicht zuletzt blicken wir auf die Effizienzklassen, in die sich die smarten Geräte einordnen. Smart nützt schließlich nichts, wenn die Basis nicht stimmt.
- Smarte Waschmaschinen bieten Komfort durch App-Steuerung und sparen Ressourcen, indem sie dynamische Stromtarife oder PV-Anlagen einbeziehen.
- Dosierautomatik und KI-Funktionen helfen, Waschmittel präzise zu dosieren und den Verbrauch zu optimieren, was Kosten und Umweltbelastung reduziert.
- Vernetzte Modelle unterscheiden sich stark in ihren Funktionen, von einfacher Laufzeitüberwachung bis hin zu dynamischer Energieanpassung und speziellen Waschprogrammen.
- Effiziente Geräte mit niedrigen Energie- und Wasserverbräuchen sparen langfristig Geld, auch wenn der Kaufpreis oft höher ausfällt.
Um die Marktlage einschätzen zu können, haben wir uns Geräte ausgesucht, die für eine vierköpfige Familie interessant sein können. Als Grundkriterien haben wir ein Fassungsvermögen von 9 kg angesetzt, dazu WLAN-Anbindung und das Produktionsjahr ab 2024. Unser Preisvergleich listet – Stand Ende August 2025 – rund 60 Modelle. Vertreten sind die üblichen Verdächtigen: AEG, Beko, Bosch, Gorenje, Haier, Hisense, LG, Midea, Miele, Samsung und Siemens. Am Ende des Artikels finden Sie alle Modelle der Auswahl in einer großen, durchsuchbaren Tabelle.
Das war die Leseprobe unseres heise-Plus-Artikels „Der große Waschmaschinen-Guide: Was smart tatsächlich spart“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
heise security Webinar: So verändert KI die IT-Sicherheit
Die aktuell bei vielen Unternehmen anstehende Einführung KI-gestützter Tools und Workflows verändert die Art & Weise, wie wir Security denken, analysieren und letztlich umsetzen müssen. Denn unter anderem der damit einhergehende Verlust an Determinismus hat weitreichende Konsequenzen, die bislang viel zu wenig bedacht und berücksichtigt werden. Dieses Webinar bereitet Security-Verantwortliche darauf vor, welche Neuerungen diese Veränderungen mit sich bringen und wie sie darauf reagieren können.
Nach einer kurzen Analyse der Bedrohungslage geht es darum, wie die Einführung von KI „die Mechanik“ der IT und damit auch der IT-Security verändert und was das bedeutet. Das bleibt nicht abstrakt, sondern führt letztlich zu ganz konkreten Fragen wie: Was muss ich als Security-Verantwortlicher auf dem Schirm haben, wenn die Personalabteilung eingehende Bewerbungen mit der Unterstützung von KIs zusammenfasst und vorsortiert? Nach dem „What could possibly go wrong“ kommt der praxisrelevante Teil, der erklärt: Wie kann ich solche Prozesse in der Praxis sinnvoll begleiten und dabei die Ansprüche des Unternehmens an IT-Sicherheit praktisch umsetzen?
Zu 100% unabhängig und werbefrei
Dieses rund zweistündige Webinar am 29. Oktober 2025 richtet sich vor allem an IT-Security-Verantwortliche, Security-bewusste System- und Lösungs-Architekten sowie Betreuer von KI-Projekten in Unternehmen. Es wurde von der heise-security-Redaktion zusammen mit den Referenten konzipiert und ist damit – wie alle heise-security-Events – unabhängig und keine Werbeveranstaltung. Die Teilnahme kostet regulär 149 Euro; aktuell gilt aber noch der Frühbucher-Tarif mit 129 €. Mitglieder von heise security PRO können natürlich kostenlos teilnehmen. Alle weiteren Informationen zum Webinar und die Möglichkeit sich anzumelden gibt es auf der Webseite zu:
(ju)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 1 Woche
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Entwicklung & Codevor 1 Woche
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Social Mediavor 1 Woche
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 3 Monaten
Philip Bürli › PAGE online