Künstliche Intelligenz
Nvidia DGX Spark: Ist das wirklich der KI-„Supercomputer“?
Er wird als „KI-Supercomputer auf dem Schreibtisch“ beworben; aber kann Nvidias DGX Spark halten, was er verspricht? Wir haben die OEM-Variante Gigabyte AI Top Atom auf Herz und Nieren getestet und sie gegen die AMD-Strix-Halo-Konkurrenz (AI Max+ 395) antreten lassen.
Der Video-Test folgt unten, die Textvariante ist hier (heise+).
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, ich habe ihn endlich, den KI-Supercomputer für den Schreibtisch. Also zumindest bezeichnet Nvidia den DGX Spark so. Mein Testgerät kommt von Gigabyte und heißt AI Top Atom. Kostenpunkt: 4.300 Euro. Naja, das ist ja quasi nichts für so einen richtigen Supercomputer, oder?
Wir haben das Ding auf jeden Fall mit der Konkurrenz von AMD verglichen, also der Strix Halo Plattform, die ja in Vollausstattung AMD Ryzen AI Max+ 395 heißt. Konkret ist das der Framework Desktop. Darüber haben wir schon mal ein Video gemacht. Beide Rechner haben 128 Gigabyte schnellen Speicher. Und ich sage euch, ich fand die Ergebnisse richtig interessant. Und kleiner Spoiler: In vielen Benchmarks ist die AMD-Plattform tatsächlich schneller, obwohl die Geräte deutlich günstiger sind als die mit Nvidia-Technik. Und ja, meinen Gaming-PC haben wir auch mit in den Vergleich genommen. Bleibt dran.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…
Also, da ist er nun, der Nvidia DGX Spark, beziehungsweise in meinem Fall der Gigabyte AI Top Atom. Und das kann man auf jeden Fall schon mal sagen: Das ist ein sehr ungewöhnliches Gerät. Angekündigt von Nvidia im Januar 2025 als KI-Supercomputer für den Schreibtisch, gibt es das Teil eben nicht nur von Nvidia im Goldgehäuse, sondern auch leicht modifiziert von Acer, Asus, Dell, HP, Lenovo und MSI. Und eben wie gesagt von Gigabyte, die uns als Erste ein Testgerät geschickt haben. Vielen Dank dafür.
Hätte man mich allerdings gefragt, hätte ich vielleicht den Begriff Atom vermieden, weil das ja nun der Markenname von Intels Billig-Prozessoren ist, die ich eher mit wenig Rechenpower assoziiere. Aber okay, der Gigabyte AI Top Atom kostet auf jeden Fall 4.300 Euro und hat wie alle DGX Spark-Varianten zwei wesentliche Besonderheiten. Einmal den Nvidia-Kombiprozessor GB10. GB steht für Grace Blackwell mit eingebauter Nvidia-GPU als CUDA-kompatiblen KI-Beschleuniger und zweitens viel, viel, viel schnellen Speicher, nämlich 128 Gigabyte LPDDR5X-RAM.
Weiterlesen nach der Anzeige
Aber wenn man sich diese Tabelle ja mal anguckt, ist die Geschwindigkeit zwar deutlich schneller als normales DDR5-RAM, aber eben auch bei Weitem nicht so schnell wie das Video-RAM auf aktuellen Grafikkarten. Und das sehen wir auch bei unseren Geschwindigkeitsmessungen, aber dazu später mehr.
Erst mal noch mal kurz, was die sonst noch so mitbringen, die Hardware. Am auffälligsten ist wohl der ziemlich exotische 200-Gigabit-Netzwerkadapter ConnectX-7, mit dem man mehrere dieser Rechner verkoppeln kann. Aber es gibt auch noch einen normalen RJ45-Port mit 10-Gigabit-Ethernet. Ansonsten halt einfach nur einen HDMI-2.1a-Port und vier USB-C-Ports, einer davon für die Stromversorgung. Ja, die läuft tatsächlich über USB Power Delivery und das Teil zieht unter Volllast auch maximal nur 216 Watt.
Hier seht ihr auch noch unsere anderen Messwerte, die meine Kollegen aus dem Hardwareressort der c’t ermittelt haben. Interessant dabei ist, dass der GPU-Teil des GB10-Kombiprozessors genauso viele Shader-Einheiten respektive CUDA-Kerne hat wie die GPU der Gaming-Grafikkarte RTX 5070, nämlich 6.144 Stück. Aber die sind bei der DGX Spark anders strukturiert, nämlich für KI-Algorithmen optimiert. Beispielsweise hat die GB10-GPU doppelt so viele Tensorkerne wie die 5070, nämlich 384 statt 192, aber weniger Render Output Units, 49 statt 80.
Kann man also genauso gut eine Grafikkarte nehmen, vor allem wenn da ja, wie gesagt, auch noch viel schnellerer Speicher drin ist? Ja, nee, denn Consumer-Grafikkarten haben zurzeit maximal 32 Gigabyte Speicher. Die 5070 hat sogar nur 16 und unser Testgerät halt 128 Gigabyte. Aber so Geräte mit 128 Gigabyte schnellem Unified Speicher gibt es ja auch noch mit anderen Architekturen, zum Beispiel von Apple oder von AMD.
Praktischerweise habe ich direkt so einen AMD Ryzen AI Max+ 395 da, also die Strix-Halo-Plattform und zwar den Framework Desktop. Was tatsächlich ein bisschen lustig ist: Strix Halo sollte ja die Antwort auf Nvidias DGX Spark sein, weil da bei der CES im Januar diesen Jahres viele Leute darüber gesprochen haben, war dann aber am Ende tatsächlich deutlich früher im Handel als das, worauf eigentlich reagiert werden sollte.
Auf alle Fälle sind vergleichbare Geräte mit AMD-Technik deutlich preisgünstiger. Also den Framework Desktop gibt es mit gleicher Ausstattung wie der DGX Spark, also mit 4 Terabyte SSD, für 2.800 Euro, also 1.500 Euro günstiger als die Nvidia-Variante. Von zum Beispiel GMKtec gibt es sogar einen AI Max+ 395 mit 128 Gigabyte für 1.999 Euro. Der hat dann allerdings nur 2 Terabyte SSD. Und ja, dazu kann ich im Moment auch noch nichts sagen, weil ich den noch nicht getestet habe.
Aber jetzt wird es auf jeden Fall interessant. Wie schneiden die beiden Kontrahenten denn jetzt ab mit so lokalen KI-Anwendungen? Ja, da habe ich nun versucht, den Vergleich so gerecht wie möglich aufzubauen. Also der Nvidia-Rechner läuft ja mit dem selbst benannten Nvidia DGX OS. Das ist aber eigentlich nur ein Ubuntu Linux mit einem angepassten Kernel. Und zwar ist der Kernel auch noch alt. Er hat Version 6.11. Das Ding ist über ein Jahr alt. Aktuell ist 6.17. Naja, aber dieses DGX OS ist eben das offiziell empfohlene Betriebssystem für DGX Spark-Computer. Deshalb nehmen wir das natürlich.
Bei dem Framework Desktop hier nennt Framework zwei offiziell unterstützte Linux-Varianten, einmal Fedora und einmal Beside. Beside ist ja eher so Gaming-orientiert. Deshalb habe ich einfach Fedora Workstation 43 installiert. Bei meinem Vergleichs-Gaming-PC läuft CachyOS.
Ja, und der erste Benchmark war natürlich LLM-Abzapfen aka Inferenz. Da habe ich auf allen Rechnern LM Studio in der aktuellen Version 0.3.31 verwendet. Als Runtime natürlich CUDA für Nvidia und Vulkan für das AMD-System. ROCm kann LM Studio eigentlich auch, aber das lief bei uns nicht. Und ram tam tam tam – hier sind die Ergebnisse.
Ja, ich würde sagen, das nimmt sich nicht viel. Beziehungsweise bei dem wichtigen Modell GPT-OSS:120B ist der günstigere AMD-Rechner sogar 11 Prozent schneller. Generell kann man auf jeden Fall sagen: Wenn ihr nur LLM-Inferenz machen wollt, könnt ihr gut das AMD-Modell nehmen.
Fernab von den Vergleichen: Es ist auf jeden Fall beeindruckend, mit GPT-OSS ein 63 GB großes Modell mit 120 Milliarden Parametern mit fast 50 Token die Sekunde laufen zu lassen auf so einem kleinen Ding. Das ist tatsächlich besonders. Allerdings gibt es auch nicht so viele Open-Source-Modelle, die so groß sind.
Und da kommt jetzt mein Gaming-PC mit RTX 4090 ins Spiel. Guckt mal hier, der ist mit den meisten von mir getesteten aktuell populären Sprachmodellen ungefähr dreimal so schnell, weil die halt klein sind und in den 24-Gigabyte großen Speicher meiner 4090 passen. Nur halt GPT-OSS 120B nicht. Das muss ich in meinen langsamen, normalen DDR5-Arbeitsspeicher auslagern. Und deshalb schaffe ich damit dann nur 16,9 Token.
So, jetzt sind mir aber noch andere interessante Unterschiede aufgefallen. So lädt GPT-OSS:120B bei der Nvidia-Kiste viel länger, nämlich anderthalb Minuten. Gleichzeitig friert auch der Bildschirm jedes Mal für ein paar Sekunden ein. Also ich kann auch die Maus einige Sekunden lang nicht bewegen. Mit den anderen beiden Rechnern lädt das Modell deutlich schneller, in weniger als 20 Sekunden.
So, aber wir können jetzt auch RAG machen, also eigene Dateien mit dem Sprachmodell analysieren. Ich habe hier mal das Programm des sogenannten Entdeckertags der Region Hannover reingeschmissen und dann Fragen dazu gestellt. Damit das ganze PDF in den Kontext passt, muss man das Kontextfenster manuell hochziehen auf mindestens 20.000 Token.
Ja, das Ding ist jetzt, dass die Nvidia-Workstation nur 14 Sekunden braucht, um das alles zu verarbeiten. Die AMD-Konkurrenz braucht fast vier Minuten und mein Gaming-PC 46 Sekunden. Also der Teufel steckt bei solchen Sachen wirklich im Detail. Müsst ihr wirklich überlegen, was ihr machen wollt, was da die richtige Hardware für euch ist.
Übrigens habe ich auch alles mal testweise mit Ollama gemessen, und da kann ich euch sagen: LM Studio ist auf allen drei Systemen immer schneller gewesen. Hier die Zahlen dazu.
Ja, aber man will ja vielleicht mit so einer Workstation nicht nur LLMs anzapfen, sondern vielleicht auch Bilder, Videos oder Musik generieren. Und das machen inzwischen viele Leute mit ComfyUI. Das ist so eine Node-basierte GenAI-Umgebung. Und ja, die lässt sich bei Nvidia wunderbar einfach installieren. Es gibt da nämlich sogenannte Playbooks, und das sind so recht übersichtlich gemachte Tutorials, wie man bestimmte Dinge zum Laufen bringt. Und da gibt es ziemlich viele dieser Playbooks von Nvidia, also auch für so Feintuning-Sachen, zum Beispiel Anbindungen in VSCode und natürlich wie gesagt auch ComfyUI.
Das Playbook sagt, die Installation dauert 45 Minuten. Das ist aber wirklich sehr pessimistisch. Das hat in meinem Fall nicht mal 15 Minuten gedauert. Auf dem Framework Desktop sah die Sache dann schon wirklich anders aus. Da habe ich mich leider stundenlang festgefrickelt, weil ich es lange nicht hinbekommen habe, dass ComfyUI meine ROCm-Installation akzeptiert. Und da merkt man dann halt deutlich, dass viele Sachen eben mit Nvidia CUDA im Kopf entwickelt wurden. Also ROCm ist quasi die AMD-Variante von CUDA, aber eben ein bisschen weniger populär.
Ja, und am Ende habe ich es hinbekommen. Aber mein Benchmark hier, das ist einfach das Bildgenerierungsmodell FLUX.1-dev-fp8. Da habe ich einfach das Standard-Template mit einem eigenen Prompt genommen. Und da braucht das Generieren eines 1024×1024 Pixel großen Bildes mit dem Nvidia DGX Spark-System 38 Sekunden, bei dem AMD-System 89 Sekunden, also mehr als doppelt so lange. Mein Gaming-PC mit RTX 4090 schafft es in 12 Sekunden.
Wenn ihr jetzt aufgepasst habt, dann habt ihr vielleicht gemerkt, dass es eine einzige Sache gab bislang, die mein Gaming-PC nicht deutlich besser gemacht hat als die beiden speziellen KI-PCs. Und das ist tatsächlich das Abzapfen des einen großen LLMs GPT-OSS:120B, weil das eben nicht in die 24 Gigabyte Speicher meiner RTX 4090 passt. Aber der ganze andere Kram eben schon. Also gerade diese Bild- und Video-Generierungssachen, die sind halt auf kleinere RAM-Größen ausgelegt.
Okay, ja gut, man könnte natürlich von den offenen Sprachmodellen statt mit 4-Bit quantisierte Modelle irgendwie, keine Ahnung, 8-Bit quantisierte Modelle nutzen. Die würden auch nicht in den Speicher meiner Grafikkarte passen. Und natürlich schon in die AMD-Workstation, in die Nvidia-Workstation. Das würde schon gehen. Aber ob das so viel bringt, ist die Frage.
Aber generell kann man auf jeden Fall sagen: Es fehlen die Inferenz-KI-Killer-Applikationen für diese Speichergröße, weil dann am Ende 128 Gigabyte dann doch zu wenig sind, um zum Beispiel so etwas wie DeepSeek zu laden, was also wirklich ein ernsthafter Wettbewerber zu den großen kommerziellen Cloud-Modellen ist. Aber das braucht halt einfach mindestens das Fünffache an Speicher.
Und deshalb muss man sagen, dass die KI-Workstations wirklich für ordentliche normale KI-Anwender wahrscheinlich nichts sind und dass am Ende die Nützlichkeit sehr, sehr, sehr, sehr spezifisch ist. Also zum Beispiel, das ist für Leute, die irgendwelche KI-Software in Rechenzentren deployen wollen und die vorher auf der gleichen Architektur testen wollen. Also ein ganz spezielles Entwicklergerät für die Nvidia-Serverplattform DGX.
Wenn ich mir jetzt aber angucke, wie viele Hersteller diese sehr, sehr speziellen Rechner verkaufen, da denke ich schon, da scheint der KI-Hype dann doch schon mit reinzuspielen. Denn gibt es wirklich so viele Entwickler, die einen so speziellen Rechner brauchen? Weiß nicht.
Beim Framework ist es ja so, dass der Rechner primär als Gaming-PC vermarktet wird. Also zumindest steht hier auf der Website Gaming noch vor KI und auch die Produktfotos, die sehen mir sehr nach Gaming aus. Aber auch hier ist es so: Das Preis-Leistungs-Verhältnis ist, wenn man damit nur spielen will, ziemlich schlecht.
Ja, also wenn jemand von euch da draußen mit diesen Geräten liebäugelt: Ich hoffe, dieses Video hat euch ein bisschen geholfen, das Thema besser einzuschätzen. Ich jedenfalls, der sehr gerne mit lokalen KI-Sachen herumexperimentiert, kann für mich auf jeden Fall sagen, dass ich mit meinem PC mit RTX 4090 und 128 GB langsamem DDR5-RAM als Backup-Notlösungsspeicher Stand heute mehr anfangen kann als mit diesen beiden spezialisierten Geräten. Aber ich bin auch kein Entwickler, der irgendwelche Modelle fine-tuned – bisher jedenfalls nicht – oder Anwendungen für DGX-Systeme baut.
Ja, wie seht ihr das? Bin ich da total auf der falschen Spur? Gerne in die Kommentare schreiben und tschüss.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
Künstliche Intelligenz
QEMU 10.2 ist schneller unter I/O-Last und dank neuer Richtlinie „sicherer“
Quasi als Weihnachtsgeschenk hat das Entwickler-Team den für viele Plattformen erhältlichen Quick-EMUlator (QEMU) in Version 10.2 veröffentlicht. 188 Entwickler haben dazu über 2300 Neuerungen und Verbesserungen in das OpenSource-Projekt einfließen lassen.
Weiterlesen nach der Anzeige
Nicht mehr alle Security-Bugs sind Security-Bugs
Gleich der erste Hinweis im Changelog zu QEMU 10.2, der als „Klarstellung der Sicherheitsrichtlinie von QEMU“ bezeichnet wird, wirft Fragen auf. Zunächst einmal: In Version 10.2 des QEMU-Projekts wurde die Security Policy explizit klarer definiert, insbesondere was der Begriff „Security Bugs“ im Kontext von QEMU bedeutet. Von nun an gelten Fehler nur noch dann als echte Security-Bugs, wenn sie in klar definierten „Virtualization Use Cases“ auftreten. Dazu zählen Szenarien mit Hardware-Beschleunigern unter WHPX (Windows), KVM (Linux), HVF (macOS) oder NVMM (NetBSD) und vor allem nur bestimmte Maschinen-Typen, die in den „Security Requirements“ explizit aufgelistet werden: aarch64 (virt), i386 und x86_64 (microvm, xenfv, xenpv, xenpvh, pc, q35), s390x (s390-ccw-virtio), loongarch64 (virt), ppc64 (pseries) sowie riscv32 und riscv64 (virt). Das bedeutet, dass sicherheitskritische Fehler in allen anderen Emulations-Szenarien im QEMU-Kontext nicht mehr grundsätzlich als sicherheitstechnische Fehler angesehen werden (müssen).
Damit fallen viele Anwendungsbereiche aus der Sicherheitsrichtlinie heraus, beispielsweise die rein software-basierte „Full System Emulation“ mit dem Tiny Code Generator (TCG), bei dem Gast-CPU-Instruktionen dynamisch in Host-Code übersetzt werden. Das betrifft alle Anwendungsfälle, in denen eine beliebige Gast-Architektur auf einem beliebigem Host ausgeführt wird. Zum Beispiel wenn ein ARM-Gast auf einem x86-Host für Cross-Architektur-Entwicklung, Firmware-Tests, Embedded-Simulation oder Debugging ausgeführt wird. Und auch die „User-Mode Emulation“ (qemu-user), die nur CPU- und Systemaufrufe, aber kein komplettes System emuliert, dürfte damit aus der neuen Sicherheitsrichtlinie herausfallen. Das betrifft unter anderem Cross-Builds und CI sowie vermutlich auch Container-Builds mit „multi-arch-Docker“.
Schwierig wird die Zuordnung, wenn es um hybride QEMU-Modi geht. Das ist der Fall, wenn grundsätzlich Hardware-Beschleunigung eingesetzt wird, dazu aber bestimmte Geräte oder Funktionen per TCG emuliert werden (legacy-devices). Der Sicherheitsstatus ist dabei vom konkreten Setup abhängig. Als QEMU-Anwender muss man dann herausfinden, ob das Szenario als unterstützter Virtualization Use Case gilt – oder nicht. Das dürfte spannend werden.
Viel Neues bei ARM, RISC-V und PowerPC, weniger für LoongArch, s390x und x86
QEMU erweitert die ARM-Emulation um zahlreiche neue CPU-Features, entfernt die veraltete pxa-CPU-Familie und verbessert Debugging sowie Geräteunterstützung (u. a. SME/SME2 in gdbstub, mehrere SMMUv3-Geräte, neue/erweiterte SoC-Komponenten bei aspeed und xlnx). Zusätzlich gibt es ein neues Board-Modell (amd-versal2-virt) und genauere Modellierung von Interrupt- und PCIe-Hardware in bestehenden ARM-Plattformen.
Die RISC-V-Unterstützung in QEMU wurde durch Korrekturen an ISA-Details und Erweiterungen verbessert, darunter an CFI, VLEN-Regeln, PMP-Granularität sowie mehreren Instruktions-, Timer- und IOMMU-Details. Zusätzlich gibt es Aktualisierungen und Bugfixes bei Maschinen- und Firmware-Integration (u. a. OpenSBI v1.7, Device-Tree-Korrekturen, bessere Netzwerk- und UART-Stabilität) sowie Performance- und Speicherverbesserungen.
Weiterlesen nach der Anzeige
Die PowerPC-Unterstützung in QEMU wurde durch neue CPU- und Maschinenunterstützung (PowerNV11, PPE42), Firmware-Updates und FADUMP der pSeries ergänzt, während veraltete Plattformen und „unbrauchbare e200-CPUs“ entfernt sowie zahlreiche Bugfixes, Aufräumarbeiten und Verbesserungen an Fehlerbehandlung und Emulation vorgenommen wurden.
Bei der LoongArch-Emulation unterstützt QEMU 10.2 nun auch MSGINT (IRQ-Chip) und den „HW Page Table Walk“. Verbesserungen beim IRQ-Handling der s390x-Architektur sollen die virtio-pci-Performance erhöhen. Bei x86 benutzt der HPET-Emulator (High Precision Event Timer) nicht mehr den „Big QEMU Lock“ (BQL), sondern ist jetzt feiner und nebenläufiger implementiert.
Neu für HPPA-Nostalgiker: Emulation der HP 715/64-Workstation
Mit QEMU 10.2 lässt sich ein weiterer Klassiker der Computergeschichte virtuell reanimieren: Die HP 9000 715/64 (32 Bit PA-RISC, 64 MHz CPU-Takt, 1 KB on-chip- und 64 KB off-chip-Cache) wurde als Workstation Mitte der 90er Jahre von Hewlett-Packard gegen SGI Indy/Indigo2, Sun SPARCstation, DEC AlphaStation und IBM RS/6000 auf den Markt gebracht. Die unter HP-UX oder NeXTSTEP laufende UNIX-Workstation war für damalige Verhältnisse recht schnell – und mit rund 10.000 US-Dollar entsprechend teuer. Zur Einordnung: Die SPEC92/int-Leistung einer 715/64 entsprach in etwa der des zeitgleich erschienenen Pentium/90 MHz. Ebenfalls neu ist die Emulation des NCR 53c710 SCSI-Controllers (verwendet in der 715/64) sowie ein dazu passendes aktualisiertes SeaBIOS-hppa-BIOS.
Modernisierung des kryptografischen Subsystems
Das Krypto-Subsystem von QEMU wurde mit Version 10.2 modernisiert, indem die Mindestversionen wichtiger Kryptobibliotheken angehoben und neue Funktionen wie das Laden mehrerer X.509-Zertifikats-Identitäten zur Unterstützung post-quantenkryptografischer Übergänge implementiert wurden. Zudem wurden die TLS-Sicherheit und die Zertifikatsprüfung verbessert, veraltete Mechanismen wie externe Diffie-Hellman-Parameter als „deprecated“ gekennzeichnet und mehrere Stabilitäts- und Sicherheitsprobleme behoben. Das Plan-9-Dateisystem 9pfs ermöglicht es QEMU, Host-Verzeichnisse wie Shared Folders direkt im Gast einzubinden. Diese bislang weitgehend auf Linux-Hosts beschränkte Funktion steht nun auch auf FreeBSD-Hosts zur Verfügung.
Mehr Geschwindigkeit unter hoher I/O-Last durch io_uring(7)
Die Entwickler haben bei QEMU 10.2 den Main-Loop auf io_uring(7) umgestellt, eine moderne Schnittstelle für asynchrone I/O-Operationen unter Linux. Dadurch sollen I/O-Vorgänge effizienter verarbeitet werden und so vor allem unter hoher I/O-Last zu spürbaren Performance-Verbesserungen führen. Wer seinen Workflow auf QEMU 10.2 aktualisiert sollte unbedingt auch einen Blick auf die Liste der Funktionen werfen, die in absehbarer Zeit entfernt werden (depreciated).
Ab sofort verfügbar
Während der größte Teil des QEMU-Projekts GPL2-lizenziert ist, stehen Teile wie der Tiny Code Generator (TCG) unter der BSD- oder MIT-Lizenz. Als freies OpenSource-Projekt ist QEMU 10.2 kostenlos verfügbar und kann ab sofort von der Projektseite heruntergeladen werden. Sämtliche Änderungen und mögliche Inkompatibilitäten des QEMU 10.2-Release sind im Changelog dokumentiert.
(swi)
Künstliche Intelligenz
Gefährlicher Elektroschrott: Umwelthilfe fordert Pfand auf Hochenergieakkus
Die Deutsche Umwelthilfe (DUH) sorgt sich um die Sicherheit von gefährlichen Energiespeichern. Vor allem die von Hochenergieakkus ausgehenden Brandgefahren stellen Entsorger und Kommunen laut der zivilgesellschaftlichen Organisation vor gewaltige Herausforderungen. Zwar sehe die ab Juli 2026 geltende jüngste Reform des Elektrogerätegesetzes vor, dass Altgeräte auf Wertstoffhöfen nur noch unter Aufsicht von Fachpersonal nach dem sogenannten Thekenmodell angenommen werden dürften. Doch für den Handel fehle eine vergleichbare Sicherheitslösung bisher komplett.
Weiterlesen nach der Anzeige
Um diese Lücke zu schließen und gleichzeitig die Rücklaufquoten zu steigern, fordert die DUH die Einführung eines flächendeckenden Pfandsystems für Hochenergieakkus. Nur ein finanzieller Anreiz könne sicherstellen, dass die brandgefährlichen Lithium-Ionen-Energieträger kontrolliert zurückgegeben werden, heißt es. Sonst lagerten diese in Kellern oder verursachten potenziell gefährliche Brände in Müllfahrzeugen und Sortieranlagen.
Hochenergieakkus zeichnen sich durch eine maximale Energiedichte aus, um bei geringem Gewicht und Volumen eine möglichst lange Betriebsdauer für Anwendungen wie Elektroautos oder Smartphones zu ermöglichen. Im Gegensatz zu Hochleistungsakkus liegt ihr Fokus weniger auf schnellen Entladeströmen, als vielmehr auf der effizienten Speicherung großer Energiemengen über lange Zeiträume. Zur Gruppe der Hochenergieakkus zählen etwa auch Feststoffbatterien und Lithium-Schwefel-Akkus.
Handelsbedarf auch bei E-Zigaretten
Im Bereich der Einweg-E-Zigaretten und Tabakerhitzer sieht die Organisation ebenfalls dringenden Handlungsbedarf. Ohne einen klaren finanziellen Anreiz wie ein Pfand werde hier die geplante Rücknahmepflicht im Handel nach Einschätzung der Experten weitestgehend ins Leere laufen, da die Produkte weiterhin über den Hausmüll oder in der Umwelt entsorgt würden. Die DUH begrüßt die Ankündigung der Bundesregierung für ein generelles Verbot von Wegwerf-Vapes grundsätzlich. Zugleich mahnt sie aber eine sofortige Umsetzung dieses Vorhabens über die Tabakerzeugnisverordnung an, um der Ressourcenverschwendung und den Entsorgungsrisiken zeitnah ein Ende zu setzen.
Das Pochen auf schärfere Maßnahmen begründen die Umweltaktivisten mit einer ernüchternden Bilanz der bisherigen Sammelbemühungen in Deutschland. 2023 habe auf Basis der aktuellsten verfügbaren offiziellen Zahlen die Sammelquote für Elektroaltgeräte bei nur 29 Prozent gelegen. Damit sei das gesetzliche Ziel von 65 Prozent schon zum sechsten Mal in Folge drastisch verfehlt worden.
Hersteller und Händler in die Pflicht nehmen
Weiterlesen nach der Anzeige
DUH-Bundesgeschäftsführerin Barbara Metz macht dafür vor allem die mangelnde Haftung von Herstellern und Händlern verantwortlich. Da das Verfehlen der Quoten bislang keine rechtlichen Konsequenzen nach sich ziehe, fehle der Industrie der Antrieb, die Rückgabe für Verbraucher wirklich kundenfreundlich und attraktiv zu gestalten. Die Umwelthilfe ruft daher dazu auf, Hersteller gesetzlich zum Einhalten der Vorgaben zu verpflichten. Nur dies baue den nötigen Druck für eine offensive Informationspolitik und bessere Rücknahmesysteme auf.
Die fürs kommende Jahr anstehenden gesetzlichen Anpassungen, zu denen ein einheitliches Sammelstellenlogo und Hinweispflichten zur Getrenntsammlung direkt am Produkt gehören, wertet die DUH als wichtige Schritte. Diese reichten aber bei weitem nicht aus. Ein großes Hindernis bleibe die Erreichbarkeit der Rückgabestellen. Aktuelle Ausnahmeregelungen, die sich an der Verkaufsfläche der Läden oder der Größe der Geräte orientieren, führten dazu, dass viele Händler gar keine Altgeräte annehmen müssten.
Die DUH plädiert deshalb für eine Rücknahmepflicht für alle Elektrohändler, unabhängig von der Ladengröße. Zudem sollte die Kantenlänge für Geräte, die ohne Neukauf zurückgegeben werden können, von derzeit 25 auf 50 Zentimeter angehoben werden. Allein bei einer solchen Kombination aus finanziellen Anreizen, strengen Quoten und einem barrierefreien Zugang zur Entsorgung könne die Kreislaufwirtschaft bei E-Schrott endlich funktionieren.
(jpw)
Künstliche Intelligenz
100 Millionen in Italien: Strafen für Apples App-Tracking-Transparenz sind teuer
Apples sogenannte App-Tracking-Transparenz, kurz ATT, sorgt in einem weiteren Land für den Konzern für Ärger: Die italienische Marktaufsicht AGCM (Autorità garante della concorrenza e del mercato) möchte laut Pressemitteilung aus der vergangenen Woche insgesamt 98,6 Millionen Euro sehen, weil die Funktion, mit der Nutzer App-übergreifende Werbeverfolgung auf dem iPhone unterbinden können, „den Wettbewerb behindert“. Damit folgen die Italiener ähnlichen Einschätzungen aus anderen europäischen Regionen, darunter darunter Deutschland, Frankreich, Polen und Großbritannien.
Weiterlesen nach der Anzeige
Behörde: Entwickler müssen doppelt nach Daten fragen – und das schadet ihnen
„Die Feststellungen der Behörde bestätigten aus wettbewerbsrechtlicher Sicht den restriktiven Charakter der App‑Tracking‑Transparency‑Richtlinie (…) gegenüber Drittentwicklern von Apps, die über den App Store vertrieben werden“, so der Regulierer. Drittanbieter‑App‑Entwickler müssten über den ATT‑Dialog eine gesonderte Einwilligung für die Erhebung und Verknüpfung von Daten zu Werbezwecken einholen. Die Strafe erklärt die AGCM mit einer interessanten Begründung: Dieser Dialog erfülle nicht die Anforderungen der Datenschutzgesetzgebung, sodass Entwickler gezwungen seien, für denselben Zweck eine zweite – eigene – Einwilligungsabfrage vorzunehmen.
„Die doppelte Einwilligungsabfrage, die sich zwangsläufig aus der ATT‑Richtlinie in ihrer derzeitigen Umsetzung ergibt, schränkt die Erhebung, Verknüpfung und Nutzung solcher Daten ein“, schreibt die Behörde. Der Ansatz der AGCM unterscheidet sich von anderen Einschätzungen gegenüber ATT – wie etwa die des Bundeskartellamtes. Dort hieß es, Hauptgrund der Bedenken sei, dass die „engen Anforderungen“ des ATT-Systems nur für andere App-Anbieter, aber nicht für Apple selbst gelten. Allerdings hatte schon Frankreich in seinem Vorgehen gegen das Apple-System ähnlich argumentiert wie die AGCM. Entwicklern falle es übermäßig schwer, mit ATT die Datenschutzgrundverordnung (DSGVO) einzuhalten, wenn sie doch tracken wollten.
Ende von ATT in Deutschland und anderswo naht
Apple dürfte gegen die Kartellstrafe der AGCM vorgehen. Der Konzern teilte in einer Stellungnahme mit, dass er der Einschätzung deutlich widerspricht. Wie schon in Frankreich gäbe es zudem ein Schlupfloch: Das ATT-Pop-up könnte „konformer“ zur DSGVO gemacht werden. Wie, ist allerdings unklar, zumal sich die Einschätzungen regelmäßig auf EU-Ebene zu wandeln scheinen.
Grundsätzlich ist die Funktion sehr beliebt – viele Nutzer wollen nicht, dass Daten von einer App zur anderen übergeben werden. Anbieter bedienen sich mittlerweile Tricks, Apples Einschränkungen zu umgehen, gegen die der iPhone-Hersteller vorgeht. Im Oktober hatte Apple öffentlich davor gewarnt, dass man die Anti-Tracking-Funktion in Deutschland womöglich abschalten müsste – sowie in anderen EU-Ländern.
Weiterlesen nach der Anzeige
(bsc)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
