Künstliche Intelligenz
Nvidia DGX Spark: Ist das wirklich der KI-„Supercomputer“?
Er wird als „KI-Supercomputer auf dem Schreibtisch“ beworben; aber kann Nvidias DGX Spark halten, was er verspricht? Wir haben die OEM-Variante Gigabyte AI Top Atom auf Herz und Nieren getestet und sie gegen die AMD-Strix-Halo-Konkurrenz (AI Max+ 395) antreten lassen.
Der Video-Test folgt unten, die Textvariante ist hier (heise+).
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, ich habe ihn endlich, den KI-Supercomputer für den Schreibtisch. Also zumindest bezeichnet Nvidia den DGX Spark so. Mein Testgerät kommt von Gigabyte und heißt AI Top Atom. Kostenpunkt: 4.300 Euro. Naja, das ist ja quasi nichts für so einen richtigen Supercomputer, oder?
Wir haben das Ding auf jeden Fall mit der Konkurrenz von AMD verglichen, also der Strix Halo Plattform, die ja in Vollausstattung AMD Ryzen AI Max+ 395 heißt. Konkret ist das der Framework Desktop. Darüber haben wir schon mal ein Video gemacht. Beide Rechner haben 128 Gigabyte schnellen Speicher. Und ich sage euch, ich fand die Ergebnisse richtig interessant. Und kleiner Spoiler: In vielen Benchmarks ist die AMD-Plattform tatsächlich schneller, obwohl die Geräte deutlich günstiger sind als die mit Nvidia-Technik. Und ja, meinen Gaming-PC haben wir auch mit in den Vergleich genommen. Bleibt dran.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…
Also, da ist er nun, der Nvidia DGX Spark, beziehungsweise in meinem Fall der Gigabyte AI Top Atom. Und das kann man auf jeden Fall schon mal sagen: Das ist ein sehr ungewöhnliches Gerät. Angekündigt von Nvidia im Januar 2025 als KI-Supercomputer für den Schreibtisch, gibt es das Teil eben nicht nur von Nvidia im Goldgehäuse, sondern auch leicht modifiziert von Acer, Asus, Dell, HP, Lenovo und MSI. Und eben wie gesagt von Gigabyte, die uns als Erste ein Testgerät geschickt haben. Vielen Dank dafür.
Hätte man mich allerdings gefragt, hätte ich vielleicht den Begriff Atom vermieden, weil das ja nun der Markenname von Intels Billig-Prozessoren ist, die ich eher mit wenig Rechenpower assoziiere. Aber okay, der Gigabyte AI Top Atom kostet auf jeden Fall 4.300 Euro und hat wie alle DGX Spark-Varianten zwei wesentliche Besonderheiten. Einmal den Nvidia-Kombiprozessor GB10. GB steht für Grace Blackwell mit eingebauter Nvidia-GPU als CUDA-kompatiblen KI-Beschleuniger und zweitens viel, viel, viel schnellen Speicher, nämlich 128 Gigabyte LPDDR5X-RAM.
Weiterlesen nach der Anzeige
Aber wenn man sich diese Tabelle ja mal anguckt, ist die Geschwindigkeit zwar deutlich schneller als normales DDR5-RAM, aber eben auch bei Weitem nicht so schnell wie das Video-RAM auf aktuellen Grafikkarten. Und das sehen wir auch bei unseren Geschwindigkeitsmessungen, aber dazu später mehr.
Erst mal noch mal kurz, was die sonst noch so mitbringen, die Hardware. Am auffälligsten ist wohl der ziemlich exotische 200-Gigabit-Netzwerkadapter ConnectX-7, mit dem man mehrere dieser Rechner verkoppeln kann. Aber es gibt auch noch einen normalen RJ45-Port mit 10-Gigabit-Ethernet. Ansonsten halt einfach nur einen HDMI-2.1a-Port und vier USB-C-Ports, einer davon für die Stromversorgung. Ja, die läuft tatsächlich über USB Power Delivery und das Teil zieht unter Volllast auch maximal nur 216 Watt.
Hier seht ihr auch noch unsere anderen Messwerte, die meine Kollegen aus dem Hardwareressort der c’t ermittelt haben. Interessant dabei ist, dass der GPU-Teil des GB10-Kombiprozessors genauso viele Shader-Einheiten respektive CUDA-Kerne hat wie die GPU der Gaming-Grafikkarte RTX 5070, nämlich 6.144 Stück. Aber die sind bei der DGX Spark anders strukturiert, nämlich für KI-Algorithmen optimiert. Beispielsweise hat die GB10-GPU doppelt so viele Tensorkerne wie die 5070, nämlich 384 statt 192, aber weniger Render Output Units, 49 statt 80.
Kann man also genauso gut eine Grafikkarte nehmen, vor allem wenn da ja, wie gesagt, auch noch viel schnellerer Speicher drin ist? Ja, nee, denn Consumer-Grafikkarten haben zurzeit maximal 32 Gigabyte Speicher. Die 5070 hat sogar nur 16 und unser Testgerät halt 128 Gigabyte. Aber so Geräte mit 128 Gigabyte schnellem Unified Speicher gibt es ja auch noch mit anderen Architekturen, zum Beispiel von Apple oder von AMD.
Praktischerweise habe ich direkt so einen AMD Ryzen AI Max+ 395 da, also die Strix-Halo-Plattform und zwar den Framework Desktop. Was tatsächlich ein bisschen lustig ist: Strix Halo sollte ja die Antwort auf Nvidias DGX Spark sein, weil da bei der CES im Januar diesen Jahres viele Leute darüber gesprochen haben, war dann aber am Ende tatsächlich deutlich früher im Handel als das, worauf eigentlich reagiert werden sollte.
Auf alle Fälle sind vergleichbare Geräte mit AMD-Technik deutlich preisgünstiger. Also den Framework Desktop gibt es mit gleicher Ausstattung wie der DGX Spark, also mit 4 Terabyte SSD, für 2.800 Euro, also 1.500 Euro günstiger als die Nvidia-Variante. Von zum Beispiel GMKtec gibt es sogar einen AI Max+ 395 mit 128 Gigabyte für 1.999 Euro. Der hat dann allerdings nur 2 Terabyte SSD. Und ja, dazu kann ich im Moment auch noch nichts sagen, weil ich den noch nicht getestet habe.
Aber jetzt wird es auf jeden Fall interessant. Wie schneiden die beiden Kontrahenten denn jetzt ab mit so lokalen KI-Anwendungen? Ja, da habe ich nun versucht, den Vergleich so gerecht wie möglich aufzubauen. Also der Nvidia-Rechner läuft ja mit dem selbst benannten Nvidia DGX OS. Das ist aber eigentlich nur ein Ubuntu Linux mit einem angepassten Kernel. Und zwar ist der Kernel auch noch alt. Er hat Version 6.11. Das Ding ist über ein Jahr alt. Aktuell ist 6.17. Naja, aber dieses DGX OS ist eben das offiziell empfohlene Betriebssystem für DGX Spark-Computer. Deshalb nehmen wir das natürlich.
Bei dem Framework Desktop hier nennt Framework zwei offiziell unterstützte Linux-Varianten, einmal Fedora und einmal Beside. Beside ist ja eher so Gaming-orientiert. Deshalb habe ich einfach Fedora Workstation 43 installiert. Bei meinem Vergleichs-Gaming-PC läuft CachyOS.
Ja, und der erste Benchmark war natürlich LLM-Abzapfen aka Inferenz. Da habe ich auf allen Rechnern LM Studio in der aktuellen Version 0.3.31 verwendet. Als Runtime natürlich CUDA für Nvidia und Vulkan für das AMD-System. ROCm kann LM Studio eigentlich auch, aber das lief bei uns nicht. Und ram tam tam tam – hier sind die Ergebnisse.
Ja, ich würde sagen, das nimmt sich nicht viel. Beziehungsweise bei dem wichtigen Modell GPT-OSS:120B ist der günstigere AMD-Rechner sogar 11 Prozent schneller. Generell kann man auf jeden Fall sagen: Wenn ihr nur LLM-Inferenz machen wollt, könnt ihr gut das AMD-Modell nehmen.
Fernab von den Vergleichen: Es ist auf jeden Fall beeindruckend, mit GPT-OSS ein 63 GB großes Modell mit 120 Milliarden Parametern mit fast 50 Token die Sekunde laufen zu lassen auf so einem kleinen Ding. Das ist tatsächlich besonders. Allerdings gibt es auch nicht so viele Open-Source-Modelle, die so groß sind.
Und da kommt jetzt mein Gaming-PC mit RTX 4090 ins Spiel. Guckt mal hier, der ist mit den meisten von mir getesteten aktuell populären Sprachmodellen ungefähr dreimal so schnell, weil die halt klein sind und in den 24-Gigabyte großen Speicher meiner 4090 passen. Nur halt GPT-OSS 120B nicht. Das muss ich in meinen langsamen, normalen DDR5-Arbeitsspeicher auslagern. Und deshalb schaffe ich damit dann nur 16,9 Token.
So, jetzt sind mir aber noch andere interessante Unterschiede aufgefallen. So lädt GPT-OSS:120B bei der Nvidia-Kiste viel länger, nämlich anderthalb Minuten. Gleichzeitig friert auch der Bildschirm jedes Mal für ein paar Sekunden ein. Also ich kann auch die Maus einige Sekunden lang nicht bewegen. Mit den anderen beiden Rechnern lädt das Modell deutlich schneller, in weniger als 20 Sekunden.
So, aber wir können jetzt auch RAG machen, also eigene Dateien mit dem Sprachmodell analysieren. Ich habe hier mal das Programm des sogenannten Entdeckertags der Region Hannover reingeschmissen und dann Fragen dazu gestellt. Damit das ganze PDF in den Kontext passt, muss man das Kontextfenster manuell hochziehen auf mindestens 20.000 Token.
Ja, das Ding ist jetzt, dass die Nvidia-Workstation nur 14 Sekunden braucht, um das alles zu verarbeiten. Die AMD-Konkurrenz braucht fast vier Minuten und mein Gaming-PC 46 Sekunden. Also der Teufel steckt bei solchen Sachen wirklich im Detail. Müsst ihr wirklich überlegen, was ihr machen wollt, was da die richtige Hardware für euch ist.
Übrigens habe ich auch alles mal testweise mit Ollama gemessen, und da kann ich euch sagen: LM Studio ist auf allen drei Systemen immer schneller gewesen. Hier die Zahlen dazu.
Ja, aber man will ja vielleicht mit so einer Workstation nicht nur LLMs anzapfen, sondern vielleicht auch Bilder, Videos oder Musik generieren. Und das machen inzwischen viele Leute mit ComfyUI. Das ist so eine Node-basierte GenAI-Umgebung. Und ja, die lässt sich bei Nvidia wunderbar einfach installieren. Es gibt da nämlich sogenannte Playbooks, und das sind so recht übersichtlich gemachte Tutorials, wie man bestimmte Dinge zum Laufen bringt. Und da gibt es ziemlich viele dieser Playbooks von Nvidia, also auch für so Feintuning-Sachen, zum Beispiel Anbindungen in VSCode und natürlich wie gesagt auch ComfyUI.
Das Playbook sagt, die Installation dauert 45 Minuten. Das ist aber wirklich sehr pessimistisch. Das hat in meinem Fall nicht mal 15 Minuten gedauert. Auf dem Framework Desktop sah die Sache dann schon wirklich anders aus. Da habe ich mich leider stundenlang festgefrickelt, weil ich es lange nicht hinbekommen habe, dass ComfyUI meine ROCm-Installation akzeptiert. Und da merkt man dann halt deutlich, dass viele Sachen eben mit Nvidia CUDA im Kopf entwickelt wurden. Also ROCm ist quasi die AMD-Variante von CUDA, aber eben ein bisschen weniger populär.
Ja, und am Ende habe ich es hinbekommen. Aber mein Benchmark hier, das ist einfach das Bildgenerierungsmodell FLUX.1-dev-fp8. Da habe ich einfach das Standard-Template mit einem eigenen Prompt genommen. Und da braucht das Generieren eines 1024×1024 Pixel großen Bildes mit dem Nvidia DGX Spark-System 38 Sekunden, bei dem AMD-System 89 Sekunden, also mehr als doppelt so lange. Mein Gaming-PC mit RTX 4090 schafft es in 12 Sekunden.
Wenn ihr jetzt aufgepasst habt, dann habt ihr vielleicht gemerkt, dass es eine einzige Sache gab bislang, die mein Gaming-PC nicht deutlich besser gemacht hat als die beiden speziellen KI-PCs. Und das ist tatsächlich das Abzapfen des einen großen LLMs GPT-OSS:120B, weil das eben nicht in die 24 Gigabyte Speicher meiner RTX 4090 passt. Aber der ganze andere Kram eben schon. Also gerade diese Bild- und Video-Generierungssachen, die sind halt auf kleinere RAM-Größen ausgelegt.
Okay, ja gut, man könnte natürlich von den offenen Sprachmodellen statt mit 4-Bit quantisierte Modelle irgendwie, keine Ahnung, 8-Bit quantisierte Modelle nutzen. Die würden auch nicht in den Speicher meiner Grafikkarte passen. Und natürlich schon in die AMD-Workstation, in die Nvidia-Workstation. Das würde schon gehen. Aber ob das so viel bringt, ist die Frage.
Aber generell kann man auf jeden Fall sagen: Es fehlen die Inferenz-KI-Killer-Applikationen für diese Speichergröße, weil dann am Ende 128 Gigabyte dann doch zu wenig sind, um zum Beispiel so etwas wie DeepSeek zu laden, was also wirklich ein ernsthafter Wettbewerber zu den großen kommerziellen Cloud-Modellen ist. Aber das braucht halt einfach mindestens das Fünffache an Speicher.
Und deshalb muss man sagen, dass die KI-Workstations wirklich für ordentliche normale KI-Anwender wahrscheinlich nichts sind und dass am Ende die Nützlichkeit sehr, sehr, sehr, sehr spezifisch ist. Also zum Beispiel, das ist für Leute, die irgendwelche KI-Software in Rechenzentren deployen wollen und die vorher auf der gleichen Architektur testen wollen. Also ein ganz spezielles Entwicklergerät für die Nvidia-Serverplattform DGX.
Wenn ich mir jetzt aber angucke, wie viele Hersteller diese sehr, sehr speziellen Rechner verkaufen, da denke ich schon, da scheint der KI-Hype dann doch schon mit reinzuspielen. Denn gibt es wirklich so viele Entwickler, die einen so speziellen Rechner brauchen? Weiß nicht.
Beim Framework ist es ja so, dass der Rechner primär als Gaming-PC vermarktet wird. Also zumindest steht hier auf der Website Gaming noch vor KI und auch die Produktfotos, die sehen mir sehr nach Gaming aus. Aber auch hier ist es so: Das Preis-Leistungs-Verhältnis ist, wenn man damit nur spielen will, ziemlich schlecht.
Ja, also wenn jemand von euch da draußen mit diesen Geräten liebäugelt: Ich hoffe, dieses Video hat euch ein bisschen geholfen, das Thema besser einzuschätzen. Ich jedenfalls, der sehr gerne mit lokalen KI-Sachen herumexperimentiert, kann für mich auf jeden Fall sagen, dass ich mit meinem PC mit RTX 4090 und 128 GB langsamem DDR5-RAM als Backup-Notlösungsspeicher Stand heute mehr anfangen kann als mit diesen beiden spezialisierten Geräten. Aber ich bin auch kein Entwickler, der irgendwelche Modelle fine-tuned – bisher jedenfalls nicht – oder Anwendungen für DGX-Systeme baut.
Ja, wie seht ihr das? Bin ich da total auf der falschen Spur? Gerne in die Kommentare schreiben und tschüss.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
Künstliche Intelligenz
Meta plant angeblich Gesichtserkennung für Smart Glasses
Meta will laut einem Bericht der New York Times noch in diesem Jahr Gesichtserkennung für seine Smart Glasses einführen. Die Zeitung beruft sich dabei auf mehrere mit den Plänen vertraute Quellen.
Weiterlesen nach der Anzeige
Die Funktion werde intern „Name Tag“ (Deutsch: Namensschild) genannt und solle es Trägern ermöglichen, Personen in ihrer Umgebung zu identifizieren. Konzernchef Mark Zuckerberg wolle sich damit von konkurrierenden Produkten abheben und den KI-Assistenten der Brillen aufwerten, heißt es.
Metas Wearables entwickeln sich derzeit zum Verkaufserfolg: Brillenpartner EssilorLuxottica meldete am Donnerstag sieben Millionen verkaufte Geräte im vergangenen Jahr. Insgesamt dürfte sich die Stückzahl der Marke von zehn Millionen nähern. Für dieses Jahr ist eine massive Produktionssteigerung geplant.
Gesichtserkennung auf Meta-Nutzer beschränkt
Meta prüfe derzeit, wer durch die Gesichtserkennung überhaupt erkennbar sein soll, heißt es im Bericht der New York Times. Erwogen werde, dass nur Personen identifiziert werden, mit denen der Brillenträger auf einer Meta-Plattform vernetzt ist, oder Menschen mit einem öffentlichen Konto auf Meta-Diensten wie Instagram, die der Nutzer nicht persönlich kennt. Eine universelle Gesichtserkennung sei nicht geplant.
In einem internen Dokument, das der Zeitung vorliegt, heißt es, Meta habe die Funktion im letzten Jahr zunächst Teilnehmern einer Konferenz für Blinde bereitstellen wollen, bevor sie der breiten Öffentlichkeit zugänglich gemacht wird. Dieser Schritt sei jedoch nicht umgesetzt worden. Auch die aktuellen Pläne könnten sich noch ändern.
Politische Lage einkalkuliert
Weiterlesen nach der Anzeige
Im vergangenen Jahr berichtete The Information, dass Meta schon 2021 geplant hatte, Gesichtserkennung einzuführen, sich jedoch dagegen entschieden hätte. In jenem Jahr erschien die erste Generation von Metas Smart Glasses, die bei Konsumenten jedoch nur wenig Anklang fand. Inzwischen haben sich sowohl die Marktlage als auch die politische Situation in den USA verändert.
Letztere hat Meta angeblich einkalkuliert: „Wir werden die Einführung in einem dynamischen politischen Umfeld vornehmen, in dem viele zivilgesellschaftliche Gruppen, von denen wir erwarten würden, dass sie uns angreifen, ihre Ressourcen auf andere Anliegen konzentrieren“, heißt es in dem internen Dokument, das der New York Times vorliegt.
In einer Stellungnahme dementierte Meta die Gerüchte nicht. „Wir hören zwar häufig von einem Interesse an einer solchen Funktion – und einige solcher Produkte gibt es bereits auf dem Markt –, prüfen derzeit jedoch noch verschiedene Optionen und werden behutsam vorgehen, falls und bevor wir etwas einführen“, ließ das Unternehmen mitteilen.
(tobe)
Künstliche Intelligenz
RAM: Plastik- statt Pappverpackung soll vor Betrug schützen
Der DRAM-Riegelhersteller Corsair tauscht bei einigen Arbeitsspeicher-Kits die Verpackung aus. Statt in einer Pappschachtel kommen sie künftig in durchsichtigem Kunststoff. Corsair reagiert damit auf Betrugsmaschen, die aufgrund der aktuellen Speicherkrise besonders lukrativ sind.
Weiterlesen nach der Anzeige

Die neue Verpackung des Herstellers Corsair (unten vorn) im Vergleich mit der alten (oben hinten).
(Bild: Corsair)
Im Idealfall sehen Interessierte schon bei einem Kauf vor Ort, dass sich originale Riegel in der Verpackung befinden. Beim gängigeren Onlinekauf soll die Bauchbinde dagegen besser vor einer der gängigsten Betrugspraktiken schützen: Betrüger bestellen den Speicher, tauschen die Riegel aus und schicken das Päckchen dann wieder retour. Manche Händler prüfen Rücksendungen nur unzureichend und verkaufen sie anschließend erneut. Bisher hatten Corsair-Kits nur einen durchsichtigen runden Aufkleber, um eine Verpackung zu verschließen. Diese ließ sich öffnen, ohne den Aufkleber zu beschädigen. Die Bauchbinde reißt dagegen auf.
Vengeance macht den Start
Corsair stellt die Verpackungen laut Ankündigung bei allen Varianten seines DDR5-Arbeitsspeichers aus der Vengeance-Serie mit zwei Modulen um, einschließlich der normalen Versionen und der RGB-Varianten. Um den Umwelteinfluss etwas aufzufangen, betont der Hersteller die Verwendung von recyceltem Kunststoff.
Bis alle alten Kits mit der Pappverpackung abverkauft sind, könnte noch einige Zeit vergehen. Wer aktuell Corsair-Speicher bestellt, könnte noch die alte Ausführung erhalten.
Generell gilt gerade mehr denn je: Käufer sollten Speicherriegel genau inspizieren und nach dem Einbau die Spezifikationen auslesen. Das gängige Auslese-Tool CPU-Z zeigt im Reiter Memory die wichtigsten Daten an, darunter die Kapazität und die im BIOS eingestellten Frequenzen sowie Timings.
Weiterlesen nach der Anzeige
(mma)
Künstliche Intelligenz
AirTag 2 im Praxistest: 50 Meter statt 15 – ein echter Gamechanger | c’t 3003
Apple verspricht beim AirTag 2 eine deutlich höhere UWB-Reichweite – aber stimmt das auch in der Praxis? c’t 3003 hat den neuen Tracker gegen den Vorgänger und Motorolas Android-Alternative antreten lassen. Das Ergebnis: Bis zu 50 Meter statt 15 Meter Nahfunk-Reichweite machen beim Suchen einen gewaltigen Unterschied.
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, das ist ein AirTag 2 und ja, sieht genauso aus wie die Version, die vor 5 Jahren rausgekommen ist, kostet auch genauso viel und ist das zurzeit preisgünstigste Gadget von Apple.
Auch wenn mir das ein bisschen peinlich ist: Die AirTags sind für mich persönlich der Hauptgrund, warum ich wahrscheinlich für ewig im Apple-Ökosystem rumhänge, weil ich ohne die Dinger einfach nicht mehr leben kann. Und der AirTag 2 soll das jetzt alles noch viel besser machen, mit einer deutlich höheren Reichweite, was für mich echt ein Gamechanger wäre. Denn ich habe das ständig, dass ich irgendwas suche, aber mein Handy keine Verbindung zum AirTag aufnimmt – und dann laufe ich da immer so doof rum, bis ich da eine Verbindung bekommen habe.
In diesem Video testen wir das Ganze unter harten, realen Bedingungen am und im Heise-Verlag und finden heraus, ob die neuen AirTags wirklich besser sind. Und ich habe auch noch den härtesten Konkurrenten aus dem anderen Lager in den Test reingenommen: Und zwar den Moto Tag für Android-Smartphones, der auch wie die AirTags über Ultra-Breitband, also UWB, zentimetergenau ortbar ist. Bleibt dran!
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…
Lasst uns gleich mal reinstarten in unseren Praxistest, bevor ich dann später erkläre, wie das technisch alles funktioniert. Erstmal in Gang setzen die Dinger und das finde ich immer wieder magisch, denn man muss da einfach nur diese Lasche abziehen und schon meldet sich das Smartphone und sagt: „Hey, ich habe einen Tag gefunden, soll ich den installieren?“ Also wirklich richtig schön einfach. Und das klappt beim Moto Tag übrigens exakt genauso wie bei den Apple AirTags.
Weiterlesen nach der Anzeige
Hier ist einmal Keno aus der Zukunft. Mir ist kurz vorm Hochladen dieses Videos aufgefallen, dass die Nahbereichssuche mit Ultra-Breitband im Moto Tag nur mit Google-Pixel-Pro-Telefonen funktioniert und ich habe ein normales Pixel 9 verwendet. Das kann nur Bluetooth, kein Ultra-Breitband. Und deshalb funktionierte mit dem Moto Tag keine Nahbereichssuche, also die Suche mit dem Pfeil und der Meterangabe. Tut mir leid, blöder Fehler, den Test hole ich auf jeden Fall nach, also im Vergleich zu AirTags. Dann machen wir ein Short-Video, das verlinke ich dann hier in diesem Video als angepinnten Kommentar. Trotzdem viel Spaß mit dem Video, die Infos zu den AirTags und die anderen Infos zum Moto Tag, die stimmen alle in dem Video.
Jetzt aber nach draußen. AirTag 1, AirTag 2 und Moto Tag hat mein Kollege Sahin gut versteckt. Ungefähr 50 Meter entfernt von mir. Ich habe dann so versteckenmäßig mir die Augen zugehalten. 50 gezählt. Ja, und dann habe ich versucht mit Moto Tag und dem alten AirTag die Fährte aufzunehmen. So, dann fangen wir mal an mit Google, würde ich sagen. Okay, Moto Tag anmachen. „In der Nähe suchen“, wird verbunden. Also hier funktioniert nicht. Ich probiere aber jetzt mal das alte AirTag. So, AirTag 1, „Suchen“ in der Nähe. AirTag 1 „Suchen“ ist nichts. Ich würde sagen, hier stehe ich schon ziemlich im Mittelpunkt und ist trotzdem bei beiden nichts. Beide haben noch kein Signal. Jetzt probiere ich noch mal den Tag 2. Jetzt, der geht jetzt – und der auch noch nicht, aber zumindest hat er gerade schon mal … bietet er es jetzt wenigstens an. Ah, er hat jetzt kurz „Verbunden“ gesagt, der Google Tag. Wenn ich … mach das mal systematisch, dass ich jetzt hier … Also er sagt „Verbunden“, aber es wird mir hier irgendwie kein Signal schwach … Ja, „Versuche dich an einen anderen Ort zu bewegen“. Keine Chance mit dem AirTag 2, erstmal auch nicht. Und dann bin ich aber einfach ein bisschen rumgelaufen und habe geguckt, wann der AirTag 2 anschlug. Und das war schon relativ schnell der Fall.
Aha! Guck mal, jetzt hat er direkt ausgeschlagen, der AirTag 2. Bei 23 Meter Entfernung. So, und dann habe ich an dieser Stelle auch bei den anderen beiden Tags geguckt, ob die auch schon gesehen werden. Und der AirTag 1? Nicht. Und das Moto Tag zeigt mir nicht mal an, dass ich überhaupt … Also könnte ich das klingeln lassen? Gerät klingelt. Gut, aber das hilft mir jetzt gar nicht weiter. Weil ich höre nichts. Wurden sie nicht. Das bedeutet, ohne AirTag 2 wäre ich hier noch viel länger kopflos rumgelaufen. Aber dank AirTag 2 hatte ich ja dann direkt meinen Pfeil. Ich wusste also, wo es lang geht. Das hat dann mit AirTag 1 und Moto Tag deutlich länger gedauert, bis die dann auch endlich mal die Fährte aufgenommen haben. Da muss ich also deutlich näher dran.
Und was man auch sagen muss, der Moto Tag ist deutlich unpraktischer. Aber klar, man kann alle diese Tags auch einfach piepen lassen. Aber das finde ich A, ziemlich unelegant und B, hört man es oft einfach nicht. Wir haben die Schallpegel bei uns im Labor gemessen. Dazu gehe ich später noch im Detail ein. Ich lasse es mal klingeln. Okay, das höre ich. Ah. Im Reifen? Ah, ja, sehr gut, okay. Also ich hätte es irgendwann wahrscheinlich gefunden mit Moto Tag. Und irgendwann hätte ich wahrscheinlich, wenn ich halt so brainless hier rumgelaufen wäre, wäre irgendwann der AirTag 1 angeschlagen. Und dann zeigt er einem halt auch irgendwann einen Pfeil an, wie jetzt. Das ist jetzt das AirTag 1. Das hat jetzt auch einen Pfeil, aber der Pfeil geht halt erst an, wenn man relativ dicht dran ist. Und beim AirTag 2 hatte ich den Pfeil halt schon 15 Meter weiter. Also ich bleibe hier jetzt einfach mal stehen und lasse alle drei piepen. Das ist der Moto Tag, das ist der AirTag 1. Schon durchdringender. Und jetzt der AirTag 2. Ja, das hat Druck. Ganz klar besser.
Ich habe auf jeden Fall beim Anpiepen beim Draußentest erst was gehört, als ich sehr dicht dran stand. Auch da war der AirTag 2 mit Abstand am lautesten. Die lagen halt auf diesem Radkasten und das schluckt natürlich so ein bisschen Schall. Aber in der Praxis kommt es ja auch mal vor, dass die Teile irgendwo vergraben sind. Deshalb lieber die Nahfunkfunktion benutzen, wie ihr am Anfang ja schon gesehen habt, also mit diesem neckischen Pfeil, zumindest bei den AirTags. Damit lassen sie sich völlig problemlos finden, ohne nerviges Gepiepe. Wenn man sich denn im Nahfunkbereich befindet, das muss man eben, sonst gibt es keinen Pfeil. Und das ist halt bei den AirTags 2 aus deutlich weiterem Abstand möglich, was natürlich praktisch ist. Also draußen mit direktem Sichtkontakt hatten wir beim AirTag 2 fast 50 Meter Entfernung gemessen. Beim AirTag 1 haben wir dann ungefähr ab 15 Meter schon das Signal verloren, ähnlich wie beim Moto Tag. Also das ist ein wirklich riesiger Unterschied. Punkt für den AirTag 2 schon mal.
Direkt mal der Einschub, weil ich das echt ziemlich oft höre. Nein, AirTags sind keine GPS-Tracker. AirTags kommunizieren nicht mit GPS-Satelliten, sondern das funktioniert viel einfacher. Die funken alle zwei Sekunden ein klitzekleines Bluetooth-Low-Energy-Hallo-hier-bin-ich-Signal in die Welt und wenn dann ein Apple-Gerät in Reichweite ist, dann kann das das empfangen und ein Signal ans AirTag schicken und sagen: „Piep mal“, also über Bluetooth. Und dann piept das AirTag und man kann es hoffentlich finden, weil man hört das dann ja – oder auch nicht, weil es unter drei Sofakissen liegt oder da halt im Radkasten von dem Auto oder halt gar nicht in Reichweite ist. Da kommen dann die anderen Funktionen ins Spiel und die sind technisch schon deutlich komplexer.
Denn einmal empfangen dieses Hier-bin-ich-Signal alle Apple-Geräte und im Fall von Google auch viele Android-Geräte, dazu komme ich später aber nochmal, also auch welche, die gar nichts mit dem AirTag zu tun haben. Wenn ihr zum Beispiel gerade dieses Video in der U-Bahn auf einem iPhone guckt, dann ist das nicht unwahrscheinlich, dass euer Telefon gerade AirTags empfängt und deren Position ans Apple-Netzwerk sendet. Anonymisiert und ohne, dass ihr das mitbekommt. Ja, das ist standardmäßig aktiviert, ihr könnt es aber auch abschalten, indem ihr in den Einstellungen auf Apple-ID, also auf euren Namen, dann den Punkt „Wo ist?“, dann auf „Mein iPhone suchen“ und dann den Schalter bei „Wo ist?“-Netzwerk deaktivieren. Aber dann könnt ihr selbst euer Telefon auch nicht mehr orten, ganz wichtig.
So, aber wieder zurück zum Standardfall, wenn ihr das aktiviert habt. Also wenn ihr in dieser U-Bahn zum Beispiel euren Rucksack liegen gelassen habt, ihr aber schon längst wieder woanders seid, dann könnt ihr hier auf der Karte in der „Wo ist?“-App sehen, wo euer Rucksack ist, ohne dass ihr selbst in Funkreichweite seid. Das regeln die anderen iPhones. Und das ist das Coole. AirTags laufen so circa ein Jahr mit so einer ganz kleinen Billo-Knopfzelle und sind super klein und leicht und können zumindest an Orten, wo viele iPhones rumlaufen, genauso gut lokalisiert werden wie echte, viel stromhungrigere GPS-Tracker. Wie AirTags übrigens als Diebstahlschutz funktionieren, dazu hatten wir schon ein eigenes Video, da will ich hier jetzt nicht drauf eingehen.
Aber AirTags haben, wie ich am Anfang ja schon gezeigt habe, noch eine dritte Funktion und das ist eben dieser Ultra-Breitband-Funk, der bei AirTags „Genaue Suche“, bei Moto Tag „In der Nähe suchen“ heißt. Das ist ziemlich faszinierende Technik, finde ich. Im Gegensatz zu Bluetooth, das nur ziemlich ungenau die Signalstärke misst, nutzt UWB extrem kurze Pulse auf einem breiten Frequenzspektrum, das ist so zwischen 6 und 9 GHz. Und die messen die Time of Flight, also die Zeit, die das Signal vom Handy zum AirTag und zurück benötigt. Und weil das iPhone mehrere Antennen hat dafür, erkennt es die Richtung, aus der das Signal kommt und kann deshalb eben diesen neckischen Pfeil anzeigen.
Allerdings, ich habe ja gerade von Antennen im Telefon gesprochen, muss das Handy das unterstützen. Bei Apple heißt das zum Beispiel U1-Chip. Bei Apple wäre das ab dem iPhone 11 und anderen Geräten, die Liste seht ihr hier, könnt ihr Pause drücken. Aber diese verbesserten Ortungsfunktionen des AirTag 2, also die größere Reichweite, die ihr gerade gesehen habt, die funktionieren nur mit U2-Chip und die gibt es erst ab dem iPhone 15. Mit älteren Geräten könnt ihr die AirTags 2 auch problemlos verwenden, aber dann habt ihr eben nicht die höhere Reichweite. Fürs Moto Tag braucht ihr ein Android-Telefon mit UWB-Chip. Das sind recht viele, aber zum Beispiel bei den Google-eigenen Pixel-Geräten nur die Pro-Varianten ab dem Pixel 6.
Leider ist aber auch das Empfangen von anderen Android-Geräten, also was ich euch gerade mit dem U-Bahn-Beispiel erklärt habe, unseren Erfahrungen nach viel unzuverlässiger bei Android, weil die Funktion, dass man fremde Tags meldet, da nicht standardmäßig eingeschaltet ist. Das muss man aktivieren und das machen offenbar nur wenige Leute. Und das ist halt der Grund, warum ich persönlich AirTags verwende. Achso, nur noch mal ganz deutlich gemacht: Für AirTags braucht man Apple-Geräte und für Googles Find-My-Device-Tags braucht man Android-Geräte. Es wäre viel schöner, wenn das übergreifend funktionieren würde, aber leider nein.
So, das war jetzt der Erklärungsteil, jetzt weiter zum Indoor-Test. Die Kollegen haben es irgendwo versteckt bei Heise in den Büros und ich durfte suchen. Jetzt probiere ich das Ganze mal mit meinem AirTag 1. Oh, kriegt direkt eine Verbindung, interessant. Aber genau das gleiche Problem wie gerade, dass mir jetzt zwar „Verbunden“ angezeigt wird, aber nicht in welche Richtung. „Versuche dich an einen anderen Ort zu bewegen“. Ja, so und jetzt mal der Tag 2. „Verbunden“, ja direkt eine Angabe, 24 Meter und ich kann jetzt hier erstmal nicht, also okay, ich komme dem näher, ich kriege auch hier noch kein Signal, da ist ein Pfeil, okay, hier ist falsch, hier ist richtig, ich bin jetzt hier noch mal bei 13 Metern und jetzt gucke ich mal den AirTag 1. „Signal suchen“, weit entfernt. Ja, weit entfernt hilft mir jetzt nicht viel weiter. 4,8. Okay, also hier in diesem Raum im Sekretariat ist auf jeden Fall der AirTag. Ich werde aber jetzt mal den AirTag 2 ausschalten. Ich werde jetzt hier mit dem Moto Tag versuchen. Hier. Hilft mir wenig weiter. Okay, also man sieht hier irgendwie, dass sich das so füllt. Soll irgendwie noch irgendwas bedeuten. Füllt es sich weniger. Ah, hier füllt es sich mehr. Okay. Es ist hier. Sagt Moto Tag. Okay. Klingeln lassen. Ha. Nur mit Moto Tag gefunden. Aber auch nur, weil das AirTag 2 mir hier diese Anfangsarbeit gemacht hat. Wunderbar.
Und ja, da gab es wieder den gleichen Effekt wie draußen. Das AirTag 2 schlug viel früher an als die anderen beiden Tags. Schon bei 24 Meter Abstand innen, drinnen, durch Wände. Das ist extrem viel und sollte deshalb auch für sehr große Wohnungen oder Häuser ausreichen. Und damit war es dann halt wirklich kein Problem, die Tags zu finden. Ich hätte das natürlich irgendwann auch mit Moto Tag und AirTag 1 gefunden, aber das hätte auf jeden Fall deutlich länger gedauert.
Ja, und jetzt noch die Pieper-Tests. Hatte ich ja versprochen aus unserer schallarmen Kammer. Da haben wir beim AirTag 2 einen maximalen Schallpegel von 81 dBA aus einem Meter Entfernung gemessen. Beim AirTag 1 waren es 75 dBA. Näher am echten menschlichen Höreindruck ist der gemittelte Pegel. Und da haben wir 75 dBA beim AirTag 2 gemessen und 66 dBA beim AirTag 1. Den Moto Tag hatten wir nicht in der schallarmen Kammer, der piept aber subjektiv noch leiser als der AirTag 1. Also auch hier ganz klarer Sieger, AirTag 2.
Der AirTag 2 ist jetzt technisch erstmals dazu in der Lage, dass ich in meiner Wohnung wirklich von jedem Punkt aus jede AirTag-Position abrufen kann. Mit dieser genauen UWB-Suche, also inklusive Entfernungsangabe und Richtungspfeil. Vorher musste ich immer rumlaufen in der Wohnung, bis das AirTag irgendwann geortet war, was ich ziemlich nervig finde. Oh ja, und jetzt überlege ich sogar, mir einen AirTag in die Mütze zu nähen. Also AirTag 2 ist für mich echt ein Gamechanger. Vor allem, was ich auch gut finde, dass der Preis sich nicht geändert hat. 35 Euro für einen und man findet öfter mal Angebote für ungefähr 100 Euro für einen Viererpack. Wenn man die direkt bei Apple kauft, kann man die auch so schön gravieren lassen. Finde ich preislich ehrlich gesagt okay, vor allem weil die Dinger echt lange halten und weil man die Batterien selbst tauschen kann.
Ja, also ganz klar, der AirTag 2 zieht mich noch mehr ins Apple-Ökosystem, was ich eigentlich gar nicht will, weil ich geschlossene Systeme nicht mag, aber manchmal muss man die Kröte schlucken, wenn man wie ich ständig Dinge sucht. Zumindest kann ich ja unter Linux einfach im Browser Apple-Geräte piepen lassen, wenn ich mich da bei Apple eingeloggt habe, aber der ganze Ultra-Breitband-Nahfeld-Suchkram, das klappt nur mit iPhones oder Apple Watches. Und genau das brauche ich halt, weil ich meine Mitmenschen privat und auch beruflich vermutlich wahnsinnig machen würde, wenn ich bedenke, wie oft ich so am Tag Dinge suche, also die ich dann die ganze Zeit piepen lassen müsste. Ja, und bei Android funktioniert diese UWB-Nahsuche eben noch nicht so gut. Also noch, ne? Ich hoffe, dass sich das irgendwann ändert. Oder, dass die Teile irgendwann plattformübergreifend funktionieren. Das wäre natürlich noch toller.
Ja, wie seht ihr das? Gerne in die Kommentare schreiben. Wir lesen alles. Gerne c’t-3003-Podcast hören und den Hype-Newsletter abonnieren. Tschüss.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 3 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
