Künstliche Intelligenz
Nvidia DGX Spark: Ist das wirklich der KI-„Supercomputer“?
Er wird als „KI-Supercomputer auf dem Schreibtisch“ beworben; aber kann Nvidias DGX Spark halten, was er verspricht? Wir haben die OEM-Variante Gigabyte AI Top Atom auf Herz und Nieren getestet und sie gegen die AMD-Strix-Halo-Konkurrenz (AI Max+ 395) antreten lassen.
Der Video-Test folgt unten, die Textvariante ist hier (heise+).
Weiterlesen nach der Anzeige
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guckt mal hier, ich habe ihn endlich, den KI-Supercomputer für den Schreibtisch. Also zumindest bezeichnet Nvidia den DGX Spark so. Mein Testgerät kommt von Gigabyte und heißt AI Top Atom. Kostenpunkt: 4.300 Euro. Naja, das ist ja quasi nichts für so einen richtigen Supercomputer, oder?
Wir haben das Ding auf jeden Fall mit der Konkurrenz von AMD verglichen, also der Strix Halo Plattform, die ja in Vollausstattung AMD Ryzen AI Max+ 395 heißt. Konkret ist das der Framework Desktop. Darüber haben wir schon mal ein Video gemacht. Beide Rechner haben 128 Gigabyte schnellen Speicher. Und ich sage euch, ich fand die Ergebnisse richtig interessant. Und kleiner Spoiler: In vielen Benchmarks ist die AMD-Plattform tatsächlich schneller, obwohl die Geräte deutlich günstiger sind als die mit Nvidia-Technik. Und ja, meinen Gaming-PC haben wir auch mit in den Vergleich genommen. Bleibt dran.
Liebe Hackerinnen, liebe Internetsurfer, herzlich willkommen hier bei…
Also, da ist er nun, der Nvidia DGX Spark, beziehungsweise in meinem Fall der Gigabyte AI Top Atom. Und das kann man auf jeden Fall schon mal sagen: Das ist ein sehr ungewöhnliches Gerät. Angekündigt von Nvidia im Januar 2025 als KI-Supercomputer für den Schreibtisch, gibt es das Teil eben nicht nur von Nvidia im Goldgehäuse, sondern auch leicht modifiziert von Acer, Asus, Dell, HP, Lenovo und MSI. Und eben wie gesagt von Gigabyte, die uns als Erste ein Testgerät geschickt haben. Vielen Dank dafür.
Hätte man mich allerdings gefragt, hätte ich vielleicht den Begriff Atom vermieden, weil das ja nun der Markenname von Intels Billig-Prozessoren ist, die ich eher mit wenig Rechenpower assoziiere. Aber okay, der Gigabyte AI Top Atom kostet auf jeden Fall 4.300 Euro und hat wie alle DGX Spark-Varianten zwei wesentliche Besonderheiten. Einmal den Nvidia-Kombiprozessor GB10. GB steht für Grace Blackwell mit eingebauter Nvidia-GPU als CUDA-kompatiblen KI-Beschleuniger und zweitens viel, viel, viel schnellen Speicher, nämlich 128 Gigabyte LPDDR5X-RAM.
Weiterlesen nach der Anzeige
Aber wenn man sich diese Tabelle ja mal anguckt, ist die Geschwindigkeit zwar deutlich schneller als normales DDR5-RAM, aber eben auch bei Weitem nicht so schnell wie das Video-RAM auf aktuellen Grafikkarten. Und das sehen wir auch bei unseren Geschwindigkeitsmessungen, aber dazu später mehr.
Erst mal noch mal kurz, was die sonst noch so mitbringen, die Hardware. Am auffälligsten ist wohl der ziemlich exotische 200-Gigabit-Netzwerkadapter ConnectX-7, mit dem man mehrere dieser Rechner verkoppeln kann. Aber es gibt auch noch einen normalen RJ45-Port mit 10-Gigabit-Ethernet. Ansonsten halt einfach nur einen HDMI-2.1a-Port und vier USB-C-Ports, einer davon für die Stromversorgung. Ja, die läuft tatsächlich über USB Power Delivery und das Teil zieht unter Volllast auch maximal nur 216 Watt.
Hier seht ihr auch noch unsere anderen Messwerte, die meine Kollegen aus dem Hardwareressort der c’t ermittelt haben. Interessant dabei ist, dass der GPU-Teil des GB10-Kombiprozessors genauso viele Shader-Einheiten respektive CUDA-Kerne hat wie die GPU der Gaming-Grafikkarte RTX 5070, nämlich 6.144 Stück. Aber die sind bei der DGX Spark anders strukturiert, nämlich für KI-Algorithmen optimiert. Beispielsweise hat die GB10-GPU doppelt so viele Tensorkerne wie die 5070, nämlich 384 statt 192, aber weniger Render Output Units, 49 statt 80.
Kann man also genauso gut eine Grafikkarte nehmen, vor allem wenn da ja, wie gesagt, auch noch viel schnellerer Speicher drin ist? Ja, nee, denn Consumer-Grafikkarten haben zurzeit maximal 32 Gigabyte Speicher. Die 5070 hat sogar nur 16 und unser Testgerät halt 128 Gigabyte. Aber so Geräte mit 128 Gigabyte schnellem Unified Speicher gibt es ja auch noch mit anderen Architekturen, zum Beispiel von Apple oder von AMD.
Praktischerweise habe ich direkt so einen AMD Ryzen AI Max+ 395 da, also die Strix-Halo-Plattform und zwar den Framework Desktop. Was tatsächlich ein bisschen lustig ist: Strix Halo sollte ja die Antwort auf Nvidias DGX Spark sein, weil da bei der CES im Januar diesen Jahres viele Leute darüber gesprochen haben, war dann aber am Ende tatsächlich deutlich früher im Handel als das, worauf eigentlich reagiert werden sollte.
Auf alle Fälle sind vergleichbare Geräte mit AMD-Technik deutlich preisgünstiger. Also den Framework Desktop gibt es mit gleicher Ausstattung wie der DGX Spark, also mit 4 Terabyte SSD, für 2.800 Euro, also 1.500 Euro günstiger als die Nvidia-Variante. Von zum Beispiel GMKtec gibt es sogar einen AI Max+ 395 mit 128 Gigabyte für 1.999 Euro. Der hat dann allerdings nur 2 Terabyte SSD. Und ja, dazu kann ich im Moment auch noch nichts sagen, weil ich den noch nicht getestet habe.
Aber jetzt wird es auf jeden Fall interessant. Wie schneiden die beiden Kontrahenten denn jetzt ab mit so lokalen KI-Anwendungen? Ja, da habe ich nun versucht, den Vergleich so gerecht wie möglich aufzubauen. Also der Nvidia-Rechner läuft ja mit dem selbst benannten Nvidia DGX OS. Das ist aber eigentlich nur ein Ubuntu Linux mit einem angepassten Kernel. Und zwar ist der Kernel auch noch alt. Er hat Version 6.11. Das Ding ist über ein Jahr alt. Aktuell ist 6.17. Naja, aber dieses DGX OS ist eben das offiziell empfohlene Betriebssystem für DGX Spark-Computer. Deshalb nehmen wir das natürlich.
Bei dem Framework Desktop hier nennt Framework zwei offiziell unterstützte Linux-Varianten, einmal Fedora und einmal Beside. Beside ist ja eher so Gaming-orientiert. Deshalb habe ich einfach Fedora Workstation 43 installiert. Bei meinem Vergleichs-Gaming-PC läuft CachyOS.
Ja, und der erste Benchmark war natürlich LLM-Abzapfen aka Inferenz. Da habe ich auf allen Rechnern LM Studio in der aktuellen Version 0.3.31 verwendet. Als Runtime natürlich CUDA für Nvidia und Vulkan für das AMD-System. ROCm kann LM Studio eigentlich auch, aber das lief bei uns nicht. Und ram tam tam tam – hier sind die Ergebnisse.
Ja, ich würde sagen, das nimmt sich nicht viel. Beziehungsweise bei dem wichtigen Modell GPT-OSS:120B ist der günstigere AMD-Rechner sogar 11 Prozent schneller. Generell kann man auf jeden Fall sagen: Wenn ihr nur LLM-Inferenz machen wollt, könnt ihr gut das AMD-Modell nehmen.
Fernab von den Vergleichen: Es ist auf jeden Fall beeindruckend, mit GPT-OSS ein 63 GB großes Modell mit 120 Milliarden Parametern mit fast 50 Token die Sekunde laufen zu lassen auf so einem kleinen Ding. Das ist tatsächlich besonders. Allerdings gibt es auch nicht so viele Open-Source-Modelle, die so groß sind.
Und da kommt jetzt mein Gaming-PC mit RTX 4090 ins Spiel. Guckt mal hier, der ist mit den meisten von mir getesteten aktuell populären Sprachmodellen ungefähr dreimal so schnell, weil die halt klein sind und in den 24-Gigabyte großen Speicher meiner 4090 passen. Nur halt GPT-OSS 120B nicht. Das muss ich in meinen langsamen, normalen DDR5-Arbeitsspeicher auslagern. Und deshalb schaffe ich damit dann nur 16,9 Token.
So, jetzt sind mir aber noch andere interessante Unterschiede aufgefallen. So lädt GPT-OSS:120B bei der Nvidia-Kiste viel länger, nämlich anderthalb Minuten. Gleichzeitig friert auch der Bildschirm jedes Mal für ein paar Sekunden ein. Also ich kann auch die Maus einige Sekunden lang nicht bewegen. Mit den anderen beiden Rechnern lädt das Modell deutlich schneller, in weniger als 20 Sekunden.
So, aber wir können jetzt auch RAG machen, also eigene Dateien mit dem Sprachmodell analysieren. Ich habe hier mal das Programm des sogenannten Entdeckertags der Region Hannover reingeschmissen und dann Fragen dazu gestellt. Damit das ganze PDF in den Kontext passt, muss man das Kontextfenster manuell hochziehen auf mindestens 20.000 Token.
Ja, das Ding ist jetzt, dass die Nvidia-Workstation nur 14 Sekunden braucht, um das alles zu verarbeiten. Die AMD-Konkurrenz braucht fast vier Minuten und mein Gaming-PC 46 Sekunden. Also der Teufel steckt bei solchen Sachen wirklich im Detail. Müsst ihr wirklich überlegen, was ihr machen wollt, was da die richtige Hardware für euch ist.
Übrigens habe ich auch alles mal testweise mit Ollama gemessen, und da kann ich euch sagen: LM Studio ist auf allen drei Systemen immer schneller gewesen. Hier die Zahlen dazu.
Ja, aber man will ja vielleicht mit so einer Workstation nicht nur LLMs anzapfen, sondern vielleicht auch Bilder, Videos oder Musik generieren. Und das machen inzwischen viele Leute mit ComfyUI. Das ist so eine Node-basierte GenAI-Umgebung. Und ja, die lässt sich bei Nvidia wunderbar einfach installieren. Es gibt da nämlich sogenannte Playbooks, und das sind so recht übersichtlich gemachte Tutorials, wie man bestimmte Dinge zum Laufen bringt. Und da gibt es ziemlich viele dieser Playbooks von Nvidia, also auch für so Feintuning-Sachen, zum Beispiel Anbindungen in VSCode und natürlich wie gesagt auch ComfyUI.
Das Playbook sagt, die Installation dauert 45 Minuten. Das ist aber wirklich sehr pessimistisch. Das hat in meinem Fall nicht mal 15 Minuten gedauert. Auf dem Framework Desktop sah die Sache dann schon wirklich anders aus. Da habe ich mich leider stundenlang festgefrickelt, weil ich es lange nicht hinbekommen habe, dass ComfyUI meine ROCm-Installation akzeptiert. Und da merkt man dann halt deutlich, dass viele Sachen eben mit Nvidia CUDA im Kopf entwickelt wurden. Also ROCm ist quasi die AMD-Variante von CUDA, aber eben ein bisschen weniger populär.
Ja, und am Ende habe ich es hinbekommen. Aber mein Benchmark hier, das ist einfach das Bildgenerierungsmodell FLUX.1-dev-fp8. Da habe ich einfach das Standard-Template mit einem eigenen Prompt genommen. Und da braucht das Generieren eines 1024×1024 Pixel großen Bildes mit dem Nvidia DGX Spark-System 38 Sekunden, bei dem AMD-System 89 Sekunden, also mehr als doppelt so lange. Mein Gaming-PC mit RTX 4090 schafft es in 12 Sekunden.
Wenn ihr jetzt aufgepasst habt, dann habt ihr vielleicht gemerkt, dass es eine einzige Sache gab bislang, die mein Gaming-PC nicht deutlich besser gemacht hat als die beiden speziellen KI-PCs. Und das ist tatsächlich das Abzapfen des einen großen LLMs GPT-OSS:120B, weil das eben nicht in die 24 Gigabyte Speicher meiner RTX 4090 passt. Aber der ganze andere Kram eben schon. Also gerade diese Bild- und Video-Generierungssachen, die sind halt auf kleinere RAM-Größen ausgelegt.
Okay, ja gut, man könnte natürlich von den offenen Sprachmodellen statt mit 4-Bit quantisierte Modelle irgendwie, keine Ahnung, 8-Bit quantisierte Modelle nutzen. Die würden auch nicht in den Speicher meiner Grafikkarte passen. Und natürlich schon in die AMD-Workstation, in die Nvidia-Workstation. Das würde schon gehen. Aber ob das so viel bringt, ist die Frage.
Aber generell kann man auf jeden Fall sagen: Es fehlen die Inferenz-KI-Killer-Applikationen für diese Speichergröße, weil dann am Ende 128 Gigabyte dann doch zu wenig sind, um zum Beispiel so etwas wie DeepSeek zu laden, was also wirklich ein ernsthafter Wettbewerber zu den großen kommerziellen Cloud-Modellen ist. Aber das braucht halt einfach mindestens das Fünffache an Speicher.
Und deshalb muss man sagen, dass die KI-Workstations wirklich für ordentliche normale KI-Anwender wahrscheinlich nichts sind und dass am Ende die Nützlichkeit sehr, sehr, sehr, sehr spezifisch ist. Also zum Beispiel, das ist für Leute, die irgendwelche KI-Software in Rechenzentren deployen wollen und die vorher auf der gleichen Architektur testen wollen. Also ein ganz spezielles Entwicklergerät für die Nvidia-Serverplattform DGX.
Wenn ich mir jetzt aber angucke, wie viele Hersteller diese sehr, sehr speziellen Rechner verkaufen, da denke ich schon, da scheint der KI-Hype dann doch schon mit reinzuspielen. Denn gibt es wirklich so viele Entwickler, die einen so speziellen Rechner brauchen? Weiß nicht.
Beim Framework ist es ja so, dass der Rechner primär als Gaming-PC vermarktet wird. Also zumindest steht hier auf der Website Gaming noch vor KI und auch die Produktfotos, die sehen mir sehr nach Gaming aus. Aber auch hier ist es so: Das Preis-Leistungs-Verhältnis ist, wenn man damit nur spielen will, ziemlich schlecht.
Ja, also wenn jemand von euch da draußen mit diesen Geräten liebäugelt: Ich hoffe, dieses Video hat euch ein bisschen geholfen, das Thema besser einzuschätzen. Ich jedenfalls, der sehr gerne mit lokalen KI-Sachen herumexperimentiert, kann für mich auf jeden Fall sagen, dass ich mit meinem PC mit RTX 4090 und 128 GB langsamem DDR5-RAM als Backup-Notlösungsspeicher Stand heute mehr anfangen kann als mit diesen beiden spezialisierten Geräten. Aber ich bin auch kein Entwickler, der irgendwelche Modelle fine-tuned – bisher jedenfalls nicht – oder Anwendungen für DGX-Systeme baut.
Ja, wie seht ihr das? Bin ich da total auf der falschen Spur? Gerne in die Kommentare schreiben und tschüss.
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
Künstliche Intelligenz
c’t-Webinar: Wenn KI zum Pinsel wird
Midjourney erzeugt Bilder auf Zuruf, vorausgesetzt, die Eingaben stimmen. Mit präzisen Textprompts und zahlreichen Stilparametern eignet sich die KI als Werkzeug für eigene visuelle Ideen, vom schnellen Entwurf bis zur ausgearbeiteten Illustration. Neue Funktionen generieren zudem kurze Animationen, mit denen sich einfache Szenen oder Abläufe darstellen lassen. Im Webinar lernen die Teilnehmer, wie sie ihre Vorstellungen strukturiert und nachvollziehbar in Midjourney umsetzen.
Weiterlesen nach der Anzeige
Vom präzisen Prompt zum Ergebnis
Auch wenn inzwischen zahlreiche KI-Bildgeneratoren verfügbar sind, lohnt sich der Blick auf Midjourney weiterhin. Das System liefert in vielen Szenarien eine höhere Bildqualität und bietet verlässliche Werkzeuge für konsistente Ergebnisse – ein Punkt, an dem viele Alternativen scheitern. Das Webinar zeigt praxisnah, wie sich diese Stärken im Alltag nutzen lassen und wie man typische Fehler vermeidet. So entsteht ein klarer, reproduzierbarer Workflow statt ziellosem Experimentieren.
Die Inhalte des Webinars reichen vom Aufbau wirkungsvoller Prompts über die Bildbearbeitung mit dem Midjourney-Editor bis zu fortgeschrittenen Techniken wie der Verwendung von Referenzbildern für konsistente Charaktere und Stile. Auch das Zusammenspiel mit anderen Tools zur Nachbearbeitung und die Integration in bestehende Workflows kommen zur Sprache. Ein eigener Themenblock widmet sich Midjourneys Animationsfunktion.
Midjourney-Experte gibt Einblicke
Referent Adrian Rohnfelder ist mehrfach ausgezeichneter Profifotograf und Midjourney-Experte. Er verbindet seine kreative Erfahrung mit neuesten KI-Tools und gibt sein Wissen als Dozent und Speaker weiter. Für die Teilnahme sind keine Vorkenntnisse nötig, erste Erfahrungen mit Midjourney sind jedoch von Vorteil.
Das Webinar bietet damit einen praxisorientierten Überblick über KI-gestützte Bild- und Videoproduktion. Teilnehmende erhalten konkrete Anleitungen, um Midjourney effizient in Projekte einzubinden.
Weiterlesen nach der Anzeige
- Termin: 28. Januar 2026, 14:00 bis 17:00 Uhr
- Preis: 69,00 Euro
Zur Teilnahme benötigen Sie lediglich einen aktuellen Browser. Weitere Informationen zum Webinar sowie Details zur Anmeldung finden Sie auf der Webseite der heise academy.
(abr)
Künstliche Intelligenz
Schnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
Ja, die deutsche Hauptstadt Berlin hat – ebenso wie Hamburg rund um den Hafen – Fähren. Darunter ist sogar eine, die von April bis Oktober im 60-Minuten-Takt noch per Hand gerudert wird. Sie sind ins Angebot der örtlichen Verkehrsbetriebe BVG integriert und überbrücken zumeist kürzere Strecken. Doch was man sich wirklich wünscht, nämlich einen bestenfalls elektrischen Schnellverkehr auf der Spree vom Müggelsee im Osten bis zur Havel im Westen, existiert schlicht nicht.
Weiterlesen nach der Anzeige
Stattdessen gibt es oft schadstoffreichen Ausflugsverkehr, der gemütlich durch die Innenstadt tuckert, sich primär an Touristen richtet und kaum dazu beiträgt, dass man schneller und vor allem umweltfreundlicher vorankommt. Dabei liegen zahlreiche wichtige Einrichtungen, zu denen die Menschen kommen wollen, direkt am Fluss – und könnten mit der Nutzung bestehender Anleger aufwandsarm erschlossen werden. Der bestehende ÖPNV aus S- und U-Bahn, Regionalbahnen, Bussen und Trams, der ohnehin dauerhaft am Limit arbeitet („Ich bin ein Fahrgast, ich steig‘ gleich aus“), ließe sich so entlasten. Doch wie sieht es in anderen Metropolen der Welt aus, wie nutzen diese ihre Flüsse? Die Beispiele New York (mit East River und Hudson) und London (mit der Themse) zeigen, wie gut das funktionieren kann, auch wenn es dort jeweils ganz unterschiedlich läuft. Was lässt sich von diesen schwimmenden Nahverkehrsangeboten für Deutschland lernen und wie viel besser setzen sie die Ressource Wasserweg für die Stadtgemeinschaft ein?
Die Staten Island Ferry ist nicht alles
Von New York kennen die meisten Menschen wohl nur eine wichtige Fähre: die Staten Island Ferry. Dabei handelt es sich um einen kostenlosen Zubringer zwischen Staten Island – wo kein Zug hinführt – und dem Whitehall Terminal in Manhattan. Die Strecke ist erstaunlich belebt: Mit knapp unter 17 Millionen Fahrgästen (Zahl aus 2024) gilt sie als meistverwendete Fußgängerfähre des Planeten. Allerdings ist sie in ihrer Brauchbarkeit für New Yorker, die nicht auf Staten Island leben oder arbeiten, eher eingeschränkt – Touristen freuen sich allerdings über die schönen „Views“ auf Manhattan und die Freiheitsstatue, an der es vorbeigeht.

U-Bahn-Station Brooklyn Bridge: Man muss in NYC nicht immer untertauchen, um vorwärts zu kommen.
(Bild: Ben Schwan / heise medien)
Deutlich interessanter für die Stadtbevölkerung sind die Angebote anderer Unternehmungen. Hier gibt es zwei zentrale Anbieter: NY Waterway, das im Hudson operiert, bei der Hafenbehörde von New York und New Jersey angesiedelt ist und die Verbindung zwischen New York City und verschiedenen Orten in New Jersey und dem Hudson-Tal herstellt, sowie NYC Ferry. Hinzu kommen kleinere Anbieter wie Seastreak – letztere Firma bewirbt ihr Angebot gar mit dem Werbespruch, „den zivilisiertesten Weg“ von New Jersey nach Manhattan zu bieten.
East-River-Hopping mit der Fähre
Weiterlesen nach der Anzeige
Um NYC Ferry, das als öffentlicher Transportanbieter von einer privaten Fährengesellschaft operiert wird, soll es in diesem Text vor allem gehen. Denn dabei handelt es sich um die größte Flotte an Passagierschiffen in den Vereinigten Staaten, die den innerstädtischen Verkehr der 8,8-Millionen-Stadt stark erleichtern kann – zumindest, wenn man weiß, wie. Das Netzwerk von NYC Ferry deckt vorwiegend den East River ab, also den Bereich zwischen Manhattan, Brooklyn und Queens, in dem die meisten Menschen leben.

Fährterminal Pier 11/Wall Street: Ab hier geht es um die ganze Insel und darüber hinaus.
(Bild: Ben Schwan / heise medien)
Schließlich gibt es mit der Linie St. George noch einen (kostenpflichtigen) Konkurrenten zur Staten Island Ferry. Gefahren wird hier allerdings eine längere Strecke: Sie führt von Midtown West über die Battery Park City bis nach St. George auf Staten Island – und von dort geht es über Bay Ridge und Atlantic Avenue zurück zum zentralen Anleger an der Wall Street (Pier 11). Insgesamt betreibt der Fähranbieter sieben Linien – von Throgs Neck oben in der Bronx bis ganz nach Rockaway in Queens. Dabei ist auch ein Lokalverkehr (East River A und B), der Brooklyn und Teile von Queens mit Manhattan verbindet, plus Shuttle-Bus-Betriebe in Queens und Midtown Manhattan.
Kleine Kreuzfahrt zum Schnäppchentarif
Für eine teure Stadt wie New York City ist die Nutzung von NYC Ferry erstaunlich preiswert. Eine Fahrt in einer Richtung kostet 4,50 US-Dollar, inkludiert sind kostenlose Fährenwechsel bis zu 120 Minuten lang. Zur Einordnung: Wer die große Runde von Midtown West über Staten Island bis zum Pier 11 an der Wall Street absolviert, benötigt dafür 68 Minuten. Die längste Strecke im Netz, von der Bronx bis nach Rockaway in Queens, benötigt 120 Minuten, kann also schon fast als Mini-Kreuzfahrt gelten. Touristisch beliebt ist die Astoria Route. Sie führt an des Ostseite Manhattans entlang und „springt“ zwischendurch zwischen Queens/Brooklyn und der anderen Flussseite hin und her. Die Endpunkte sind Wall Street im Süden und East 90th Street im Norden. Die Kulisse ist je nach Wetter atemberaubend – und einen Ausflug auf die schöne Insel Roosevelt Island (die eine Seilbahn nach Manhattan besitzt) kann man ebenfalls empfehlen.

Fahrgäste-Ordnung am Fährterminal Pier 11/Wall Street: Nicht hübsch, aber funktional.
(Bild: Ben Schwan / heise medien)
Wer mehr als einmal fahren will, kann 10-Trip-Karten für 29 Dollar oder ein Zwei-Tages-Ticket für 15 Dollar erwerben. Den Kauf von Fahrkarten und die Reiseplanung erledigt man am einfachsten mit der offiziellen iOS- und Android-Anwendung von NYC Ferry, zudem enthalten die großen Karten-Apps den Live-Fahrplan. Wie in New York leider üblich, fehlt die Integration mit anderen Verkehrsmitteln: Die ab 2026 die Metrocard ablösende OMNY-Karte für U-Bahn und Bus funktioniert auf den Fähren nicht, wie man das schon bei den – erstaunlicherweise zum gleichen Verkehrsunternehmen gehörenden – Bahnen der Long Island Rail Road und Metro North kennt, die ebenfalls ihre eigene App (“TrainTime“) haben.
Über den Teich zum Uber-boaten
Wagen wir den Sprung zurück über den großen Teich ins britische London. Dort sind potenzielle Bootfahrer zunächst mit einem leicht verwirrenden Branding konfrontiert: Ausgerechnet der Fahrdienstvermittler Uber hat sich die „Naming Rights“ für den lokalen Themse-Schiffsverkehr gesichert, auch wenn er diesen selbst nicht betreibt. Die Flussfahrzeuge werden einfach nur Uber Boat genannt, weil die Stadt – genauer gesagt der Betreiber – mittels Sponsoring ein wenig Geld hereinholen wollte, ähnlich wie die Seilbahn in Greenwich erst „Emirates Air Line“ (nach der Fluggesellschaft aus den Emiraten) hieß und heute „IFS Cloud Cable Car“ (nach einem schwedischen Enterprise-Cloud-Anbieter) genannt wird.

Uber Boat beim Ablegen: Integriert ins Oyster-Card- und Contactless-System.
(Bild: Ben Schwan / heise medien)
Durchgeführt wird Uber Boat vom Flussverkehrsunternehmen Thames Clippers, das die Lizenz von Tranport for London (TfL) erworben hat. Die Firma wurde mittlerweile von einem Private-Equity-Unternehmen gekauft, nachdem sie einst dem Unterhaltungskonzern Anschutz gehört hatte, der die Anbindung seiner Konzerthalle (früher Millennium Dome, heute „The O2“) im Südosten Londons verbessern wollte. Daraus entwickelt hat sich mittlerweile ein stabiles Netzwerk aus 24 Anlegern – von Putney im Westen durch die ganze Innenstadt hindurch bis Barking Riverside im Osten. Zwar hat sich die West-Ost-Verbindung durch die Einrichtung der schnellen und komfortablen Elizabeth Line (vormals Crossrail genannt) mittlerweile stark verbessert. Das hilft Londonern aber nur dann etwas, wenn sich eine Station in der Nähe befindet. Ist der Zielort in Flussnähe – sei es nun Battersea, Waterloo oder Westminster –, kann der Uber-Boat-Trip auf der Themse immer noch die bessere Wahl sein. Hilfreich dabei ist, dass die Fähren insbesondere in den weniger stark frequentierten Bereichen des Flusses durchaus aufdrehen können: Die Katamarane, von denen inzwischen immerhin drei Diesel-Hybrid-Fähren sind, geben auf bis zu 28 Knoten Gas (Elektrobetrieb: 12 Knoten).
Drei Zonen und nicht ganz billig
Das Uber-Boat-Netz besteht aus drei Zonen: West, Central und East. An Fährlinien gibt es fünf, wobei sich diese überschneiden beziehungsweise nur zu bestimmten Zeiten unterwegs sind. Hier inkludiert ist eine Kurzverbindung (Ferry Crossing) zwischen Canary Wharf und Rotherhithe (RB4), wo man sich aber eher eine Brücke gewünscht hätte – immerhin fährt hier eine Elektofähre. Am besten angebunden ist Canary Wharf, wo auch viele Bahnlinien verfügbar sind. Es geht hier täglich bis Putney (RB6) sowie nach Barking Riverside mit allen Stationen (RB1). Etwas komplexer wird es Richtung Westen. Hier sollte man in der App nachsehen, ob der gewünschte Haltepunkt „off-peak“ (also außerhalb von Stoßzeiten) und an Wochenenden angefahren wird oder nicht. Teilweise muss man umsteigen, um etwa nach Battersea oder weiter zu gelangen.

„Respekt“-Tafel am Uber Boat: Verbale und körperliche Gewalt durch Fahrgäste gibt es leider auch auf dem Fluss.
(Bild: Ben Schwan / heise medien)
Die Reisezeiten sind unterschiedlich. So geht es von London Bridge nach Battersea in 37 Minuten, von Greenwich bis Tower in 23. Das Uber Boat nimmt entweder eigene Fahrkarten – am einfachsten per App zu erwerben – oder schlicht Contactless- und Oyster-Karte, was die Nutzung sehr bequem macht – Tap in und Tap out, fertig. Die Tarifierung liegt aber höher als bei Bahnen und Bussen. So werden zwischen Battersea und Canary Wharf beispielsweise mindestens 9 britische Pfund 50 aufgerufen, kürzere Strecken sind günstiger.
Der Fluss ist schon da
Die Beispiele London und New York zeigen, dass Boots-ÖPNV auf Stadtflüssen gut funktionieren kann. Und warum sollte man es auch nicht tun: Der Schiffsverkehr in diesen Bereichen ist meist touristisch und nur noch selten logistisch geprägt – und selbst dann können Boote, wie das Beispiel London zeigt, gut kooperieren und behindern sich selten. Der Transportweg Fluss ist zudem schlicht vorhanden und muss nur mit vergleichsweise kostengünstiger Infrastruktur (Fahrzeuge und gegebenenfalls neue Anleger) aufgerüstet werden.

Unterwegs mit dem Uber Boat auf der Themse: Geht schnell und ist einfach zu benutzen.
(Bild: Ben Schwan / heise medien)
Wie man es erstaunlich richtig machen kann mit gutem Fährverkehr, kann man übrigens in einer Stadt erleben, die sonst nur extrem unterdurchschnittlichen ÖPNV hat: In der Theme-Park-Metropole Orlando in Florida. Dort betreibt die „Experiences“-Abteilung des Disney-Konzerns auf dem eigenen Gelände um World Disney World herum zahlreiche kleine und größere Schiffe, die die Gäste von Park zu Park oder Hotel zu Hotel bringen. Das bietet sich – neben einem Monorail-, Seilbahn- und Bussystem – auch an, denn das Gelände mit Magic Kingdom, EPCOT, Hollywood Studios, Animal Kingdom sowie die Shopping-Anlage Disney Springs plus einem Sport- und Wasserpark ist gigantisch. Die Fahrgäste müssen dort übrigens keinen Cent zahlen, nicht einmal Parkeintrittskarten sind notwendig.
(bsc)
Künstliche Intelligenz
Software Testing: Ask Me Anything zu KI, Automatisierung und Shift Left
Richard Seidl spricht in dieser Episode über sein Podcastjahr, Hörerfragen und den Blick nach vorn. Er ordnet Zahlen und Meilensteine ein, erinnert an die Testpyramiden-Folge mit Ronald Brill und den Ausbau auf YouTube und englische Formate. In der Fragerunde geht es um KI im Testing, die veränderte Rolle von Testern, sinnvolles Programmierenlernen und den nüchternen Blick auf Toolwechsel wie zu Playwright.
Weiterlesen nach der Anzeige
Er beleuchtet Grenzen der Automatisierung, den Umgang mit instabilen Tests und warum Shift Left im Refinement beginnt. Ein Tonpannen-Lernmoment und Pläne für breitere Themen und mehr Teststrategie runden ab. Am Ende steht die Frage, was Qualität in Teams morgen prägen sollte.
Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.
Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Ask Me Anything zu KI, Automatisierung und Shift Left – Richard Seidl“ und steht auf YouTube bereit.
(mdo)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
