Künstliche Intelligenz
Top 8: Die besten Poolroboter mit und ohne App für kleine & große Pools im Test
Poolroboter halten Wasser sowie Becken sauber und sparen Zeit. Wir zeigen die besten Modelle aus unseren Tests von Aiper, Dreame, Beatbot & Co.
Ein Poolroboter übernimmt die Routinearbeit im Becken: Er sammelt Blätter, Sand und Pollen vom Boden, viele Modelle erklimmen zusätzlich Wände und fahren die Wasserlinie ab. Das entlastet die Filteranlage, reduziert Nacharbeit mit Kescher und Bürsten und hilft, die Wasserqualität konstant zu halten. Für unsere Bestenliste haben wir insgesamt acht Poolroboter getestet. Wir zeigen, wie stark sich Navigation, Saugleistung, App-Komfort und Wartung im Alltag unterscheiden – vom High-End-Gerät mit Skimmer- und Multizonen-Modus bis zum preisbewussten Kameranavigator.
Welcher ist der beste Poolroboter?
Testsieger ist der Aiper Scuba X1 Pro Max für 1899 Euro. Für das Modell spricht die hohe Förderleistung sowie die vollständige Abdeckung von Boden, Wänden und Wasserlinie, Rückkehrfunktion, Oberflächenmodus und kabelloses Laden.
Preis-Leistungs-Sieger ist der Dreame Z1 Pro ab 1099 Euro. Er bietet systematische Reinigung mit Wasserlinie, Spotreinigung und Rückruf zur Oberfläche, kleine Abzüge gibt es wegen der Kabel-Ladung. Unser Tipp für Preisbewusste ist zudem der Wybot C2 Vision ab 657 Euro (Rabatt-Code 5B1NDUXW) mit kameragestützter Navigation, sauberen Ergebnissen und moderatem Preis.
Unser Ranking auf einen Blick:
So haben wir bewertet
Die Gesamtnote (0–5 Sterne, in halben Schritten) setzt sich aus folgenden Kriterien zusammen:
- Reinigung & Abdeckung: 40 Prozent
- Navigation & Hindernisvermeidung: 20 Prozent
- Bedienung & App: 15 Prozent
- Wartung & Pflege: 15 Prozent
- Akku & Laufzeit: 5 Prozent
- Preis/Leistung: 5 Prozent
Getestet haben wir die Reinigung von Boden, Ecken/Kanten und Wasserlinie, die Navigation (z. B. S-/N-Muster, Randfahrten, Kartierung), den Filterzugang und die Filterfeinheit. Außerdem flossen Komfortfunktionen wie Rückkehr- oder Parkposition, Skimmer- und Multizonen-Modus sowie – falls vorhanden – die Qualität der App mit Zeitplänen und Protokollen in die Bewertung ein.
Technische Daten
Was macht einen guten Poolroboter aus?
Ein guter Poolroboter muss zum Becken passen. Entscheidend sind die Abdeckung, die Navigation und die Wartungsfreundlichkeit.
Wer nur den Boden eines kleinen, runden Beckens reinigen möchte, kommt meist mit einem einfachen Modell ohne App aus.
In großen, rechteckigen oder komplex geformten Pools punkten Geräte mit systematischer Navigation – zum Beispiel mit Gyroskop- oder Kameraführung, klaren S- oder N-Bahnen und Randfahrt. Sie erreichen Ecken zuverlässiger, steigen sicher Wände hoch und reinigen auch die Wasserlinie, an der sich oft Kalkränder bilden.
Ebenso wichtig ist das Zusammenspiel von Fördermenge und Filtertechnik:
- Grobeinsätze fangen Blätter und Nadeln
- Feinsiebe halten Staub und Sand zurück
- Mikroeinsätze (bis ca. 3 µm) filtern Pollen und Algen
- Ohne den passenden Filter bringt auch eine hohe Literleistung pro Stunde wenig.
Praxistaugliche Details erhöhen den Komfort: Eine Bodenklappe am Filterkorb zum schnellen Ausspülen, eine zuverlässige Rückkehr- und Parkfunktion an der Wasserlinie, ein Skimmer- oder Oberflächenmodus bei viel Pollen oder Laub sowie eine robuste App mit Zeitplänen und Protokollen.
Wer besonderen Wert auf Komfort legt, achtet zudem auf kabelloses Laden (weniger Fummelei) und eine lange Ersatzteilversorgung.
Muss ich den Poolroboter nach jedem Einsatz reinigen?
Ja – das zahlt direkt auf Leistung und Lebensdauer ein. Nach jedem Lauf gehört der Filter in die Hand: Korb entleeren, gründlich mit dem Schlauch ausspülen, Feinsiebe von innen nach außen durchspülen, damit sich Partikel nicht festsetzen. Ein sauberer Filter senkt den Strömungswiderstand, erhöht die Sogkraft und verbessert die Haftung an Wänden. Danach kurz das Gehäuse abbrausen, Haare oder Fasern aus der Ansaugöffnung und den Rollen entfernen und die Dichtungen sichten.
Wer einen Mikroeinsatz nutzt, reinigt öfter: Feinsiebe setzen sich schneller zu – im Zweifel lohnt ein zweiter, trockener Filterkorb als Wechsel-Set, damit der Roboter sofort wieder einsatzbereit ist und die Reinigung nicht am nassen Sieb scheitert. Trocknen im Schatten schont Kunststoffe und Dichtungen; direktes Sonnenlicht lässt Materialien altern.
Beim Laden gilt: Kontakte sauber halten, Station spritzwassergeschützt stellen und die Lüftungsschlitze frei halten. Diese fünf Minuten Pflege nach jedem Einsatz verhindern Geruch, sichern die Saugleistung und schonen den Akku, weil der Roboter nicht gegen einen zugesetzten Filter ankämpfen muss.
Wie oft sollte ich den Roboter laufen lassen?
Die Einsatzfrequenz hängt von Eintrag und Nutzung ab. In der Poolsaison reicht in vielen Gärten ein Rhythmus von täglich bis alle zwei bis drei Tage. Bei starkem Pollenflug, viel Laub, nach Gewittern oder Poolpartys lohnt sich ein zusätzlicher Durchgang – am besten als Vollzyklus inklusive Wände und Wasserlinie, damit sich Schmutz nicht festsetzt. Zwischen den Vollzyklen halten Eco- oder Erhaltungsmodi den Boden sauber und sparen zugleich Zeit und Akku.
Zum Saisonstart empfiehlt sich ein „Clean Slate“: Groben Schmutz manuell entfernen, Wasserwerte stabilisieren und mit sauberem Filter beginnen – dann arbeiten die Programme deutlich effektiver. Wer Zeitpläne nutzt, sollte Reinigungen direkt nach Phasen mit hohem Eintrag einplanen, etwa morgens nach einer windigen Nacht.
In Ferienphasen oder bei Dauerbetrieb bleiben viele Geräte mehrere Tage im Becken. Trotzdem gilt: Filter regelmäßig leeren, Akku laden und Dichtungen kurz prüfen. Bei Schockchlorung, sehr hoher Wassertemperatur oder stark abweichenden pH-Werten besser eine Pause einlegen, bis die Wasserwerte wieder stabil sind – das schont Lager, Elektronik und Gummiteile. Der ideale Rhythmus: Regelmäßige leichte Läufe zur Pflege, kombiniert mit strategischen Vollzyklen für die Grundhygiene – so reduziert sich die Handarbeit mit Kescher und Bürsten deutlich.
Skimmer-Modus: Wann lohnt er sich?
Bei viel Oberflächeneintrag: Pollenflüge, Laubfall, Insekten, Sonnenöl nach Badetagen – all das sammelt sich zunächst oben. Ein Oberflächen- bzw. Skimmer-Modus fängt diese Partikel ab, bevor sie absinken und den Hauptfilter belasten. Das senkt die Nacharbeit am Skimmerkorb, hält die Wasserlinie sauberer und reduziert den Gesamtschmutz.
Besonders sinnvoll ist der Modus in windigen Lagen und bei Pools in der Nähe von Bäumen. Ideal: Oberflächenreinigung kurz nach starkem Eintrag (morgens nach einer windigen Nacht oder direkt nach dem Badebetrieb) einplanen und mit regulären Boden-/Wandläufen kombinieren.
Darf der Roboter im Wasser bleiben?
Viele Poolroboter unterstützen Zeitpläne über mehrere Tage und können in dieser Zeit im Becken bleiben. Eine Routine mit regelmäßiger Pflege ist dennoch sinnvoll, um die Langlebigkeit des Roboters zu gewährleisten:
- Filter regelmäßig leeren und ausspülen
- Akku nachladen
- Dichtungen kurz prüfen
Bei Gewitter, Starkregen, Frost oder Schockchlorung den Roboter besser herausnehmen, abspülen, im Schatten trocknen und frostfrei lagern. Für die Winterpause empfehlen sich 40–60 Prozent Akkuladung, ein sauberer, trockener Filter und trockene Lagerung – so bleiben Akku, Dichtungen und Elektronik lange funktionsfähig.
Wie lange hält ein Akku beim Poolroboter?
Die Akkulaufzeit hängt vom Modell, der Reinigungsleistung und den gewählten Programmen ab. Die meisten kabellosen Poolroboter arbeiten zwischen 60 und 180 Minuten pro Ladung. Für kleine bis mittelgroße Becken reicht oft schon eine Stunde, leistungsstarke Modelle schaffen auch komplexe Becken in einem Durchgang.
Wird zusätzlich die Wasserlinie oder der Skimmermodus genutzt, verkürzt sich die Laufzeit etwas. Nach dem Zyklus muss der Akku geladen werden – je nach Gerät dauert das 2 bis 5 Stunden. Hochwertige Modelle mit größerem Akku oder Energiesparmodus können auch längere Einsätze abdecken.
App oder „ohne alles“?
Das hängt vom Becken und vom Anspruch ab. App-Modelle punkten mit Zeitplänen, Protokollen, Firmware-Updates und oft smarterer Navigation (S-/N-Bahnen, Randfahrt, teils Kartierung). Sie automatisieren die Pflege und sparen über die Saison spürbar Zeit. In kleinen, runden Becken reicht ein einfacher Bodenreiniger ohne App häufig aus – Start per Knopf, Korb leeren, fertig.
Wer jedoch ein großes, rechteckiges oder komplexes Becken betreibt, profitiert klar von einer App mit planbaren Läufen, angepassten Modi (Multizonen- oder Skimmer-Modus) und sauberer Dokumentation. Kurz: „Ohne alles“ für einfache Pools, App-Komfort für anspruchsvollere Szenarien.
Fazit
Wer die Poolpflege entspannt halten will, kommt an einem guten Poolroboter kaum vorbei. Handarbeit mit Kescher und Bürsten ist zwar billig, kostet aber Zeit – besonders bei viel Laub, Pollen oder häufiger Nutzung. Roboter übernehmen die Grundreinigung zuverlässig und halten die Wasserqualität und Optik stabil. Einfache Bodenreiniger sind der unkomplizierte Einstieg; Modelle mit Wand- und Wasserlinienreinigung, Skimmer- oder Multizonen-Modus reduzieren die Nacharbeit deutlich.
Testsieger ist der Aiper Scuba X1 Pro Max dank starker Leistung, kompletter Abdeckung und guter Sensorik. Preis-Leistungs-Sieger ist der Dreame Z1 Pro: schnell, systematisch, mit Wasserlinien- und Spotreinigung sowie Rückruf zur Oberfläche. Preisbewusste greifen zum Wybot C2 Vision mit Kameranavigation, der Aiper Scuba X1 ist ein solider Allrounder mit kabelloser Ladestation, und der Beatbot Aquasense 2 Ultra punktet mit Smart-Sensoren und Klärmittel-Kartusche, ist jedoch teuer.
Entscheidend ist die Passform zum Becken: Kleine, runde Pools kommen mit einfachen Bodenreinigern aus, große oder komplexe Becken profitieren von planvoller Navigation, Wasserlinienfahrt, Multizonen-Programmen und abgestuften Filtern. Komfortfunktionen wie Rückkehrposition, kabelloses Laden, App-Steuerung, Wartungsfreundlichkeit und eine gesicherte Ersatzteilversorgung sorgen für langfristige Zufriedenheit – und mehr Zeit im Wasser als mit dem Kescher.
Weitere Artikel zu sommerlichen Themen:
Künstliche Intelligenz
Spaßprojekt: Fruit-Jam-Mini-Rechner im Kreditkartenformat als NES-Konsole
Adafruit hat mit dem Fruit Jam – Mini RP2350 Computer einen charmanten Winzling vorgestellt, der Retro-Feeling mit moderner Technik kombiniert. Auf einer Platine im Kreditkartenformat (ISO/IEC 7810 ID-1) stecken erstaunlich viele Features: Ein RP2350B-Dual-Core Cortex-M33-Mikrocontroller (150 MHz), 16 MB Flash und 8 MB PSRAM, USB-C, Micro-SD-Slot, HDMI-kompatibler DVI-Ausgang, Stereo- und Mono-Audio, ein 2-Port-USB-Hub für Maus, Tastatur oder Gamepads, einen extra ESP32-C6 für WLAN sowie diverse GPIOs und NeoPixel für optische Spielereien.
(Bild: John Park)
Das Kit (39,95 US-Dollar) kommt inklusive Top-Plate, Mini-Speaker und Bumperfüßen. Angeschlossen an Monitor, Tastatur und Maus wird der Fruit Jam unter anderem zu einem kleinen Retro-Computer für CircuitPython, Arduino oder PicoSDK-Projekte – und ja: „It can run Doom“.
Retro-Feeling mit NES-Emulation
(Bild: John Park)
Gemeinsam mit der Community hat Adafruit eine Anleitung veröffentlicht, wie sich der Fruit Jam als NES-Konsole nutzen lässt. Möglich macht es der pico-infonesPlus-Emulator von Frank Hoedemakers, ursprünglich aus InfoNES hervorgegangen und für den RP2040 adaptiert. Neben der Bildausgabe via HDMI unterstützt der Emulator Onboard-Sound, DAC-Kopfhörerausgang, einen VU-Meter-Effekt über die verbauten Neopixel und sogar Zwei-Spieler-Modi – per USB-Controller plus Wii-/NES-/SNES-Classic-Controller über I²C. Für Besitzer eines passenden Gamepads ist damit der Aufbau einer handlichen Wohnzimmer-Konsole fast plug-and-play.
Zur Installation genügt es, die vorbereitete .UF2-Firmware auf den Fruit Jam zu flashen und ROMs (Homebrew ist die legale Wahl) auf eine SD-Karte zu kopieren. So lebt das Konsolenfeeling der 80er auf moderner Bastlerhardware neu auf. Der Fruit Jam ist nicht nur ein günstiger, vielseitiger Bastelrechner, sondern mit NES-Emulator auch ein echtes Retro-Gaming-Gadget.
Noch mehr Retro: Atari-Emulator im Make Magazin
Wer nicht nur Nintendo-Klassiker zocken, sondern auch in die Welt der Atari-Homecomputer eintauchen will, findet im aktuellen Make Magazin einen passenden Bauvorschlag. Dort zeigt Ulrich Schmitz, wie man auf Basis eines ESP32 einen Atari-800-Emulator samt Gehäuse und originalgetreuen Joysticks realisiert. Der Artikel erklärt die Emulation des legendären 6502-Prozessors und spezieller Atari-Chips wie ANTIC oder POKEY, gibt Tipps für Controller-Integration – und weckt garantiert Erinnerungen an Homecomputer-Zeiten.
(caw)
Künstliche Intelligenz
Linux: Torvalds wirft Bcachefs-Dateisystem aus dem Kernel
Linus Torvalds hat den Support für Bcachefs aus dem Hauptentwicklungszweig seines Kernels entfernt; das in neun oder zehn Wochen erwartete Linux 6.18 wird mit dem Dateisystem formatierte Datenträger daher von Haus aus nicht mehr einbinden können. Der für Linux-Verhältnisse ungewöhnliche Rauswurf erfolgte rund 24 Stunden nach der Freigabe von Linux 6.17 zum Wochenstart. Diese Version hatte bereits keine Bcachefs-Neuerungen mehr gebracht, denn der Linux-Erfinder hatte den Stand dort vor zwei Monaten als „extern gewartet“ gekennzeichnet und damit eingefroren – nach mehrfachem Zank mit Kent Overstreet, dem Erfinder und Hauptentwickler von Bcachefs.
Bcachefs lässt sich jetzt via DKMS einrichten
Der Rauswurf sollte nur wenige Linux-Anwender betreffen, denn der Bcachefs-Code in Linux ist nie dem experimentellen Stadium entwachsen. Da einzelne Distributionen das Dateisystem aber als Option für Tester anboten, hat es durchaus Nutzer. Darunter sind auch einige sehr laute Fürsprecher. Kein Wunder, lockt doch Bcachefs mit einer attraktiven Kombination einiger von anderen Dateisystemen bekannten Features.
Für diese und zukünftige Anwender hat Overstreet einige Umbaumaßnahmen am Code vorgenommen, die er fortan extern entwickelt, wie er es vor der Aufnahme bei Linux 6.7 vor rund eindreiviertel Jahren getan hat. Durch die Umbauten lässt sich Bcachefs jetzt per DKMS (Dynamic Kernel Module Support) bei verschiedensten Kerneln ab Linux 6.16 nachrüsten – und wird bei Kernel-Updates idealerweise auch automatisch passend zum neuen Kernel übersetzt. Das Ganze kennen viele Anwender etwa von Distributionen wie Debian oder Ubuntu, die das ältere, proprietäre Kernel-Modul der Nvidia-Grafiktreiber via DKMS handhaben.
Torvalds will mit dem Rauswurf Verwirrung vermeiden, wo Bcachefs jetzt via DKMS installierbar ist.
(Bild: Screenshot Thorsten Leemhuis / heise medien)
Auch zur Virtualisierung mit VMware oder VirtualBox oder zum Support des Dateisystem OpenZFS setzen viele Distributionen auf das unabhängig vom Kernel gewartete DKMS. Das funktioniert in vielen Fällen recht zuverlässig, fällt gelegentlich aber beim Kompilieren auf die Nase. Das liegt zumeist nicht an DKMS, sondern am eher monolithischen Design von Linux.
Bei dem sind Treiber, Dateisystemcode und nichts Separates, sondern formen zusammen den „Kernel“ – auch dann, wenn man beim Bau des Kernels festlegt, einige Teile als nur bei Bedarf nachgeladenes Modul auszulagern. Bei gängigen Linux-Distributionen passen Kernel-Module daher nur zu dem Kernel-Image, für das sie kompiliert wurden. Diese sind somit eben nicht ab- oder aufwärtskompatibel, wie man es von stabilen Plug-in- oder Add-on-Schnittstellen bei Browsern oder Treibern von Windows kennt.
Gefahr des „sich selbst Aussperrens“ durch instabile Schnittstellen
Das liegt auch an einem anderen Aspekt: Um den Kernel schnell und schlank zu halten, verändern Torvalds und seine Helfer bei Bedarf die Kommunikationswege zwischen den verschiedenen Bestandteilen von Linux; dabei nehmen sie keine Rücksicht auf externe gewarteten Kernel-Code, der sich über diese Wege einklinkt. Entwickler von extern entwickeltem Kernel-Code wie fortan Bcachefs müssen diesen daher hin und wieder an die Belange neuer Linux-Versionen anpassen; das kann alle paar Wochen oder nur alle paar Jahre nötig sein, je nachdem, welche Kernel-Funktionen der externe Code verwendet und wie häufig sich diese Kernel-seitig ändern.
Diese Änderungen am externen Code müssen es dann aber auch zu den Nutzern schaffen, bevor diese auf Kernel-Version mit veränderten Schnittstellen wechseln. Hakt es daran, schlägt beim Anwender das automatische Kompilieren des Moduls via DKMS fehl.
Bei extern gewarteten Modulen für Grafikchips führt das zu Problemen, die zumindest Kenner oft mit einigen Handgriffen lösen können. Bei Modulen für Dateisysteme kann es schwieriger sein, denn wenn dem startenden Kernel ein Modul für das Root-Dateisystem fehlt, kann man das System darüber nicht mehr starten und daher kein passendes neues Modul einrichten. Um sich aus so einer Situation ohne Live-Linux heraus zu manövrieren, belassen einige Distributionen den jeweils letzten als funktionierend bekannten Kernel bei Updates als Boot-Option zurück. Derlei braucht man im dümmsten Fall auch, wenn neuer Modulcode nicht funktioniert und man das alte Modul schon gelöscht hat.
Distributions-spezifische Anpassungen erschweren die Auslieferung
Der DKMS-Weg von Bcachefs hat einen weiteren Nachteil, wie Overstreets Mail zur breiten Verfügbarkeit des DKMS-Ansatzes zeigt: Statt Bcachefs mehr oder weniger frei Haus über den Kernel an Distributionen zu verteilen, sind nun Anpassungen für Eigenarten der verschiedensten Distributionen nötig. Zur möglichst einfachen Handhabung durch die Nutzer braucht es ferner idealerweise auch Distributions-spezifische Pakete, die jemand konstant pflegt und testet.
Beim Support für Arch Linux, Debian und Ubuntu scheint die Lage demnach schon recht gut zu sein. Bei Fedora ist es im Werden, während bei openSUSE noch allerlei Fragezeichen im Raum stehen; dessen Entwickler hatten kürzlich den Bcachefs-Support bei Tumbleweed-Kernel beim Wechsel auf 6.17 deaktivierten und Overstreets Verhalten dabei kritisierten.
DKMS ist der Grund für den schnellen Rauswurf
Die Bcachefs-Unterstützung zur Handhabung via DKMS nennt Torvalds jetzt als Grund für die Entfernung des Dateisystems – die Kenner mittelfristig erwartet hatten, aber letztlich jetzt viel flotter kam, als es bei der Stilllegung von Bcachefs vor zwei Monaten schien. Der waren mehrere Streitereien vorangegangen, vor allem zwischen Overstreet und Torvalds. Gleich zweimal hatte es zwischen den beiden lautstark gekracht, weil der Bcachefs-Erfinder Code mit neuen Features zur Aufnahme während der längeren Stabilisierungsphase an den Linux-Erfinder schickte, anstatt während der kurzen Hauptentwicklungsphase (dem „Merge Window“), die dafür vorgesehen ist. Overstreet war aber auch mehrfach mit anderen Entwicklern zusammen gerasselt. Unter anderem, weil er hinterrücks den von ihnen betreuten Code geändert hatte.
Der streitbare Kalifornier hat Bcachefs seit über zehn Jahren weitgehend im Alleingang entwickelt – auch, weil sich mehrere mit der Zeit dazu gestoßene Mitstreiter über kurz oder lang mit ihm überworfen haben. Bis zu einem gewissen Grad ist das nur menschlich, schließlich passiert derlei auch beim Hasenzüchter- und Sportvereinen; bei Häufigkeit und Tonfall der Streitereien hebt sich die Bcachefs-Entwicklung aber negativ von anderen Software-Projekten und auch dem Linux-Kernel ab.
c’t Open Source Spotlight abonnieren
Innovative Software, spannende Projekte: Erweitern Sie Ihre Möglichkeiten und werden Sie Teil der Open Source Community.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Dateisystem-Entwicklung ist hart
Derlei Drama und der Zank mit zentralen Kernel-Entwicklern dürften Schwergewichte aus dem Linux-Bereich verschrecken, die jährlich schätzungsweise mehrere Millionen von US-Dollar in Hardware und Mitarbeiter investieren, um die direkt in Linux enthaltenen Dateisysteme zu testen und zu verbessern – etwa Google (Ext4), Meta und Suse (Btrfs) oder Oracle und Red Hat (XFS).
Für Overstreet und seine Unterstützer wird es schwer, da mitzuhalten, denn Dateisysteme sind komplex und Linux-Nutzer machen die kuriosesten Dinge mit ihnen – daher sind meist viele Jahre Feldtest und mühsames Feintuning nötig, bis ein universelles Dateisystem wie Bcachefs wirklich stabil und in vielen der gängigen Einsatzgebiete performant arbeitet.
Hier hat Bcachefs noch viel Arbeit vor sich, auch wenn sein Hauptentwickler den extern gewarteten Dateisystemcode kürzlich als „stabil“ deklariert hat. Zumindest, wenn es ähnlich wie bei der Entwicklung von Btrfs, Ext4, Reiserfs oder XFS läuft: Auch dort war ab einem vergleichbaren Punkt noch jahrelange Arbeit und damit letztlich auch viel Geld nötig, um die Erwartungen der breiten Anwenderschar an Robustheit und Performance zu befriedigen.
(ktn)
Künstliche Intelligenz
Aus Softwarefehlern lernen – Teil 2: Warum explodierte Ariane 5 nach dem Start?
Zahlen wirken in Programmen so selbstverständlich, dass viele Entwicklerinnen und Entwickler sie intuitiv wie in der Mathematik behandeln: Addition, Subtraktion, Multiplikation – was soll da schon schiefgehen? In der Praxis lauern hier jedoch zahlreiche Fallstricke. Speicherbegrenzungen, Rundungsfehler, Konvertierungen zwischen Datentypen und die unterschiedliche Behandlung von Ganzzahlen und Gleitkommazahlen führen immer wieder zu katastrophalen Fehlern.
Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Die Teile der Serie „Aus Softwarefehlern lernen“:
Muster 2: Überlauf, Arithmetik und Präzision: Wenn Zahlen kippen
Ein ikonisches Beispiel dafür ist der Fehlschlag des ersten Ariane-5-Starts im Jahr 1996. Nur 37 Sekunden nach dem Start verließ die Rakete ihre Flugbahn, begann sich unkontrolliert zu drehen und zerstörte sich schließlich selbst. Die Ursache war nicht ein Materialproblem oder ein Defekt an der Rakete, sondern ein Softwarefehler in der Trägheitsnavigationssoftware.
Konkret versuchte das System, einen 64-Bit-Gleitkommawert in einen 16-Bit-Integer zu konvertieren. Der Wert war für die Ariane 5 jedoch zu groß und es kam zu einem Überlauf, der dann eine Ausnahme auslöste. Die Folge: Das gesamte Leitsystem schaltete sich ab. Da die Rakete zwei identische Systeme hatte, die synchron liefen, wiederholte sich der Fehler sofort auf dem Backup – die Redundanz konnte also nicht helfen.
Das wirft die Frage auf: Warum passiert so etwas in einem milliardenschweren Raumfahrtprogramm? Die Antwort ist tatsächlich lehrreich: Die Software der Ariane 5 basierte in Teilen auf dem Vorgängermodell Ariane 4. Dort waren die Wertebereiche kleiner, und ein 16-Bit-Integer war völlig ausreichend. Bei der Ariane 5 lagen die Beschleunigungen jedoch in einem anderen Bereich. Die alten Annahmen passten nicht mehr, aber die Entwickler haben die entsprechenden Codepfade nie überprüft – schließlich hatte die Software ja bereits jahrelang zuverlässig funktioniert.
Dieses Muster findet sich auch heute immer wieder in unzähligen Projekten:
- Entwicklerinnen und Entwickler übernehmen alte Codepfade, ohne ihre Gültigkeit für neue Einsatzbedingungen zu prüfen.
- Implizite Typumwandlungen oder fehlende Bereichsprüfungen führen im Grenzfall zu Überläufen.
- Fehlerbehandlung fehlt oder ist zu global – wie im Fall der Ariane, bei der eine einzelne Ausnahme zum Totalausfall führte.
In der Praxis begegnen Developer diesem Risiko immer wieder – auch in völlig alltäglichen Projekten. Typische Symptome sind:
- Plötzliche Sprünge oder negative Werte in Zählern,
NaN
-Ergebnisse oderInf
-Werte bei Gleitkommarechnungen und- stille Rundungsfehler, die sich erst bei großen Zahlen oder nach langer Laufzeit bemerkbar machen.
Das Schlimmste daran ist, dass Gegenmaßnahmen durchaus bekannt sind, häufig aber aus Zeit- und Kostengründen vernachlässigt werden:
- Explizite Bereichsanalysen: Vor allem bei Übernahmen prüfen, ob alle Wertebereiche noch passen.
- Saturating Arithmetic oder Clamping: Wenn ein Wert den zulässigen Bereich überschreitet, diesen auf das Maximum setzen oder den Vorgang abbrechen, statt unbemerkt überlaufen zu lassen.
- „Fail fast“ bei kritischen Konvertierungen: Lieber ein gezielter Fehler, der sich früh zeigt, als eine stille Datenkorruption.
- Telemetrie und Monitoring: Wertebereiche im Betrieb überwachen und auffällige Ausreißer melden.
Interessant dabei ist auch die psychologische Komponente: Viele Teams verlassen sich auf ihre Testabdeckung und übersehen, dass Testdaten oft zu nett sind. Grenzwerte, Extrembereiche und ungewöhnliche Kombinationen fehlen häufig. Erst Property-based Testing, Fuzzing oder gezielte Grenzwerttests decken die kritischen Fälle auf.
Der Ariane-5-Vorfall hat gezeigt, dass selbst in hochkritischen Projekten mit gefühlt unendlichem Budget ein scheinbar banales Zahlenproblem zu einer Milliardenkatastrophe führen kann. Für den Alltag in der Unternehmens-IT heißt das: Jede Zahl ist ein Modell, und Modelle haben Grenzen. Wer diese Grenzen kennt und absichert, verhindert nicht nur Abstürze, sondern spart sich auch stundenlange Fehlersuche bei subtilen Rundungsfehlern.
Aus Softwarefehlern lernen – die Serie
Diese Artikelserie stellt neun typische Fehlerklassen vor, die in der Praxis immer wieder auftauchen – unabhängig von Branche oder Technologie. In jeder Kategorie wird die Serie ein konkretes Beispiel vorstellen, dessen Ursachen analysieren und daraus ableiten, was Softwareentwicklerinnen und Softwareentwickler langfristig lernen können.
Im nächsten Teil lesen Sie: Concurrency und Scheduling: Wenn sich Prozesse gegenseitig blockieren.
(who)
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 1 Monat
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 2 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Apps & Mobile Entwicklungvor 2 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen