Connect with us

Künstliche Intelligenz

Fünf Stufen der KI-Nutzung: Wie KI unsere Softwareentwicklung verändert


Künstliche Intelligenz ist momentan das Thema schlechthin in der Softwareentwicklung. Nahezu überall wird darüber gesprochen oder geschrieben, sei es auf LinkedIn, in Podcasts, auf Konferenzen oder in Fachartikeln. In der vergangenen Woche bin ich auf einen Artikel bei heise Developer gestoßen, der dieses Thema in einer interessanten Weise aufbereitet hat: „KI Navigator #11: Fünf Stufen der KI-Nutzung in der Softwareentwicklung“ von Bastian Weinlich und Semjon Mössinger. In diesem Artikel haben die beiden ein Modell vorgestellt, das beschreibt, wie Entwicklerinnen und Entwickler KI jeweils einsetzen.


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Ich habe mir gedacht, dass wir uns diese fünf Stufen heute einmal etwas genauer ansehen. Zudem möchte ich erläutern, wie ich diese Stufen selbst erlebt habe und wo ich Chancen sowie Risiken sehe.

Beginnen wir ganz vorne: Die erste Stufe ist eigentlich wenig spektakulär. Sie beschreibt schlicht den Fall, dass Sie in der Softwareentwicklung keine Künstliche Intelligenz einsetzen. Also im Prinzip genau das, was bis vor wenigen Jahren für alle völlig normal war. Oder anders gesagt: Sie entwickeln Software so, wie es bislang üblich war – Editor oder IDE öffnen, selbst nachdenken, selbst Code schreiben, selbst testen und so weiter. Es beschreibt die Zeit, in der Softwareentwicklung im Wesentlichen noch Handarbeit war.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Die fünf Stufen der KI-Nutzung in der Softwareentwicklung // deutsch

Natürlich war man dabei nicht völlig auf sich allein gestellt. Man hat Dokumentationen gelesen, Suchmaschinen genutzt und war vor allem auf Stack Overflow unterwegs. Stack Overflow war über lange Zeit hinweg die Plattform schlechthin, um Antworten auf Fragen zu finden. Mittlerweile hat die Bedeutung der Plattform jedoch deutlich abgenommen, nicht zuletzt aufgrund der Entwicklungen rund um KI. Tatsächlich haben wir bereits vor über zwei Jahren ein Video mit dem Titel „StackOverflow ist tot, es lebe ChatGPT!?“ veröffentlicht.

Ich selbst habe Stack Overflow über viele Jahre hinweg sehr intensiv genutzt. Allerdings weniger, um Fragen zu stellen, sondern vor allem, um Fragen anderer zu beantworten. Das war für mich oft ein Anreiz, mich mit einem Thema tiefer zu beschäftigen. Durch das Beantworten habe ich zudem selbst sehr viel gelernt. Man muss die Fragen anderer zunächst wirklich verstehen und die Antwort dann nicht nur kennen oder herausfinden, sondern sie auch strukturiert und nachvollziehbar erklären können. Genau das lernt man dabei sehr gut.

Auf diese Weise war ich über viele Jahre hinweg in den Top 0,5 Prozent der Nutzerinnen und Nutzer dort gerankt. Nicht, weil ich das bewusst angestrebt hätte, sondern weil sich das durch die intensive Nutzung im Laufe der Zeit so ergeben hat. Mein letzter Beitrag dort stammt allerdings von März 2023. Trotzdem war ich vergangene Woche immer noch auf Platz 274 in deren Ranking – was eine gewisse Ironie hat.

Nun wird diese „gute alte Zeit“ gerne etwas verklärt. Natürlich gab es damals vieles, das positiv war: Man hat sehr viel selbst erarbeitet (weil man es musste) und dadurch oft erst wirklich verstanden, was man gemacht hat. Man hat seine Grundlagen geschärft, sich mit Algorithmen, Design-Patterns, Architektur und vielem mehr beschäftigt. Dieses Wissen musste man sich aktiv aneignen. Allerdings wird dabei oft vergessen, dass es auch damals schon viele Entwicklerinnen und Entwickler gab, die Code einfach blind von Stack Overflow kopiert und so lange angepasst haben, bis er irgendwie funktionierte – mit Betonung auf „irgendwie“. Ohne zu verstehen, was sie da eigentlich machten oder warum das funktionierte.

Im Kern ist das genau dasselbe Muster, das heute vielen Entwicklerinnen und Entwicklern vorgeworfen wird, die KI verwenden: Damals dauerte es nur länger und war mühsamer. Wer nicht verstehen wollte, konnte auch damals drumherum kommen. Und die Ergebnisse waren entsprechend genauso wackelig, wie sie es heute oft sind, wenn ohne Verständnis gearbeitet wird.

Damit kommen wir zur zweiten Stufe, dem Research-User. Das ist bei vielen der erste Kontaktpunkt mit KI, indem sie beispielsweise ChatGPT für Recherchen verwenden. Das bedeutet, man fragt nach einem kleinen Codebeispiel, lässt sich eine Library erklären, erkundigt sich nach einem HTTP-Status-Code, einem JSON-Struct oder Ähnlichem. Also im Wesentlichen all das, wofür man früher Google oder eben Stack Overflow genutzt hat.

Ich erinnere mich noch gut daran, dass ich, als ich ChatGPT das erste Mal geöffnet habe, überhaupt nicht wusste, wie ich damit umgehen sollte – was ich dort überhaupt eingeben sollte. Ich stand wie der sprichwörtliche Ochse vor dem Berg. Von Google war ich gewohnt, ein paar Schlagwörter einzugeben, und die Suchmaschine erledigte den Rest. Hier war jedoch gefordert, einen vollständigen Text einzugeben. KI-Systeme funktionieren an dieser Stelle ein wenig anders. Das merkt man sehr schnell: Es ist enorm wichtig, ausreichend Kontext mitzugeben, Rahmenbedingungen zu formulieren, präzise zu sein, gegebenenfalls iterativ nachzusteuern oder im Zweifel sogar eine neue Session zu starten. Dieses ganze Thema des Prompt-Engineerings, das inzwischen in das umfassendere Context-Engineering übergeht, habe ich mir dann im Laufe der Zeit selbst beigebracht. Einfach, indem ich gelernt habe, was für mich gut funktioniert und was weniger. So wird man nach und nach besser.

Was mir dabei sicher geholfen hat, ist, dass ich schon seit vielen Jahren intensiv mit Sprache arbeite. Nicht nur auf YouTube, sondern auch durch hunderte, wenn nicht inzwischen tausende Fachartikel für Zeitschriften und Plattformen wie die iX, die dotnetpro, heise Developer und viele andere. Dazu kommt die intensive Beschäftigung mit Domain-Driven Design, Event-Sourcing und den Themen, die damit verbunden sind. All das hat mir geholfen, ein gutes Gespür dafür zu entwickeln, wie man mit einer KI am besten kommuniziert, damit sinnvolle Ergebnisse entstehen.

KIs machen das Ganze natürlich zunächst extrem komfortabel: Ich erhalte heute auf eine Frage, für die ich früher zehn Tabs bei Stack Overflow gebraucht hätte, innerhalb von Sekunden eine Antwort. Aber auch hier gilt im Grunde dasselbe wie damals: Wer will, kann sich die Antworten irgendwie zusammenbauen und hat dann zwar oberflächlich eine Lösung, aber kein wirkliches Verständnis erlangt und dabei auch nichts gelernt. Das war früher so und ist heute nicht anders.

Die dritte Stufe beschreibt das, was für die meisten Entwicklerinnen und Entwickler heute vermutlich Alltag ist: die Arbeit mit Unterstützung durch einen in den Editor oder die IDE integrierten KI-basierten Code-Assistenten wie zum Beispiel Copilot in Visual Studio Code. Für mich persönlich war und ist das jedoch immer noch klar getrennt von Tools wie ChatGPT. ChatGPT ist für mich eher wie eine virtuelle Kollegin, mit der ich über Ideen, Architektur, Konzepte, Patterns und Lösungsansätze diskutiere. Copilot empfinde ich hingegen als eine Art sehr intelligente Autovervollständigung. Copilot nimmt mir viel Schreibarbeit ab, indem es repetitiven Code ergänzt, fehlende Tests erzeugt, Boilerplate erstellt und so weiter. Das sind alles Dinge, die ich problemlos auch selbst hätte schreiben können. Ich hätte nur länger gebraucht. Insofern beschleunigt Copilot meine Arbeit, weil ich schneller durch die eher monotonen Teile des Codes komme. Die Verantwortung für den Code bleibt aber bei mir.

Das ist für mich ein wesentlicher Punkt. Für mich gilt immer: Ich übernehme keinen Code, den ich nicht auch selbst hätte schreiben können. Copilot ist für mich klar ein Werkzeug, das mir das Tippen abnimmt, nicht das Denken. Ich weiß, dass viele Entwicklerinnen und Entwickler das anders sehen, sich darüber freuen, dass Copilot das „irgendwie macht“ und die Vorschläge oft unkritisch übernehmen, ohne sie zu hinterfragen. Das halte ich für äußerst gefährlich, weil man dadurch letztlich die Verantwortung abgibt, die man aber trotzdem selbst tragen muss. Genau das war auch der Grund, warum ich Copilot vielen anderen KI-Werkzeugen vorgezogen habe, die zwischenzeitlich stark gehypt wurden, dabei aber suggerierten, man müsse selbst gar nicht mehr verstehen, was passiert. Dass das eine eher schlechte Idee ist, dazu haben wir vor einigen Wochen ein Video veröffentlicht.

Die vierte Stufe beschreibt, was der eingangs erwähnte Artikel als „Chat First Coder“ bezeichnet. Hier verschiebt sich der Schwerpunkt noch stärker in Richtung KI: Man nutzt ChatGPT oder andere Tools nicht mehr nur, um einzelne Fragen zu klären, sondern entwickelt ganze Features oder Module damit. Auch ich habe irgendwann begonnen, Code direkt in ChatGPT zu entwickeln und mit der KI über den Code zu diskutieren, Rückfragen zu stellen, Bewertungen und Einschätzungen einzuholen. Dadurch wurde ChatGPT für mich noch mehr zu einem Sparringspartner. Ich diskutiere mit der KI, erhalte Ideen, lasse mir Alternativen vorschlagen und entscheide dann, was sinnvoll ist.

Allerdings gibt es hier klare Grenzen. ChatGPT kennt immer nur das, was explizit vorgegeben wird: Sie können eine Datei hineinkopieren, vielleicht auch zwei oder drei, aber ChatGPT hat keinen Überblick über das gesamte Projekt, über Ihre Imports, Build-Skripte, die Umgebung, Tests, Branches und so weiter – all das, was am Ende dazugehört. Natürlich könnte man das theoretisch alles manuell mitgeben, aber das ist aufwendig und nicht wirklich praktikabel. Genau hier liegt der große Vorteil von Copilot und ähnlichen Tools, weil sie direkt in der IDE arbeiten und den Kontext kennen.

Eine Möglichkeit ist Copilot Chat, das hat mich bislang allerdings wenig überzeugt. Meist war es ernüchternd und nicht besonders hilfreich. Für mich ist das bisher nicht auf einem Niveau, das wirklich weiterhilft. Was ich mir langfristig wünschen würde – und was vermutlich über kurz oder lang kommen wird –, ist ein Chat-Interface, das gleichzeitig vollen Zugriff auf meine Projekte über alle Repositories hinweg hat und darauf basierend präzise und passgenaue Antworten liefert.

Tatsächlich gehen die aktuellen Entwicklungen genau in diese Richtung. GitHub hat kürzlich vorgestellt, dass man Issues direkt einem KI-gestützten Assistenten zuweisen kann, der übrigens ebenfalls „Copilot“ heißt. Diese Issues werden dann von einer KI komplett autonom bearbeitet, und das Ergebnis wird später als Pull-Request bereitgestellt. Diese Funktion halte ich meiner bisherigen Erfahrung nach für sehr gelungen. Sie ist zwar noch nicht direkt in die IDE integriert, aber das dürfte nur eine Frage der Zeit sein und zeigt bereits gut, wohin die Reise aktuell geht. Wenn das dann einmal direkt in den IDEs verfügbar ist, dürfte das ein echter Meilenstein sein.

Die fünfte Stufe schließlich ist das, was häufig als „Vibe-Coding“ bezeichnet wird. Das bedeutet, dass Sie der KI in einem Prompt nur noch aus inhaltlicher Sicht beschreiben, was Sie haben möchten, und der Code, der dabei entsteht, ist Ihnen völlig egal. Es zählt nur, ob das Ergebnis funktioniert und die Anforderung erfüllt ist oder nicht. Das klingt für viele äußerst reizvoll, weil man damit vermeintlich alles abgeben und nur noch das fertige Ergebnis erhalten kann. Ich persönlich glaube daran allerdings nicht und halte das vor allem für keine besonders gute Idee. KI ist am Ende immer nur ein Werkzeug. Und jedes Werkzeug, das man einsetzt, sollte man – meiner Meinung nach – verstehen: Wie funktioniert es? Warum funktioniert es? Wofür ist es geeignet und wofür nicht?

All diese Fragen sind wichtig, denn es gibt in der Regel nicht nur einen Weg, um zu einem Ergebnis zu gelangen, sondern viele. Diese unterscheiden sich oft in vielerlei Hinsicht. Da kann man nicht einfach pauschal sagen, dass der eine Weg besser oder schlechter sei. Es sind häufig Abwägungen und Kompromisse, die stark vom eigenen Wertesystem und den konkreten Anforderungen abhängen. Das betrifft unter anderem Themen wie Sicherheit, Performance, Wartbarkeit, Testbarkeit und vieles mehr. Gerade weil das alles Querschnittsbelange sind, werden sie bei vollständig automatisch generiertem Code oft übersehen oder geraten gerne in den Hintergrund.

Ich glaube, dass genau das auch erklärt, warum insbesondere Personen, die selbst nicht oder nicht sehr gut programmieren können, davon so begeistert sind. Sie erkennen gar nicht, wo die Schwächen und Mängel liegen – wie auch, wenn sie nie gelernt haben, so etwas professionell zu beurteilen? Ich kann zumindest aus meiner Erfahrung sagen, dass ich bislang niemanden auf Senior-Niveau getroffen habe, die oder der gesagt hätte:

„Das halte ich für eine wirklich gute Idee.“

Natürlich kann es sein, dass die Zeit für dieses Vorgehen einfach noch nicht reif ist. Vielleicht wird das irgendwann kommen. Im Moment bin ich da jedoch eher skeptisch. Mir ist das alles noch viel zu leichtfertig.

Was bedeutet das nun abschließend? Ich finde, es zeigt zunächst: KI ist ein enorm mächtiges Werkzeug, das die Art und Weise, wie wir Software entwickeln, in kürzester Zeit sehr grundlegend verändert hat. Wir können davon ausgehen, dass das auch noch eine ganze Weile so weitergehen wird. KI ist aber eben auch „nur“ ein Werkzeug. Jedes Werkzeug sollte man verstehen – nicht nur das Ergebnis, sondern auch den Weg dorthin. Denn das Ergebnis ist nicht alles. Es macht einen Unterschied, wie man zu diesem Ergebnis gelangt ist. Letztlich gilt immer noch: Sie selbst sind verantwortlich für den Code, den Sie entwickeln. Keine KI der Welt wird Ihnen diese Verantwortung abnehmen. Deshalb ist es heute wichtiger denn je, fundiertes Wissen aufzubauen, sich weiterzubilden und eigene Erfahrungen zu sammeln, um KI-generierte Ergebnisse überhaupt beurteilen zu können. Wer das nicht tut, wird es in Zukunft sehr schwer haben.


(rme)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Microsoft stellt Film- und Serienangebot ein


Bislang bot Microsoft in seinem Store unter Windows und für die Xbox neben Spielen und Anwendungen auch Filme und Serien an. Das Unterhaltungsangebot hat Microsoft nun zum 18. Juli 2025 kurzfristig eingestellt. Wer im Windows Store auf das entsprechende Icon klickt, bekommt einen Hinweis, das keine Kaufinhalte mehr angeboten werden. Bei unserem Test unter Windows fehlte der Bereich im Store bereits komplett.

Im Supportbereich erklärt Microsoft, dass bereits erworbene Inhalte auf der Xbox und unter Windows weiterhin mit der Movies & TV-App in HD-Auflösung wiedergegeben werden können. Windows-Kunden haben laut Microsoft zudem weiterhin Zugriff auf die Downloadfunktion.

Für die Beschaffung neuer Inhalte empfiehlt Microsoft unter anderem die Dienste Amazon Prime Video und Apple TV. Eine Erstattung der Kaufpreise sei nicht möglich, genauso wenig wie das Übertragen der gekauften Inhalte zu einem anderen Anbieter.


(spo)



Source link

Weiterlesen

Künstliche Intelligenz

Roborock Saros Z70 im Test: Saugroboter mit Greifarm erklimmt Teppiche am besten


Der Roborock Saros Z70 ist der erste Saugroboter mit integriertem Greifarm. Ob diese Besonderheit den hohen Preis von 1629 Euro rechtfertigt, zeigt unser Test.

Der Roborock Saros Z70 will die Saugroboter-Welt revolutionieren. Als Erster seiner Art besitzt er einen ausfahrbaren Greifarm, der herumliegende Gegenstände aufräumen soll. Mit einem Preis von 1629 Euro spielt das Gerät in der absoluten Oberklasse mit.

Dafür bietet der Hersteller aber auch beeindruckende Technik: 22.000 Pa Saugleistung, drei Kameras zur Objekterkennung und eine umfangreiche Reinigungsstation mit Heißwasser-Moppwäsche. Der Omni-Grip-Arm kann Objekte bis 300 Gramm greifen und wegräumen. Dabei lernt der Roboter bis zu 50 neue Objekte, zusätzlich zu den 108 vorprogrammierten.

Die Frage ist: Rechtfertigt diese Innovation den Premium-Preis, oder handelt es sich nur um eine nette Spielerei? Die Antwort liefert dieser Testbericht.

Design: Wie gut ist die Verarbeitung des Roborock Saros Z70?

Der Saros Z70 beeindruckt mit kompakter Bauweise trotz integriertem Greifarm. Mit nur 7,98 cm Höhe bleibt er erstaunlich flach. Das hohe Gewicht vermittelt einen hochwertigen Eindruck. Die schwarz-silberne Farbgebung wirkt futuristisch, die Klarglas-Vorderseite zieht allerdings Fingerabdrücke magisch an. Roborock hat das Innenleben komplett neu entwickelt und die Komponenten extrem platzsparend angeordnet. Der faltbare Arm verschwindet nahezu unsichtbar im Gehäuse unter einem aufklappbaren Deckel. Die Verarbeitung ist tadellos, alle Teile sitzen fest und nichts klappert.

Die Station wirkt mit ihren Abmessungen von 381 × 488 × 475 mm wuchtig, bietet dafür aber auch umfangreiche Funktionen. Sie beherbergt einen Behälter für 4 Liter Frischwasser und einen für 3 Liter Schmutzwasser. Ein zusätzlicher Behälter für Reinigungsflüssigkeit ist neben dem 2,5-Liter-Schmutzbehälter hinter einer magnetischen Klappe integriert.

Einrichtung: Wie schnell ist der Roborock Saros Z70 betriebsbereit?

Die Einrichtung gelingt dank bebilderter Anleitung problemlos und beginnt mit dem Auspacken und Aufstellen der Station. Diese sollte auf ebenem Untergrund mit mindestens 50 cm Freiraum vorn und 30 cm seitlich stehen. Nach dem Anschluss ans Stromnetz folgt das Befüllen des Frischwassertanks und das Einsetzen des Staubbeutels. Der Roboter wird auf die Ladestation gesetzt und lädt erstmals auf.

Parallel lädt man die Roborock-App herunter und erstellt ein Konto. Nach dem Start der App tippt man auf das Plus-Symbol und wählt „Saros Z70“ aus der Geräteliste. Die App zeigt nun eine Schritt-für-Schritt-Anleitung. Zunächst muss der Roboter eingeschaltet und die WLAN-Taste 3 Sekunden gedrückt werden, bis ein Signalton ertönt.

Die WLAN-Verbindung erfolgt nur über 2,4 GHz – bei Dual-Band-Routern muss man aufpassen. Die App sucht automatisch nach dem Roboter-Hotspot. Nach der Verbindung gibt man seine WLAN-Zugangsdaten ein. Der Roboter verbindet sich mit dem Heimnetzwerk, was einige Sekunden dauert.

Die Roborock-App führt Schritt für Schritt durch den Prozess. Die App gilt als eine der besten am Markt, wirkt anfangs aber komplex. Viele Untermenüs und teilweise kryptische Optionen können zunächst überfordern. Nach Einarbeitung entpuppt sie sich als mächtiges Werkzeug.

Besonders unterhaltsam: Die Stimmauswahl bietet neben klassischen Ansagen auch „Rocktimus Prime“ – eine Transformers-Parodie. Der Roboter spricht dann von „Waffensystemen reinigen“ und begibt sich auf „Missionen“. Das Motto „Kein Staub bleibt!“ sorgt für Abwechslung. Nach getaner Arbeit heißt es „wir treffen uns an der Basis, wo die Einsatzspuren“ beseitigt werden.

Der Greifarm muss per Tastenkombination in der App aktiviert werden – eine Sicherheitsmaßnahme gegen versehentliche Aktivierung. Die Objekterkennung zeigt erkannte Gegenstände in Echtzeit auf der Karte an, auf Wunsch auch mit Beweisfoto. Per Fingertipp lassen sich Objekte zum Aufräumen markieren oder ignorieren.

Die Live-Videostream-Funktion ermöglicht Überwachung aus der Ferne – oder das Erschrecken von Familienmitgliedern oder Haustieren. Neben den klassischen Smart-Home-Integrationen für Google Home, Alexa oder Homekit kann man den Roboter auch per Matter einfügen. Zur Sprachsteuerung kann man zudem auf den integrierten Assistenten Rocky zurückgreifen, der sich durch „Hello Rocky“ aufwecken lässt.

Navigation: Wie gut erkennt der Roborock Saros Z70 Hindernisse?

Mit drei Kameras und 3D-ToF-Navigation meistert der Z70 die meisten Situationen souverän. Die obere Kamera im Deckel erfasst die Umgebung, die Frontkamera erkennt Hindernisse, die Greifarm-Kamera prüft gefasste Objekte. Diese Kombination ermöglicht präzise 3D-Kartierung und Objekterkennung. Der Roboter erstellt detaillierte Karten mit Möbelpositionen und merkt sich dauerhafte Hindernisse.

Besonders beeindruckend ist das Klettern auf Hochflor-Teppiche: Der Roboter fährt zunächst vor, erkennt den Teppich, setzt kurz zurück, zieht Seitenbürsten und Wischmopps ein, kippt leicht nach hinten und „springt“ mit Schwung auf die Fläche. So verhindert er ein Verrutschen oder die Bildung von Falten. Die Hinderniserkennung funktioniert bei Schuhen zuverlässig, Socken und Taschentücher werden jedoch häufig übersehen. Der Arm lässt sich per App fernsteuern – praktisch für kleine Späße im Büro. Schwellen zwischen 2 und 4 cm kann er problemlos überwinden.

In engen Passagen zeigt sich der Roboter optimistisch und stößt dabei gelegentlich mit dem Stoßsensor an. Mit ausgefahrenen Wischmopps verschiebt er beim Drehen manchmal Stühle. Trotz hochwertiger Sensorik und 3D-Kartierung kommt es immer wieder zu Navigationsfehlern – etwa, wenn der Roboter versehentlich andere Bereiche reinigt als vorgegeben.

Die Hinderniserkennung funktioniert bei großen Objekten zuverlässig. Schuhe werden sicher erkannt und können per Greifarm weggeräumt werden. Bei kleineren Gegenständen zeigen sich Schwächen: Socken überfährt er häufig, Taschentücher erkennt er trotz Versprechungen nicht zuverlässig. Die 108 vorprogrammierten Objekte umfassen Möbel, Kabel, Spielzeug und Haustiere. Per Foto-Funktion lassen sich 50 weitere Objekte anlernen – in der Praxis klappt das mit gemischtem Erfolg.

Der Arm ist per App fernsteuerbar, was für unterhaltsame Momente sorgt. Die Reichweite und Beweglichkeit reichen aus, um Schuhe in Ecken zu greifen. Bei verwinkelten Positionen stößt er an Grenzen. Bleibt der Arm hängen, hilft nur manuelles Zurücksetzen per Tastenkombination.

Bei Engstellen agiert der Z70 selbstbewusst – manchmal zu selbstbewusst. Mit ausgefahrenen Wischmopps versucht er, jede Stelle zu erreichen. Beim Drehen in engen Bereichen verschiebt er dabei Stühle oder rempelt Tischbeine an. Der Stoßsensor vorn touchiert regelmäßig Hindernisse, ohne dass der Roboter sein Verhalten anpasst. Per App lässt sich ein größerer Sicherheitsabstand einstellen, was die Gründlichkeit aber reduziert.

Reinigung: Wie gut saugt und wischt der Roborock Saros Z70?

Die Saugleistung von 22.000 Pa zeigt sich in der Praxis hervorragend. Auf einem Hartboden entfernt der Z70 etwa 90 Prozent der Testkörner im ersten Durchgang. Auch auf Teppichen bleibt wenig zurück. Die ausfahrbare Seitenbürste erreicht Ecken besser als starre Varianten. Sie passt ihre Geschwindigkeit intelligent an: In Ecken dreht sie schneller, auf freier Fläche langsamer. So wird Schmutz effektiv zur Hauptbürste befördert, ohne ihn durch die Gegend zu schleudern. Das klappt im Test auch deutlich besser als bei anderen Modellen, aber nicht perfekt.

Die beiden rotierenden Wischmopps leisten für Mopps einen außergewöhnlich guten Job. Während andere Modelle feinen Schmutz verschmieren, verteilt der Z70 nur minimal Dreck. Eine aktive Frischwasserzufuhr während der Reinigungsfahrt gibt es hier aber nicht.

Die Mopps werden mit 80 Grad heißem Wasser in der Station gereinigt und bei 55 Grad getrocknet. Bei reinen Saugvorgängen oder auf Teppichen legt der Roboter die Mopps in der Station ab. Die Mopps heben sich bis zu 22 mm an, um Teppiche nicht zu befeuchten. Die Station saugt den Staubbehälter automatisch ab. Dabei arbeitet sie verhältnismäßig leise, das Wimmern der Absaugung kann aber auf bestimmten Frequenzen stören. Der Roboter kehrt regelmäßig zur Moppwäsche zurück, um sich von aufgesammeltem Schmutz zu bereinigen.

Akkulaufzeit: Wie lange arbeitet der Roborock Saros Z70?

Mit seinem 14,4V Li-Ionen-Akku (6,4 Ah) schafft der Z70 bis zu 3 Stunden Betriebszeit. Das reicht für große Wohnungen problemlos aus. Die Ladezeit beträgt 2,5 Stunden, was im Vergleich zur Konkurrenz recht flott ist. Der Roboter kehrt bei niedrigem Akkustand automatisch zur Station zurück und setzt die Reinigung nach dem Laden fort. Die Energieverwaltung arbeitet intelligent: Bei aktivem Greifarm und intensiver Kameranutzung sinkt die Laufzeit etwas.

Im Praxistest benötigt er für 67 m² mit wenigen Hindernissen etwa 80 Minuten und verbraucht dabei über 50 Prozent der Akkuladung bei hoher Saugleistung. Bei normaler Saugstufe und vielen Hindernissen sind es für 63 m² bereits 90 Minuten.

Die tatsächliche Laufzeit hängt stark von den Bedingungen ab: Aktiver Greifarm, intensive Kameranutzung und häufige Richtungswechsel zehren am Akku. Auf Teppichen mit maximaler Saugleistung sinkt die Reichweite deutlich.

Preis

Normalerweise kostet der Roborock Saros Z70 etwa 1799 Euro und gehört damit absolut zum Premium-Segment. Aktuell gibt es die schwarze Version bereits für 1629 Euro bei Alza. Er ist damit einer der teuersten Saugroboter am Markt. Alternativ gibt es den Saros Z70 auch mit festem Wasseranschluss ab 1789 Euro.

Für den Preis erhält man allerdings auch einzigartige Technik: Den weltweit ersten integrierten Greifarm, drei Kameras, 22.000 Pa Saugleistung und eine High-End-Station. Ob die Innovation den Aufpreis rechtfertigt, muss jeder selbst entscheiden. Vergleichbare Modelle ohne Greifarm kosten 500 bis 900 Euro weniger.

Fazit

Der Roborock Saros Z70 ist technisch beeindruckend und zeigt, wohin die Reise bei Saugrobotern geht. Die Saugleistung ist hervorragend, die Lautstärke trotzdem gering. Die Verarbeitung überzeugt, die App bietet unzählige Möglichkeiten. Der integrierte Greifarm ist eine innovative Idee, zeigt aber in der Praxis klare Grenzen. Er eignet sich nur für einfache Objekte in gut zugänglicher Position und bleibt bei komplexeren Aufgaben häufig hängen. Socken und Taschentücher erkennt er nicht zuverlässig. Als Spielerei macht der Arm Spaß, einen echten Mehrwert bietet er nur bedingt.

Für Technik-Enthusiasten mit großem Budget ist der Z70 eine Empfehlung. Wer pragmatisch denkt, bekommt für 1000 Euro weniger ähnlich gute Reinigungsleistung ohne Arm.



Source link

Weiterlesen

Künstliche Intelligenz

Fundierte Videokurse – aus der IT für die IT


IT-Professionals erleben den technologischen Wandel hautnah – und wissen genau, welche Skills sie benötigen. Aber wie baut man sie kontinuierlich auf? Dabei unterstützt das On-Demand-Angebot im heise academy Campus.

Die heise academy bietet moderne, digitale Weiterbildung, zugeschnitten auf die heutigen Bedürfnisse von IT-Professionals. Im Mittelpunkt steht die Interaktion zwischen Lernenden und IT-Expert:innen. Das bedeutet, IT-Weiterbildung flexibel in den Arbeitsalltag integrieren, immer auf dem neuesten Stand sein und Innovationspotential für das Unternehmen schaffen.

Aktuell gibt es einen ersten Videokurs gratis. Zur Auswahl stehen je ein Videokurs aus den Bereichen IT-Security, Künstliche Intelligenz & Data Science sowie Softwareentwicklung:

Red Hat Enterprise Linux: Sicherheitsmanagement

Red Hat Enterprise Linux (RHEL) bietet eine stabile und sichere Plattform für Administratoren, die Netzwerke in Unternehmen oder Rechenzentren betreiben. Tom Wechsler, selbstständiger Cloud Solution Architect, stellt die wichtigsten Sicherheitskonzepte und -techniken für RHEL-Systeme vor.

Microsoft Fabric – Synapse Data Science

Data Science ist für viele Unternehmen eine zentrale Kompetenz, um datenbasierte Entscheidungen zu treffen und Geschäftsergebnisse zu optimieren. Der Data Scientist und Data Engineer Emil Vinčazović zeigt das flexible Erstellen von Datenanalysen und Machine-Learning-Modellen in Fabric.

Mutation Testing in Java

Mutation Testing in Java ist eine fortgeschrittene Methode zur Bewertung der Effektivität von Unit-Tests. Der Java-DevSecOps-Experte Sven Ruppert vermittelt, mithilfe von Mutationstests die Effektivität von Testsuiten zu bewerten und robuste, langfristig wartbare Java-Anwendungen zu entwickeln.

Der kostenfreie Videokurs kann über die Landingpage des academy Campus direkt ausgewählt und angefragt werden:

Jetzt einlösen

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(cmho)



Source link

Weiterlesen

Beliebt