Connect with us

Künstliche Intelligenz

Fünf Stufen der KI-Nutzung: Wie KI unsere Softwareentwicklung verändert


Künstliche Intelligenz ist momentan das Thema schlechthin in der Softwareentwicklung. Nahezu überall wird darüber gesprochen oder geschrieben, sei es auf LinkedIn, in Podcasts, auf Konferenzen oder in Fachartikeln. In der vergangenen Woche bin ich auf einen Artikel bei heise Developer gestoßen, der dieses Thema in einer interessanten Weise aufbereitet hat: „KI Navigator #11: Fünf Stufen der KI-Nutzung in der Softwareentwicklung“ von Bastian Weinlich und Semjon Mössinger. In diesem Artikel haben die beiden ein Modell vorgestellt, das beschreibt, wie Entwicklerinnen und Entwickler KI jeweils einsetzen.


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Ich habe mir gedacht, dass wir uns diese fünf Stufen heute einmal etwas genauer ansehen. Zudem möchte ich erläutern, wie ich diese Stufen selbst erlebt habe und wo ich Chancen sowie Risiken sehe.

Beginnen wir ganz vorne: Die erste Stufe ist eigentlich wenig spektakulär. Sie beschreibt schlicht den Fall, dass Sie in der Softwareentwicklung keine Künstliche Intelligenz einsetzen. Also im Prinzip genau das, was bis vor wenigen Jahren für alle völlig normal war. Oder anders gesagt: Sie entwickeln Software so, wie es bislang üblich war – Editor oder IDE öffnen, selbst nachdenken, selbst Code schreiben, selbst testen und so weiter. Es beschreibt die Zeit, in der Softwareentwicklung im Wesentlichen noch Handarbeit war.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Die fünf Stufen der KI-Nutzung in der Softwareentwicklung // deutsch

Natürlich war man dabei nicht völlig auf sich allein gestellt. Man hat Dokumentationen gelesen, Suchmaschinen genutzt und war vor allem auf Stack Overflow unterwegs. Stack Overflow war über lange Zeit hinweg die Plattform schlechthin, um Antworten auf Fragen zu finden. Mittlerweile hat die Bedeutung der Plattform jedoch deutlich abgenommen, nicht zuletzt aufgrund der Entwicklungen rund um KI. Tatsächlich haben wir bereits vor über zwei Jahren ein Video mit dem Titel „StackOverflow ist tot, es lebe ChatGPT!?“ veröffentlicht.

Ich selbst habe Stack Overflow über viele Jahre hinweg sehr intensiv genutzt. Allerdings weniger, um Fragen zu stellen, sondern vor allem, um Fragen anderer zu beantworten. Das war für mich oft ein Anreiz, mich mit einem Thema tiefer zu beschäftigen. Durch das Beantworten habe ich zudem selbst sehr viel gelernt. Man muss die Fragen anderer zunächst wirklich verstehen und die Antwort dann nicht nur kennen oder herausfinden, sondern sie auch strukturiert und nachvollziehbar erklären können. Genau das lernt man dabei sehr gut.

Auf diese Weise war ich über viele Jahre hinweg in den Top 0,5 Prozent der Nutzerinnen und Nutzer dort gerankt. Nicht, weil ich das bewusst angestrebt hätte, sondern weil sich das durch die intensive Nutzung im Laufe der Zeit so ergeben hat. Mein letzter Beitrag dort stammt allerdings von März 2023. Trotzdem war ich vergangene Woche immer noch auf Platz 274 in deren Ranking – was eine gewisse Ironie hat.

Nun wird diese „gute alte Zeit“ gerne etwas verklärt. Natürlich gab es damals vieles, das positiv war: Man hat sehr viel selbst erarbeitet (weil man es musste) und dadurch oft erst wirklich verstanden, was man gemacht hat. Man hat seine Grundlagen geschärft, sich mit Algorithmen, Design-Patterns, Architektur und vielem mehr beschäftigt. Dieses Wissen musste man sich aktiv aneignen. Allerdings wird dabei oft vergessen, dass es auch damals schon viele Entwicklerinnen und Entwickler gab, die Code einfach blind von Stack Overflow kopiert und so lange angepasst haben, bis er irgendwie funktionierte – mit Betonung auf „irgendwie“. Ohne zu verstehen, was sie da eigentlich machten oder warum das funktionierte.

Im Kern ist das genau dasselbe Muster, das heute vielen Entwicklerinnen und Entwicklern vorgeworfen wird, die KI verwenden: Damals dauerte es nur länger und war mühsamer. Wer nicht verstehen wollte, konnte auch damals drumherum kommen. Und die Ergebnisse waren entsprechend genauso wackelig, wie sie es heute oft sind, wenn ohne Verständnis gearbeitet wird.

Damit kommen wir zur zweiten Stufe, dem Research-User. Das ist bei vielen der erste Kontaktpunkt mit KI, indem sie beispielsweise ChatGPT für Recherchen verwenden. Das bedeutet, man fragt nach einem kleinen Codebeispiel, lässt sich eine Library erklären, erkundigt sich nach einem HTTP-Status-Code, einem JSON-Struct oder Ähnlichem. Also im Wesentlichen all das, wofür man früher Google oder eben Stack Overflow genutzt hat.

Ich erinnere mich noch gut daran, dass ich, als ich ChatGPT das erste Mal geöffnet habe, überhaupt nicht wusste, wie ich damit umgehen sollte – was ich dort überhaupt eingeben sollte. Ich stand wie der sprichwörtliche Ochse vor dem Berg. Von Google war ich gewohnt, ein paar Schlagwörter einzugeben, und die Suchmaschine erledigte den Rest. Hier war jedoch gefordert, einen vollständigen Text einzugeben. KI-Systeme funktionieren an dieser Stelle ein wenig anders. Das merkt man sehr schnell: Es ist enorm wichtig, ausreichend Kontext mitzugeben, Rahmenbedingungen zu formulieren, präzise zu sein, gegebenenfalls iterativ nachzusteuern oder im Zweifel sogar eine neue Session zu starten. Dieses ganze Thema des Prompt-Engineerings, das inzwischen in das umfassendere Context-Engineering übergeht, habe ich mir dann im Laufe der Zeit selbst beigebracht. Einfach, indem ich gelernt habe, was für mich gut funktioniert und was weniger. So wird man nach und nach besser.

Was mir dabei sicher geholfen hat, ist, dass ich schon seit vielen Jahren intensiv mit Sprache arbeite. Nicht nur auf YouTube, sondern auch durch hunderte, wenn nicht inzwischen tausende Fachartikel für Zeitschriften und Plattformen wie die iX, die dotnetpro, heise Developer und viele andere. Dazu kommt die intensive Beschäftigung mit Domain-Driven Design, Event-Sourcing und den Themen, die damit verbunden sind. All das hat mir geholfen, ein gutes Gespür dafür zu entwickeln, wie man mit einer KI am besten kommuniziert, damit sinnvolle Ergebnisse entstehen.

KIs machen das Ganze natürlich zunächst extrem komfortabel: Ich erhalte heute auf eine Frage, für die ich früher zehn Tabs bei Stack Overflow gebraucht hätte, innerhalb von Sekunden eine Antwort. Aber auch hier gilt im Grunde dasselbe wie damals: Wer will, kann sich die Antworten irgendwie zusammenbauen und hat dann zwar oberflächlich eine Lösung, aber kein wirkliches Verständnis erlangt und dabei auch nichts gelernt. Das war früher so und ist heute nicht anders.

Die dritte Stufe beschreibt das, was für die meisten Entwicklerinnen und Entwickler heute vermutlich Alltag ist: die Arbeit mit Unterstützung durch einen in den Editor oder die IDE integrierten KI-basierten Code-Assistenten wie zum Beispiel Copilot in Visual Studio Code. Für mich persönlich war und ist das jedoch immer noch klar getrennt von Tools wie ChatGPT. ChatGPT ist für mich eher wie eine virtuelle Kollegin, mit der ich über Ideen, Architektur, Konzepte, Patterns und Lösungsansätze diskutiere. Copilot empfinde ich hingegen als eine Art sehr intelligente Autovervollständigung. Copilot nimmt mir viel Schreibarbeit ab, indem es repetitiven Code ergänzt, fehlende Tests erzeugt, Boilerplate erstellt und so weiter. Das sind alles Dinge, die ich problemlos auch selbst hätte schreiben können. Ich hätte nur länger gebraucht. Insofern beschleunigt Copilot meine Arbeit, weil ich schneller durch die eher monotonen Teile des Codes komme. Die Verantwortung für den Code bleibt aber bei mir.

Das ist für mich ein wesentlicher Punkt. Für mich gilt immer: Ich übernehme keinen Code, den ich nicht auch selbst hätte schreiben können. Copilot ist für mich klar ein Werkzeug, das mir das Tippen abnimmt, nicht das Denken. Ich weiß, dass viele Entwicklerinnen und Entwickler das anders sehen, sich darüber freuen, dass Copilot das „irgendwie macht“ und die Vorschläge oft unkritisch übernehmen, ohne sie zu hinterfragen. Das halte ich für äußerst gefährlich, weil man dadurch letztlich die Verantwortung abgibt, die man aber trotzdem selbst tragen muss. Genau das war auch der Grund, warum ich Copilot vielen anderen KI-Werkzeugen vorgezogen habe, die zwischenzeitlich stark gehypt wurden, dabei aber suggerierten, man müsse selbst gar nicht mehr verstehen, was passiert. Dass das eine eher schlechte Idee ist, dazu haben wir vor einigen Wochen ein Video veröffentlicht.

Die vierte Stufe beschreibt, was der eingangs erwähnte Artikel als „Chat First Coder“ bezeichnet. Hier verschiebt sich der Schwerpunkt noch stärker in Richtung KI: Man nutzt ChatGPT oder andere Tools nicht mehr nur, um einzelne Fragen zu klären, sondern entwickelt ganze Features oder Module damit. Auch ich habe irgendwann begonnen, Code direkt in ChatGPT zu entwickeln und mit der KI über den Code zu diskutieren, Rückfragen zu stellen, Bewertungen und Einschätzungen einzuholen. Dadurch wurde ChatGPT für mich noch mehr zu einem Sparringspartner. Ich diskutiere mit der KI, erhalte Ideen, lasse mir Alternativen vorschlagen und entscheide dann, was sinnvoll ist.

Allerdings gibt es hier klare Grenzen. ChatGPT kennt immer nur das, was explizit vorgegeben wird: Sie können eine Datei hineinkopieren, vielleicht auch zwei oder drei, aber ChatGPT hat keinen Überblick über das gesamte Projekt, über Ihre Imports, Build-Skripte, die Umgebung, Tests, Branches und so weiter – all das, was am Ende dazugehört. Natürlich könnte man das theoretisch alles manuell mitgeben, aber das ist aufwendig und nicht wirklich praktikabel. Genau hier liegt der große Vorteil von Copilot und ähnlichen Tools, weil sie direkt in der IDE arbeiten und den Kontext kennen.

Eine Möglichkeit ist Copilot Chat, das hat mich bislang allerdings wenig überzeugt. Meist war es ernüchternd und nicht besonders hilfreich. Für mich ist das bisher nicht auf einem Niveau, das wirklich weiterhilft. Was ich mir langfristig wünschen würde – und was vermutlich über kurz oder lang kommen wird –, ist ein Chat-Interface, das gleichzeitig vollen Zugriff auf meine Projekte über alle Repositories hinweg hat und darauf basierend präzise und passgenaue Antworten liefert.

Tatsächlich gehen die aktuellen Entwicklungen genau in diese Richtung. GitHub hat kürzlich vorgestellt, dass man Issues direkt einem KI-gestützten Assistenten zuweisen kann, der übrigens ebenfalls „Copilot“ heißt. Diese Issues werden dann von einer KI komplett autonom bearbeitet, und das Ergebnis wird später als Pull-Request bereitgestellt. Diese Funktion halte ich meiner bisherigen Erfahrung nach für sehr gelungen. Sie ist zwar noch nicht direkt in die IDE integriert, aber das dürfte nur eine Frage der Zeit sein und zeigt bereits gut, wohin die Reise aktuell geht. Wenn das dann einmal direkt in den IDEs verfügbar ist, dürfte das ein echter Meilenstein sein.

Die fünfte Stufe schließlich ist das, was häufig als „Vibe-Coding“ bezeichnet wird. Das bedeutet, dass Sie der KI in einem Prompt nur noch aus inhaltlicher Sicht beschreiben, was Sie haben möchten, und der Code, der dabei entsteht, ist Ihnen völlig egal. Es zählt nur, ob das Ergebnis funktioniert und die Anforderung erfüllt ist oder nicht. Das klingt für viele äußerst reizvoll, weil man damit vermeintlich alles abgeben und nur noch das fertige Ergebnis erhalten kann. Ich persönlich glaube daran allerdings nicht und halte das vor allem für keine besonders gute Idee. KI ist am Ende immer nur ein Werkzeug. Und jedes Werkzeug, das man einsetzt, sollte man – meiner Meinung nach – verstehen: Wie funktioniert es? Warum funktioniert es? Wofür ist es geeignet und wofür nicht?

All diese Fragen sind wichtig, denn es gibt in der Regel nicht nur einen Weg, um zu einem Ergebnis zu gelangen, sondern viele. Diese unterscheiden sich oft in vielerlei Hinsicht. Da kann man nicht einfach pauschal sagen, dass der eine Weg besser oder schlechter sei. Es sind häufig Abwägungen und Kompromisse, die stark vom eigenen Wertesystem und den konkreten Anforderungen abhängen. Das betrifft unter anderem Themen wie Sicherheit, Performance, Wartbarkeit, Testbarkeit und vieles mehr. Gerade weil das alles Querschnittsbelange sind, werden sie bei vollständig automatisch generiertem Code oft übersehen oder geraten gerne in den Hintergrund.

Ich glaube, dass genau das auch erklärt, warum insbesondere Personen, die selbst nicht oder nicht sehr gut programmieren können, davon so begeistert sind. Sie erkennen gar nicht, wo die Schwächen und Mängel liegen – wie auch, wenn sie nie gelernt haben, so etwas professionell zu beurteilen? Ich kann zumindest aus meiner Erfahrung sagen, dass ich bislang niemanden auf Senior-Niveau getroffen habe, die oder der gesagt hätte:

„Das halte ich für eine wirklich gute Idee.“

Natürlich kann es sein, dass die Zeit für dieses Vorgehen einfach noch nicht reif ist. Vielleicht wird das irgendwann kommen. Im Moment bin ich da jedoch eher skeptisch. Mir ist das alles noch viel zu leichtfertig.

Was bedeutet das nun abschließend? Ich finde, es zeigt zunächst: KI ist ein enorm mächtiges Werkzeug, das die Art und Weise, wie wir Software entwickeln, in kürzester Zeit sehr grundlegend verändert hat. Wir können davon ausgehen, dass das auch noch eine ganze Weile so weitergehen wird. KI ist aber eben auch „nur“ ein Werkzeug. Jedes Werkzeug sollte man verstehen – nicht nur das Ergebnis, sondern auch den Weg dorthin. Denn das Ergebnis ist nicht alles. Es macht einen Unterschied, wie man zu diesem Ergebnis gelangt ist. Letztlich gilt immer noch: Sie selbst sind verantwortlich für den Code, den Sie entwickeln. Keine KI der Welt wird Ihnen diese Verantwortung abnehmen. Deshalb ist es heute wichtiger denn je, fundiertes Wissen aufzubauen, sich weiterzubilden und eigene Erfahrungen zu sammeln, um KI-generierte Ergebnisse überhaupt beurteilen zu können. Wer das nicht tut, wird es in Zukunft sehr schwer haben.


(rme)



Source link

Künstliche Intelligenz

Whitepaper inkl. Selbsttest für IT-Leitungen kostenfrei verfügbar


Die heise academy bietet derzeit ein kostenfreies Whitepaper inklusive interaktivem Selbsttest an.

59 % der in der heise academy registrierten Fach- und Führungskräfte berichten über einen bestehenden Skill-Gap. 64 % erwarten zudem, dass der Skill Gap künftig noch größer wird. Das hat das Team der heise academy zum Anlass genommen, um in einem Whitepaper die Relevanz von IT-Weiterbildung aufzuzeigen.

Welche Kompetenzfelder stehen beim IT-Skill-Gap im Vordergrund?

Identifiziert wurden die Themen Softwareentwicklung, Netzwerke, Web-Technologien, Cloud-Technologien, Data Science, IT-Security und Künstliche Intelligenz / Machine Learning. Darüber hinaus werden Erwartungshaltungen von Mitarbeitenden beleuchtet. Und es gibt einen Überblick zu Anforderungen an effektive Weitebrildungsprogramme.

Dazu wird ein interaktiver Selbsttest angeboten, der direkt aufzeigt, wo Handlungsbedarf besteht.

Der kostenfreie Whitepaper kann über die Landingpage der heise academy direkt angefordert werden:

Zum Whitepaper

IT-Professionals erleben den technologischen Wandel hautnah – und wissen genau, welche Skills sie benötigen. Aber wie baut man sie kontinuierlich auf? Dabei unterstützt das On-Demand-Angebot im heise academy Campus.

Die heise academy bietet moderne, digitale Weiterbildung, zugeschnitten auf die heutigen Bedürfnisse von IT-Professionals. Im Mittelpunkt steht die Interaktion zwischen Lernenden und IT-Expertinnen und Experten. Das bedeutet, IT-Weiterbildung flexibel in den Arbeitsalltag integrieren, immer auf dem neuesten Stand sein und Innovationspotential für das Unternehmen schaffen.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.


(cmho)



Source link

Weiterlesen

Künstliche Intelligenz

Zulieferer ZF: Erreichen Sparziel – aber das reicht nicht


Der Chef des kriselnden Autozulieferers ZF Friedrichshafen, Holger Klein, sieht sein Unternehmen beim Erreichen selbst gesteckter Sparziele trotz Erfolgen noch nicht am Ziel. „Wir sind bei rund 5,8 Milliarden, die wir erreicht haben, und werden jetzt die Lücke zum Ende des Jahres noch schließen. Aber wir sehen eindeutig, das reicht nicht“, sagte der Manager der Deutschen Presse-Agentur. ZF hatte 2023 ein erstes Einsparziel von sechs Milliarden Euro für die Jahre 2024 und 2025 angekündigt. Eine Summe für ein neues Sparziel nannte der Manager aber nicht.

Aktuell sprechen Management und Betriebsrat über die Neuausrichtung der Sparte für Antriebe, intern „Division E“ genannt. „Ich glaube, allen Beteiligten ist klar, dass die Division E sich in der Mitte eines perfekten Sturms befindet“, sagte Klein. Sie ist in Teilen nicht wettbewerbsfähig. Der Bereich umfasst das Geschäft mit Getrieben für alle Antriebsarten. Er leidet besonders unter dem verzögerten Anlauf der E-Mobilität sowie unter hohen Kosten und geringen Margen im traditionellen Getriebegeschäft.

Für den Manager gibt es mehrere Optionen: „Eine Partnerschaft für die E-Division wäre für uns eine gute Lösung, denn sie böte die Möglichkeit, Kosten und Risiken für die Weiterentwicklung neuer Produkte mit dem Partner zu teilen und damit auch mehr Beschäftigung zu sichern.“ Auch eine Restrukturierung ohne Partner könne erfolgreich sein – erfordere jedoch stärkere Maßnahmen zur Steigerung der Profitabilität. „Beides besprechen wir mit den Arbeitnehmervertretern.“ Details zum Stand der Gespräche nannte er nicht. Sie sollen bis Ende September abgeschlossen sein.

Der Betriebsrat hatte zuletzt mit Protesten gegen die geplanten Einschnitte bei ZF mobil gemacht. Der Vorsitzende des Gesamtbetriebsrats, Achim Dietrich, hatte erklärt: „Die geplante Ausgliederung oder gar der Verkauf der Division E ist keine Strategie, die wir mittragen können“. Eine Ausgliederung oder ein Verkauf wären ein fataler Fehler, wurde Dietrich damals in einer Mitteilung zitiert. ZF-Chef Klein sagte nun: „Meine feste Überzeugung ist, mit Partnern haben wir durchaus weitere Wachstumspotenziale und das würde sich auch positiv auf unsere Arbeitsplätze in Deutschland auswirken.“ Das Unternehmen streicht aktuell Tausende von Stellen im Inland.

ZF hatte im ersten Halbjahr einen Verlust von 195 Millionen Euro verzeichnet. ZF leidet – wie die Konkurrenten Bosch, Continental und Schaeffler – aktuell wegen der niedrigen weltweiten Fahrzeugproduktion unter ausbleibenden Aufträgen der Hersteller. Klein sagte, beim Umsatz sei man aufgrund drastisch verringerter Abrufe der Hersteller im laufenden Jahr unter Plan. Das bekomme man durch die Maßnahmen aufgefangen. Aber: „Wir glauben auch nicht, dass 2026 besser wird.“

Der Manager mahnte eine Überprüfung der EU-Regeln für die Autoindustrie an. „Wenn wir in der EU bei einem Aus für den Verbrenner im Jahr 2035 bleiben, dann wird das auch jetzt schon Effekte auf unsere Beschäftigung haben, weil wir jetzt eigentlich die nächsten Getriebe-Generationen für Hybridantriebe entwickeln müssten.“ Wenn aber nicht absehbar sei, dass diese dann regulatorisch erlaubt seien, dann habe man für die Ingenieure, die das normalerweise machten, nichts zu tun.

Das Unternehmen hat neben Getrieben unter anderem auch Lenksysteme, Antriebe, Bremsen, Sicherheitstechnik und Fahrwerkskomponenten im Angebot. ZF ist hoch verschuldet. Die Nettoverbindlichkeiten beliefen sich Ende Juni auf rund 10,5 Milliarden Euro. Die Schulden haben ihren Ursprung vor allem im Erwerb des Autozulieferers TRW und des Bremsenspezialisten Wabco.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Kommentar: Reguliert endlich den Smart-Begriff!


Das smarte Home bleibt eine herstellerverursachte Hölle. Nichts deutet darauf hin, dass Kompatibilität über Einzelszenarien hinaus besser wird. Was Frickler und Fachbetriebe freut, ist für Menschen, die Technik vor allem nutzen wollen, ein Graus. Zeit für klare Regeln, was sich „Smart“ nennen darf!

Smart Home, das intelligente Heim, das ist eine Vision, die inzwischen schon einige Jahrzehnte auf dem Buckel hat. Was anfing mit der Idee, nicht mehr im ganzen Haus selbst Rollläden steuern zu müssen, ist für viele Deutsche – und darunter sicher überproportional viele Leser von heise online – inzwischen zur modernen Alternative zur Modelleisenbahn geworden: Irgendwas lässt sich immer optimieren, und an neuen Modellen ist derzeit kein Mangel. Ergänzt wird das zudem von einer ganz anderen Entwicklung: dem Aufkommen von Solaranlagen, insbesondere kleineren solchen, bei denen jede eigenverbrauchte Wattstunde die Stromrechnung spürbar drückt. Wer würde da nicht versuchen, alles aufeinander abzustimmen?

Nur ein Bereich leistet bei den smarten Endgeräten bislang ganze Arbeit: die Marketingabteilungen. Elektrogeräten in jeder Form und Farbe, vom smarten Leuchtmittel über smarte Waschmaschinen bis zur Heizungs- und Stromsteuerung, Rollläden, Fernseher, Stecker, Uhren, Brillen, immer mehr Küchengeräte: Alles wird als smart gelabelt, sobald es einen Account in der Herstellercloud benötigt. Und das nicht mehr nur zur IFA in Berlin, wo die Branche traditionell ihre Neuerungen präsentiert. Und wo auch in diesem Jahr bis zur Fritteuse alles möglichst smart, vernetzt und intelligent sein soll. So schlau, dass der Mensch mit seinen beschränkten Fähigkeiten und daraus resultierenden Bequemlichkeitswünschen daneben schon sehr schlicht wirkt.

In der Theorie wirkt dabei (Lichtstimmung: Party) alles schön: Balkonkraftwerk kaufen, anschließen, Strom ernten. Und damit das auch so richtig rund läuft und spart, lässt man bestimmte Geräte hinter smarten Steckdosen laufen. Und genau hier beginnt der harte Aufprall des Durchschnittsbürgers auf die technische Realität: Wolkige Versprechen, welche die meisten „smarten“ Geräte nicht im Ansatz halten (Lichtstimmung: Kalt). Das fängt mit einer banalen Grundfrage an: Wie soll zwischen den Geräten kommuniziert werden? Bluetooth-LE, DECT-ULE, ZigBee, WLAN, Matter oder etwas ganz anderes, proprietäres? Und wenn per WLAN, das Hausnetz, oder ein dafür eingerichtetes zweites Netz? Oder gar ein Insel-Access-Point, wie ihn etwa manche Wechselrichter dauerhaft aufspannen? Mit welcher Lösung soll dieser Zoo anschließend zentral gesteuert werden? App-basiert, per Cloudservice? Vom NAS aus? Welche Geräte sind überhaupt mit welcher Software über welchen Standard ansprechbar? Und wie lassen sich diese dann miteinander verknüpfen? Es ist das pure Chaos.

Tatsächlich haben die Elektro- und Elektronikgerätehersteller vor allem eines geschafft: Die Lust an der Schlauerwerdung der eigenen vier Wände kräftig auszutreiben (Lichtstimmung: Grim, im Hintergrund beginnt die Waschmaschine zu rotieren). Denn wer sich wochenlang mit der Frage beschäftigen muss, welches Gerät überhaupt mit welchem sprechen kann, wenn die Herstellerangaben bei Geräten im besten Fall unvollständig, im schlechtesten Fall irreführend sind. Oder die mit Versprechungen werben, etwa der schon zur IFA 2023 angekündigten Unterstützung des Matter-Standards durch die Fritz-Produkte (Die Connect-Leuchte schaltet auf Dauerrot).

Zwei Jahre später kann immer noch nur ein Bruchteil der Geräte des Herstellers den gemeinsamen Standard, bei dem sich auch andere Anbieter weiterhin schwertun. Die einzige Frage, die sich bei so etwas dann wirklich stellt: Was soll das? (Der Rauchmelder versucht, aufgrund des Autoren-Schnaubens Qualm zu detektieren, die Dunstabzugshaube schaltet auf Höchstleistung).

Und so müssen sich die Nutzer weiterhin die Frage stellen: Über welche Bridge spricht welches Gerät mit welchem anderen? Wie kann ich die Glühbirne und den Wäschetrockner mit dem Stromspeicher und dem Bewegungssensor koordinieren lassen? Wie den Heizthermostat mit dem Fenstersensor? Was für den einen oder anderen heise-Leser, DIY-Freund, Kommandozeilenelektriker und selbstbewussten Maker primär eine sportliche Herausforderung sein mag, ist für die Nutzbarkeit durch breite Massen eine absolute Katastrophe.

Es ist daher höchste Zeit, dass Politik das tut, wofür sie nur selten geliebt wird: klare Regeln vorschreiben. Hier wäre das im Sinne aller Verbraucher. Denn so wie die EU nach Jahren mit den Vorgaben für USB-C-Anschlüsse das Steckerchaos und die Sonderwege zugunsten der Verbraucher beendet hat, ohne dass seitdem die Welt untergegangen ist, so wie die EU mit den Roamingvorschriften das Chaos für Reisende in Europa abgeschafft hat, wäre es jetzt an der Zeit, den Herstellern per Gesetz vorzuschreiben: Wenn ihr ein Gerät als Smart benennen wollt, dann müsst ihr dafür bestimmte Standards erfüllen.

Das kann auch ein Verweis auf technische Normen sein, welche die Branche selbst weiterentwickeln kann. Dann können Verbraucher sich darauf verlassen, dass „Smart“ nicht „Insellösung eines Herstellers der auf keinen Fall interoperabel sein will“ heißt. Und ganz nebenbei noch ein paar Vorgaben zum Thema Cloud-Unabhängigkeit mit auf den Weg geben. Wer Geräte als „Smart“ labeln will, sollte Mindeststandards bei Bedienbarkeit und Interoperabilität wahren müssen. Was spräche etwa gegen die Verpflichtung, die Konfiguration über eine lokal per Browser erreichbare Oberfläche verpflichtend zu machen? Und nicht nur über eine proprietäre App, die vielleicht noch einen Account beim Hersteller voraussetzt?

Der bisherige Wildwuchs, dass alles sich Smart nennt und in Wahrheit kaum etwas miteinander kompatibel ist, führt nur zu zwei Dingen: Frust und jeder Menge vermeidbarem Elektroschrott. Schluss damit! Dann hellt sich die Lichtstimmung in der Verbraucher-Smart-Welt auch wieder auf.


Ein Kommentar von Falk Steiner

Ein Kommentar von Falk Steiner

Falk Steiner ist Journalist in Berlin. Er ist als Autor für heise online, Tageszeitungen, Fachnewsletter sowie Magazine tätig und berichtet unter anderem über die Digitalpolitik im Bund und der EU.


(nen)



Source link

Weiterlesen

Beliebt