Connect with us

Künstliche Intelligenz

Polizeiliche Datenanalyse: Kommt Palantir bald für uns alle?


Der Einsatz von Palantir als polizeiliche Analysesoftware ist stark umstritten, dennoch drängen verschiedene Bundesländer auf die Einführung der Software in ganz Deutschland. Hessen und Bayern gelten als Vorreiter, in NRW ist sie ebenfalls im Einsatz und das Innenministerium in Baden-Württemberg hat kürzlich erst einen Vertrag mit Palantir geschlossen, obwohl es die gesetzliche Grundlage bislang nicht gibt, wie verschiedene Medien berichten. Datenschützer sehen das höchst kritisch und warnen davor, dass neben Verdächtigen zu viele unschuldige Menschen überwacht werden.

Eine Alternative ist bislang nicht in Sicht, jedoch arbeitet das Bundesinnenministerium daran: „Aktuell wird im Programm P20 ein beschleunigtes Vorgehen für die Implementierung der Analysekompetenz im Programm geprüft. Die Prüfung dauert an. (Zwischen-)Ergebnisse können wir Ihnen momentan nicht mitteilen“, heißt es dazu von einem Sprecher des Bundesinnenministeriums auf Anfrage von heise online.

Das Bayerische Innenministerium betont unterdessen, dass die Sicherheit der Plattform VeRA höchste Priorität habe. „Das VeRA-System verfügt über keine Internetverbindung“, heißt es – ein Zugriff von außen sei damit „weder physisch noch technisch“ möglich. Zudem sei der Quellcode der Palantir-Software vom Fraunhofer SIT geprüft worden. Eine „Backdoor“-Funktionalität habe dabei ausgeschlossen werden können. Allerdings hatte das SIT eine inzwischen geschlossene Sicherheitslücke im Update-Prozess gefunden. Fragen dazu, wie die Lücke gefunden wurde, beantwortet das SIT jedoch auch auf Anfrage von heise online nicht.

Auch wenn eine unabhängige wissenschaftliche Evaluation bislang nicht vorgesehen ist, verweist das Bayerische Innenministerium auf Erfolge in der Praxis, etwa beim Anschlag am Münchner Karolinenplatz. Das Hessische Innenministerium hat sich gegenüber heise online noch nicht geäußert.


Jonas Botta

Jonas Botta

Der Rechtswissenschaftler Dr. Jonas Botta widmet sich in seiner Arbeit am Deutschen Forschungsinstitut für öffentliche Verwaltung vornehmlich Fragen des Verfassungs- und Digitalrechts.

(Bild: Botta)

Wir haben mit Dr. Jonas Botta über die Rechtslage und mögliche Gefahren rund um den Einsatz von Palantir gesprochen. Er wurde im April 2025 als Sachverständiger zur aktuellen Polizeirechtsreform in Sachsen-Anhalt angehört, die auch eine Rechtsgrundlage für die polizeiliche Datenanalyse vorsieht.

In mehreren Bundesländern wird derzeit darüber diskutiert, die Datenanalyse-Software „Gotham“ des US-Unternehmens Palantir in der Polizeiarbeit einzusetzen. Was sind aus Ihrer Sicht die größten Kritikpunkte an diesem Vorhaben?

Es gibt zwei zentrale Problembereiche. Erstens die Frage, ob die Rechtsgrundlagen für eine solche polizeiliche Datenanalyse überhaupt verfassungsgemäß sind. Denn selbst ohne Palantir ist es schon ein erheblicher Grundrechtseingriff, wenn Daten aus verschiedenen Quellen zusammengeführt werden. Dabei entsteht ein neuer Eingriff in die informationelle Selbstbestimmung – einfach durch die Verknüpfung.

Die Frage ist: Wie leicht oder schwer ist es für die Polizei, eine solche Analyse durchzuführen? Zum Beispiel in Sachsen-Anhalt, wo derzeit über eine Rechtsgrundlage für die polizeiliche Datenanalyse beraten wird, ist die Schwelle dafür aus meiner Sicht viel zu niedrig angesetzt. Zweitens geht es um die technische Umsetzung: Lässt es sich mit Datenschutz und digitaler Souveränität vereinbaren, im öffentlichen Sicherheitssektor auf die Software „Gotham“ von Palantir zu setzen? Meines Erachtens „nein“.

Das Bundesverfassungsgericht hat sich ja 2023 dazu geäußert…

Das Gericht hat klargestellt: Eine Datenanalyse durch die Polizei ist nicht per se verboten – aber es gelten hohe Anforderungen. Die Schwelle für den Einsatz liegt bei einer geheimen Überwachungsmaßnahme. Das heißt: Es muss für ein besonders gewichtiges Rechtsgut – wie den Schutz des Lebens – eine zumindest hinreichend konkretisierte Gefahr bestehen. Diese Hürde wird in aktuellen Polizeigesetzen bzw. Gesetzentwürfen nicht ausreichend berücksichtigt.

Gibt es denn Beispiele, bei denen die Software bisher erfolgreich war?

Das ist genau der Punkt: Es gibt keine belastbare wissenschaftliche Evaluation. In Hessen wird immer wieder darauf verwiesen, dass man 2018 mit der Software einen terroristischen Anschlag verhindert habe. Laut Recherchen von NDR, WDR und Süddeutscher Zeitung geht es in der Praxis zum Beispiel in Bayern häufiger um Delikte gegen Eigentums- und Vermögenswerte wie Bandenhehlerei, nicht um Terrorismus.

Welche Rolle spielt dabei die Kontrolle durch Datenschutzbehörden?

Eine sehr zentrale. Das Bundesverfassungsgericht verlangt mindestens alle zwei Jahre eine unabhängige Kontrolle durch die externen Aufsichtsbehörden und auch die internen Datenschutzbeauftragten sind in die Pflicht zu nehmen, etwa um Stichproben durchzuführen. In Sachsen-Anhalt fehlt ein solches Kontrollkonzept bislang völlig. Das ist für mich unverständlich und verfassungsrechtlich bedenklich.

Und wie sieht es mit der konkreten Nutzung von Palantir aus – gibt es da keine staatliche Kontrolle?

Der Staat müsste in der Lage sein, das System technisch und inhaltlich zu durchdringen – auch wenn Geschäftsgeheimnisse betroffen sind. Nur so kann er überwachen, ob die Grundrechte eingehalten werden. Aber genau das ist bei Palantir problematisch. Palantir schickt laut Medienberichten sogar eigene Mitarbeiter in die Behörden, um die Software zu betreuen. Das unterläuft die staatliche Souveränität.

Wird es denn auf Bundesebene bald eine einheitliche Regelung geben?

Ich halte es für sehr wahrscheinlich, dass auch auf Bundesebene eine Polizeirechtsreform ansteht, vielleicht schon nach der parlamentarischen Sommerpause. Nach der Schaffung einer gesetzlichen Grundlage für die Datenanalyse wäre dann der Einsatz von „Gotham“ wahrscheinlich. Aber schon der Ampel-Entwurf für eine Polizeirechtsreform aus dem letzten Jahr war in Teilen verfassungswidrig, insbesondere weil eine dauerhafte Datenzusammenführung geplant war – ohne eigene Ermächtigungsgrundlage.

Die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider hatte von einer Superdatenbank gesprochen, was ist damit gemeint?

Es geht um die dauerhafte Zusammenführung wesentlicher Inhalte polizeilicher Datenbanken – also nicht nur anlassbezogen zur Analyse. Das ist ein besonders schwerwiegender Eingriff und müsste gesetzlich gesondert geregelt sein. Doch in bisherigen Entwürfen wurde diese Superdatenbank einfach „hineingemogelt“ ohne klare Verankerung im Normtext. Das ist grundrechtswidrig.

Würden Sie denn eine temporäre, anlassbezogene Datenanalyse für vertretbar halten?

Ja, wenn sie klar gesetzlich geregelt und gut kontrolliert ist. Aber es müssten hohe Hürden für die Analyse gelten. Eine flächendeckende Verknüpfung unterschiedlichster Daten – etwa zu Personengruppen, Delikten oder Gefährdungsstufen – ist nur in absoluten Ausnahmefällen gerechtfertigt.

Welche Rolle spielt die EU-KI-Verordnung in diesem Zusammenhang?

Die KI-Verordnung ist primär Produktsicherheitsrecht und richtet sich an Anbieter von KI-Systemen. Aber auch Behörden, die solche Systeme betreiben oder verändern, unterliegen bestimmten Pflichten – etwa zur Durchführung von Grundrechts-Folgenabschätzungen oder zur Registrierung in einer europäischen Datenbank. Diese Strukturen sind aber noch nicht vorhanden. Auch wer die Aufsicht führen soll, ist in Deutschland noch unklar.

Was ist mit der Frage nach Datensouveränität und dem Zugriff aus dem Ausland?

Das ist ein weiterer kritischer Punkt. Bei US-amerikanischen Anbietern besteht immer das Risiko, dass US-Behörden auf die Daten zugreifen könnten – etwa über den Cloud Act. Das gefährdet die digitale Souveränität und das Vertrauen der Bürger in den deutschen Staat und seine Institutionen. Deshalb wäre es aus meiner Sicht ein Gewinn, wenn man sich aus der faktischen Monopolstellung von Palantir befreite.

Was sollte man jetzt tun?

Erstens: Die digitalen Befugnisse der Polizeibehörden auf solide, verfassungskonforme Füße stellen. Zweitens: Eine echte wissenschaftliche Evaluation durchführen – was bringt die Software wirklich? Drittens: Unabhängige, kontrollierbare Alternativen entwickeln, idealerweise staatlich oder zumindest in Europa. Es geht nicht darum, Digitalisierung zu verhindern – sondern sie grundrechtskonform und souverän zu gestalten.


(mack)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Bericht: Entlassungen bei „Oblivion Remastered“-Studio Virtuos


Beim Studio hinter „Oblivion Remastered“ verlieren offenbar Entwickler ihren Job: Das berichtet der französische Journalist Gauthier Andres auf Bluesky. Virtuos-Angestellte in Frankreich haben mit Bethesda an dem Remaster von „The Elder Scrolls 4“ Oblivion gearbeitet, das im April überraschend veröffentlicht wurde.

Verglichen mit den großen Entlassungswellen, die kürzlich etwa bei Xbox-Studios wüteten, lesen sich die Zahlen bei Virtuos eher moderat: Andres berichtet von insgesamt 300 Entlassungen, was rund 7 Prozent der Belegschaft entsprechen soll. Der Löwenanteil der gestrichenen Stellen soll die Virtuos-Studios in China betreffen, aber auch europäische Studios, darunter drei Niederlassungen in Frankreich, sollen betroffen sein.

Virtuos ist als Studio vor allem für Dienstleistungen bekannt – das Team greift anderen Studios unter die Arme. Die Entwicklung von „Oblivion Remastered“ mit Bethesda gehört zu den bekanntesten Projekten des Teams, das auch für CD Projekt Red einige „Cyberpunk 2077“-Patches entwickelt hat. Auch an Patch 2.3 für „Cyberpunk 2077“, der am Freitag erscheinen soll, war Virtuos beteiligt.

Zudem unterstützt Virtuos Konami bei der Entwicklung des kommenden Action-Spiels „Metal Gear Solid Snake Eater“. Auf der Webseite von Virtuos finden sich zahlreiche weitere Projekte, an denen das Team mitgearbeitet hat – von „League of Legends“ bis „Dave the Diver“. Laut Gauthier Andres sollen die Stellenstreichungen die Wettbewerbsfähigkeit von Virtuos stärken.

In der Spielebranche wurden weltweit in den vergangenen Jahren zehntausende Stellen gestrichen. Zuletzt traf es erneut Microsofts Xbox-Studios hart: Das Studio The Initiative in Santa Monica wurde komplett geschlossen, das Rennspiel-Studio Turn10 entkernt. Auch bei Rare, Undead Labs und King hat Microsoft Stellen gestrichen.


(dahe)



Source link

Weiterlesen

Künstliche Intelligenz

DJI-Alternative: Kameradrohne Potensic Atom 2 im Test


Das chinesische Unternehmen Potensic bietet eine Reihe von Mini-Quadrokoptern an, die den Drohnen von DJI im Aussehen und zumindest auf dem Papier auch im Leistungsumfang stark ähneln, im Vergleich aber oftmals günstiger sind. Wir haben uns das aktuelle Topmodell Atom 2 angeschaut, das mit Controller und einem Akku für rund 265 Euro zu bekommen ist. Die meisten dürften jedoch gleich zu der von uns getesteten Fly More Combo greifen, die für rund hundert Euro mehr noch zwei zusätzliche Akkus samt Ladegerät und eine Tasche enthält.

Für Potensics Atom 2 gibt es kein hundertprozentiges Gegenstück im DJI-Sortiment. Am ehesten liegt sie zwischen der DJI 4K (alias DJI Mini 2 SE) und DJI Mini 3 (Test). Die Straßenpreise der DJI 4K bewegten sich im Testzeitraum etwa auf dem Niveau der Potensic-Drohne, die DJI Mini 3 kostete einzeln im Schnitt 65 Euro mehr als die Atom 2 im Standard-Paket.

Die Atom 2 wiegt wie ihre DJI-Konkurrenz weniger als 249 Gramm, weshalb man sie ohne Führerschein fliegen darf, nur eine Versicherung benötigt und sich – wegen der eingebauten Kamera – beim Luftfahrtbundesamt registrieren muss (siehe Ratgeber zu Mini-Drohnen). Als C0-Drohnen gilt für sie eine maximale Flughöhe von 120 Metern.


Das war die Leseprobe unseres heise-Plus-Artikels „DJI-Alternative: Kameradrohne Potensic Atom 2 im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Fünf Stufen der KI-Nutzung: Wie KI unsere Softwareentwicklung verändert


Künstliche Intelligenz ist momentan das Thema schlechthin in der Softwareentwicklung. Nahezu überall wird darüber gesprochen oder geschrieben, sei es auf LinkedIn, in Podcasts, auf Konferenzen oder in Fachartikeln. In der vergangenen Woche bin ich auf einen Artikel bei heise Developer gestoßen, der dieses Thema in einer interessanten Weise aufbereitet hat: „KI Navigator #11: Fünf Stufen der KI-Nutzung in der Softwareentwicklung“ von Bastian Weinlich und Semjon Mössinger. In diesem Artikel haben die beiden ein Modell vorgestellt, das beschreibt, wie Entwicklerinnen und Entwickler KI jeweils einsetzen.


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Ich habe mir gedacht, dass wir uns diese fünf Stufen heute einmal etwas genauer ansehen. Zudem möchte ich erläutern, wie ich diese Stufen selbst erlebt habe und wo ich Chancen sowie Risiken sehe.

Beginnen wir ganz vorne: Die erste Stufe ist eigentlich wenig spektakulär. Sie beschreibt schlicht den Fall, dass Sie in der Softwareentwicklung keine Künstliche Intelligenz einsetzen. Also im Prinzip genau das, was bis vor wenigen Jahren für alle völlig normal war. Oder anders gesagt: Sie entwickeln Software so, wie es bislang üblich war – Editor oder IDE öffnen, selbst nachdenken, selbst Code schreiben, selbst testen und so weiter. Es beschreibt die Zeit, in der Softwareentwicklung im Wesentlichen noch Handarbeit war.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Die fünf Stufen der KI-Nutzung in der Softwareentwicklung // deutsch

Natürlich war man dabei nicht völlig auf sich allein gestellt. Man hat Dokumentationen gelesen, Suchmaschinen genutzt und war vor allem auf Stack Overflow unterwegs. Stack Overflow war über lange Zeit hinweg die Plattform schlechthin, um Antworten auf Fragen zu finden. Mittlerweile hat die Bedeutung der Plattform jedoch deutlich abgenommen, nicht zuletzt aufgrund der Entwicklungen rund um KI. Tatsächlich haben wir bereits vor über zwei Jahren ein Video mit dem Titel „StackOverflow ist tot, es lebe ChatGPT!?“ veröffentlicht.

Ich selbst habe Stack Overflow über viele Jahre hinweg sehr intensiv genutzt. Allerdings weniger, um Fragen zu stellen, sondern vor allem, um Fragen anderer zu beantworten. Das war für mich oft ein Anreiz, mich mit einem Thema tiefer zu beschäftigen. Durch das Beantworten habe ich zudem selbst sehr viel gelernt. Man muss die Fragen anderer zunächst wirklich verstehen und die Antwort dann nicht nur kennen oder herausfinden, sondern sie auch strukturiert und nachvollziehbar erklären können. Genau das lernt man dabei sehr gut.

Auf diese Weise war ich über viele Jahre hinweg in den Top 0,5 Prozent der Nutzerinnen und Nutzer dort gerankt. Nicht, weil ich das bewusst angestrebt hätte, sondern weil sich das durch die intensive Nutzung im Laufe der Zeit so ergeben hat. Mein letzter Beitrag dort stammt allerdings von März 2023. Trotzdem war ich vergangene Woche immer noch auf Platz 274 in deren Ranking – was eine gewisse Ironie hat.

Nun wird diese „gute alte Zeit“ gerne etwas verklärt. Natürlich gab es damals vieles, das positiv war: Man hat sehr viel selbst erarbeitet (weil man es musste) und dadurch oft erst wirklich verstanden, was man gemacht hat. Man hat seine Grundlagen geschärft, sich mit Algorithmen, Design-Patterns, Architektur und vielem mehr beschäftigt. Dieses Wissen musste man sich aktiv aneignen. Allerdings wird dabei oft vergessen, dass es auch damals schon viele Entwicklerinnen und Entwickler gab, die Code einfach blind von Stack Overflow kopiert und so lange angepasst haben, bis er irgendwie funktionierte – mit Betonung auf „irgendwie“. Ohne zu verstehen, was sie da eigentlich machten oder warum das funktionierte.

Im Kern ist das genau dasselbe Muster, das heute vielen Entwicklerinnen und Entwicklern vorgeworfen wird, die KI verwenden: Damals dauerte es nur länger und war mühsamer. Wer nicht verstehen wollte, konnte auch damals drumherum kommen. Und die Ergebnisse waren entsprechend genauso wackelig, wie sie es heute oft sind, wenn ohne Verständnis gearbeitet wird.

Damit kommen wir zur zweiten Stufe, dem Research-User. Das ist bei vielen der erste Kontaktpunkt mit KI, indem sie beispielsweise ChatGPT für Recherchen verwenden. Das bedeutet, man fragt nach einem kleinen Codebeispiel, lässt sich eine Library erklären, erkundigt sich nach einem HTTP-Status-Code, einem JSON-Struct oder Ähnlichem. Also im Wesentlichen all das, wofür man früher Google oder eben Stack Overflow genutzt hat.

Ich erinnere mich noch gut daran, dass ich, als ich ChatGPT das erste Mal geöffnet habe, überhaupt nicht wusste, wie ich damit umgehen sollte – was ich dort überhaupt eingeben sollte. Ich stand wie der sprichwörtliche Ochse vor dem Berg. Von Google war ich gewohnt, ein paar Schlagwörter einzugeben, und die Suchmaschine erledigte den Rest. Hier war jedoch gefordert, einen vollständigen Text einzugeben. KI-Systeme funktionieren an dieser Stelle ein wenig anders. Das merkt man sehr schnell: Es ist enorm wichtig, ausreichend Kontext mitzugeben, Rahmenbedingungen zu formulieren, präzise zu sein, gegebenenfalls iterativ nachzusteuern oder im Zweifel sogar eine neue Session zu starten. Dieses ganze Thema des Prompt-Engineerings, das inzwischen in das umfassendere Context-Engineering übergeht, habe ich mir dann im Laufe der Zeit selbst beigebracht. Einfach, indem ich gelernt habe, was für mich gut funktioniert und was weniger. So wird man nach und nach besser.

Was mir dabei sicher geholfen hat, ist, dass ich schon seit vielen Jahren intensiv mit Sprache arbeite. Nicht nur auf YouTube, sondern auch durch hunderte, wenn nicht inzwischen tausende Fachartikel für Zeitschriften und Plattformen wie die iX, die dotnetpro, heise Developer und viele andere. Dazu kommt die intensive Beschäftigung mit Domain-Driven Design, Event-Sourcing und den Themen, die damit verbunden sind. All das hat mir geholfen, ein gutes Gespür dafür zu entwickeln, wie man mit einer KI am besten kommuniziert, damit sinnvolle Ergebnisse entstehen.

KIs machen das Ganze natürlich zunächst extrem komfortabel: Ich erhalte heute auf eine Frage, für die ich früher zehn Tabs bei Stack Overflow gebraucht hätte, innerhalb von Sekunden eine Antwort. Aber auch hier gilt im Grunde dasselbe wie damals: Wer will, kann sich die Antworten irgendwie zusammenbauen und hat dann zwar oberflächlich eine Lösung, aber kein wirkliches Verständnis erlangt und dabei auch nichts gelernt. Das war früher so und ist heute nicht anders.

Die dritte Stufe beschreibt das, was für die meisten Entwicklerinnen und Entwickler heute vermutlich Alltag ist: die Arbeit mit Unterstützung durch einen in den Editor oder die IDE integrierten KI-basierten Code-Assistenten wie zum Beispiel Copilot in Visual Studio Code. Für mich persönlich war und ist das jedoch immer noch klar getrennt von Tools wie ChatGPT. ChatGPT ist für mich eher wie eine virtuelle Kollegin, mit der ich über Ideen, Architektur, Konzepte, Patterns und Lösungsansätze diskutiere. Copilot empfinde ich hingegen als eine Art sehr intelligente Autovervollständigung. Copilot nimmt mir viel Schreibarbeit ab, indem es repetitiven Code ergänzt, fehlende Tests erzeugt, Boilerplate erstellt und so weiter. Das sind alles Dinge, die ich problemlos auch selbst hätte schreiben können. Ich hätte nur länger gebraucht. Insofern beschleunigt Copilot meine Arbeit, weil ich schneller durch die eher monotonen Teile des Codes komme. Die Verantwortung für den Code bleibt aber bei mir.

Das ist für mich ein wesentlicher Punkt. Für mich gilt immer: Ich übernehme keinen Code, den ich nicht auch selbst hätte schreiben können. Copilot ist für mich klar ein Werkzeug, das mir das Tippen abnimmt, nicht das Denken. Ich weiß, dass viele Entwicklerinnen und Entwickler das anders sehen, sich darüber freuen, dass Copilot das „irgendwie macht“ und die Vorschläge oft unkritisch übernehmen, ohne sie zu hinterfragen. Das halte ich für äußerst gefährlich, weil man dadurch letztlich die Verantwortung abgibt, die man aber trotzdem selbst tragen muss. Genau das war auch der Grund, warum ich Copilot vielen anderen KI-Werkzeugen vorgezogen habe, die zwischenzeitlich stark gehypt wurden, dabei aber suggerierten, man müsse selbst gar nicht mehr verstehen, was passiert. Dass das eine eher schlechte Idee ist, dazu haben wir vor einigen Wochen ein Video veröffentlicht.

Die vierte Stufe beschreibt, was der eingangs erwähnte Artikel als „Chat First Coder“ bezeichnet. Hier verschiebt sich der Schwerpunkt noch stärker in Richtung KI: Man nutzt ChatGPT oder andere Tools nicht mehr nur, um einzelne Fragen zu klären, sondern entwickelt ganze Features oder Module damit. Auch ich habe irgendwann begonnen, Code direkt in ChatGPT zu entwickeln und mit der KI über den Code zu diskutieren, Rückfragen zu stellen, Bewertungen und Einschätzungen einzuholen. Dadurch wurde ChatGPT für mich noch mehr zu einem Sparringspartner. Ich diskutiere mit der KI, erhalte Ideen, lasse mir Alternativen vorschlagen und entscheide dann, was sinnvoll ist.

Allerdings gibt es hier klare Grenzen. ChatGPT kennt immer nur das, was explizit vorgegeben wird: Sie können eine Datei hineinkopieren, vielleicht auch zwei oder drei, aber ChatGPT hat keinen Überblick über das gesamte Projekt, über Ihre Imports, Build-Skripte, die Umgebung, Tests, Branches und so weiter – all das, was am Ende dazugehört. Natürlich könnte man das theoretisch alles manuell mitgeben, aber das ist aufwendig und nicht wirklich praktikabel. Genau hier liegt der große Vorteil von Copilot und ähnlichen Tools, weil sie direkt in der IDE arbeiten und den Kontext kennen.

Eine Möglichkeit ist Copilot Chat, das hat mich bislang allerdings wenig überzeugt. Meist war es ernüchternd und nicht besonders hilfreich. Für mich ist das bisher nicht auf einem Niveau, das wirklich weiterhilft. Was ich mir langfristig wünschen würde – und was vermutlich über kurz oder lang kommen wird –, ist ein Chat-Interface, das gleichzeitig vollen Zugriff auf meine Projekte über alle Repositories hinweg hat und darauf basierend präzise und passgenaue Antworten liefert.

Tatsächlich gehen die aktuellen Entwicklungen genau in diese Richtung. GitHub hat kürzlich vorgestellt, dass man Issues direkt einem KI-gestützten Assistenten zuweisen kann, der übrigens ebenfalls „Copilot“ heißt. Diese Issues werden dann von einer KI komplett autonom bearbeitet, und das Ergebnis wird später als Pull-Request bereitgestellt. Diese Funktion halte ich meiner bisherigen Erfahrung nach für sehr gelungen. Sie ist zwar noch nicht direkt in die IDE integriert, aber das dürfte nur eine Frage der Zeit sein und zeigt bereits gut, wohin die Reise aktuell geht. Wenn das dann einmal direkt in den IDEs verfügbar ist, dürfte das ein echter Meilenstein sein.

Die fünfte Stufe schließlich ist das, was häufig als „Vibe-Coding“ bezeichnet wird. Das bedeutet, dass Sie der KI in einem Prompt nur noch aus inhaltlicher Sicht beschreiben, was Sie haben möchten, und der Code, der dabei entsteht, ist Ihnen völlig egal. Es zählt nur, ob das Ergebnis funktioniert und die Anforderung erfüllt ist oder nicht. Das klingt für viele äußerst reizvoll, weil man damit vermeintlich alles abgeben und nur noch das fertige Ergebnis erhalten kann. Ich persönlich glaube daran allerdings nicht und halte das vor allem für keine besonders gute Idee. KI ist am Ende immer nur ein Werkzeug. Und jedes Werkzeug, das man einsetzt, sollte man – meiner Meinung nach – verstehen: Wie funktioniert es? Warum funktioniert es? Wofür ist es geeignet und wofür nicht?

All diese Fragen sind wichtig, denn es gibt in der Regel nicht nur einen Weg, um zu einem Ergebnis zu gelangen, sondern viele. Diese unterscheiden sich oft in vielerlei Hinsicht. Da kann man nicht einfach pauschal sagen, dass der eine Weg besser oder schlechter sei. Es sind häufig Abwägungen und Kompromisse, die stark vom eigenen Wertesystem und den konkreten Anforderungen abhängen. Das betrifft unter anderem Themen wie Sicherheit, Performance, Wartbarkeit, Testbarkeit und vieles mehr. Gerade weil das alles Querschnittsbelange sind, werden sie bei vollständig automatisch generiertem Code oft übersehen oder geraten gerne in den Hintergrund.

Ich glaube, dass genau das auch erklärt, warum insbesondere Personen, die selbst nicht oder nicht sehr gut programmieren können, davon so begeistert sind. Sie erkennen gar nicht, wo die Schwächen und Mängel liegen – wie auch, wenn sie nie gelernt haben, so etwas professionell zu beurteilen? Ich kann zumindest aus meiner Erfahrung sagen, dass ich bislang niemanden auf Senior-Niveau getroffen habe, die oder der gesagt hätte:

„Das halte ich für eine wirklich gute Idee.“

Natürlich kann es sein, dass die Zeit für dieses Vorgehen einfach noch nicht reif ist. Vielleicht wird das irgendwann kommen. Im Moment bin ich da jedoch eher skeptisch. Mir ist das alles noch viel zu leichtfertig.

Was bedeutet das nun abschließend? Ich finde, es zeigt zunächst: KI ist ein enorm mächtiges Werkzeug, das die Art und Weise, wie wir Software entwickeln, in kürzester Zeit sehr grundlegend verändert hat. Wir können davon ausgehen, dass das auch noch eine ganze Weile so weitergehen wird. KI ist aber eben auch „nur“ ein Werkzeug. Jedes Werkzeug sollte man verstehen – nicht nur das Ergebnis, sondern auch den Weg dorthin. Denn das Ergebnis ist nicht alles. Es macht einen Unterschied, wie man zu diesem Ergebnis gelangt ist. Letztlich gilt immer noch: Sie selbst sind verantwortlich für den Code, den Sie entwickeln. Keine KI der Welt wird Ihnen diese Verantwortung abnehmen. Deshalb ist es heute wichtiger denn je, fundiertes Wissen aufzubauen, sich weiterzubilden und eigene Erfahrungen zu sammeln, um KI-generierte Ergebnisse überhaupt beurteilen zu können. Wer das nicht tut, wird es in Zukunft sehr schwer haben.


(rme)



Source link

Weiterlesen

Beliebt