Künstliche Intelligenz
Bundeskriminalamt: Mehr Löschbedarf bei strafrechtlichen Inhalten
245 Mal hat das Bundeskriminalamt (BKA) im vergangenen Jahr sogenannte Entfernungsanordnungen nach der Terrorist-Content-Online-Verordnung (TCO-VO) der EU erlassen, etwa die Hälfte des 2024er-Wertes. Nur 0,8 Prozent der Anordnungen wurden dabei nicht von den Anbietern umgesetzt. 203 der 245 Entfernungsanordnungen gingen dabei an nichtdeutsche Hostingdienstleister. Das geht aus dem heute veröffentlichten Transparenzbericht für das Jahr 2025 zur Durchsetzung der TCO-Verordnung hervor. Die TCO-Verordnung gilt als eines der schärfsten Schwerter, selbst Telegram folgt laut BKA den Entfernungsanforderungen.
Weiterlesen nach der Anzeige
Widerspruch nicht zwecklos
Gegen sechs Anordnungen wurde beim BKA Widerspruch eingereicht – der in allen sechs Fällen auch erfolgreich war. Das Terroristische-Online-Inhalte-Bekämpfungs-Gesetz (TOIBG) weist die Zuständigkeit für das Vorgehen gegen terroristische Inhalte dem BKA zu. Nach Erhalt einer formellen Entfernungsanordnung müssen die Hostinganbieter rund um die Uhr binnen einer Stunde die beanstandeten Inhalte unerreichbar stellen.
Aus dem europäischen Ausland wurden 28 Entfernungsanordnungen über das BKA an deutsche Hostingdienstleister weitergeleitet – dabei richteten sich 24 davon gegen einen einzigen Anbieter. Gegen diesen hatte die für die Einhaltung der allgemeinen TCO-Regeln durch Anbieter zuständige Bundesnetzagentur nach eigener Darstellung bereits zuvor ein Bußgeldverfahren eingeleitet, weil dieser nur unzureichende Maßnahmen gegen terroristische Inhalte in seinem Zuständigkeitsbereich vorgenommen haben soll.
Anbieter haben keine Prüfbefugnis
Anders als nach dem bekannteren Digital Services Act (DSA) ist mit der TCO-Verordnung unmittelbar die Entfernung von Inhalten geregelt, nicht die Prüfung durch Anbieter auf mögliche Rechtswidrigkeit. Sie können allerdings ausländische Anordnungen durch das BKA nachlaufend prüfen lassen und gegebenenfalls vor Gericht gehen. Andersherum müssen Hostingdienste wie etwa Social-Media-Plattformen jedoch die zuständigen Behörden in ihrem Mitgliedsstaat informieren, wenn sie etwa über Nutzermeldungen auf Inhalte aufmerksam werden, die unter die TCO-Verordnung fallen. So kann aus einer DSA-Meldung ein TCO-Vorgang werden.
Nicht in der TCO-Verordnung angelegt und auch im TOIBG nicht weiter spezifiziert ist dabei eine andere BKA-Vorgehensweise: Die Bundesnetzagentur weist aus, dass das BKA 2025 insgesamt 29.792 Mal unverbindlich an Hostingdienste sogenannte Löschersuche geschickt hat. Diese können auch terroristische, in jedem Fall aber aus BKA-Sicht strafrechtlich relevante Inhalte meinen. Bei diesem Weg steigt die Zahl seit Jahren steil an: Die sogenannten „Referrals“ vom BKA lagen 2023 noch bei 7240, 2024 waren es schon 17.045. Den nachdrücklichen Bitten aus Wiesbaden wurde 2025 in gut neun von zehn Fällen durch die Anbieter entsprochen.
Weiterlesen nach der Anzeige
(dahe)
Künstliche Intelligenz
Sony-Tempo, Canon ohne Sucher, Nikon rot – die Fotonews der Woche 20/2026
Wenn man meint, die Kamerahersteller hätten alle Register gezogen, legen sie noch eine Schippe drauf. Sony präsentiert mit der Alpha 7R VI eine Kamera, die endlich das schafft, was viele für unmöglich hielten: 67 Megapixel bei 30 Bildern pro Sekunde. Das ist, als würde man einen Elefanten zum Sprinten bringen – technisch beeindruckend, aber man fragt sich: Wer braucht das eigentlich? Vermutlich Sportfotografen, die ihre Motive nicht nur einfangen, sondern in forensischer Detailtiefe sezieren wollen.
Weiterlesen nach der Anzeige
(Bild: heise )
Sonys Sensor-Wunder mit Tempo
Die Alpha 7R VI vereint erstmals Auflösung und Geschwindigkeit. Mit einem rückseitig belichteten, vollständig gestapelten Sensor werden 66,8 Megapixel etwa 5,6-mal schneller ausgelesen als beim Vorgänger. Das Ergebnis: 30 Bilder pro Sekunde mit elektronischem Verschluss, zehn mit mechanischem – genau wie bei Sonys Flaggschiff Alpha 1 II. Der Dynamikumfang soll 16 Blendenstufen erreichen, die Bildstabilisierung 8,5 Stufen in der Bildmitte.
Auch beim Video legt Sony nach: 8K mit 30p, 4K mit 120p und ein effektives Wärmemanagement, das 120 Minuten ununterbrochene 8K-Aufnahmen ermöglicht. Neu ist zudem ein Dual-Gain-Modus, der Rauschen reduziert, ohne Details in den Schatten zu verlieren – eine Premiere in der Alpha-Serie. Der OLED-Sucher leuchtet dreimal heller als üblich und deckt den DCI-P3-Farbraum ab.
Allerdings hat die Sache einen Haken: Sony wechselt auf den neuen Akku NP-SA100, der nicht mehr zu bisherigen Alpha-7-Modellen kompatibel ist. Wer also eine Sammlung von NP-FZ100-Akkus besitzt, muss neu investieren. Die Alpha 7R VI erscheint im Juni für rund 5100 Euro – und wer sich fragt, ob das nicht langsam zu viel wird: Doch, ist es. Aber Sony weiß, dass es genug Profis gibt, die das Geld ausgeben.
Zeitgleich stellt Sony das FE 100–400 mm F4.5 GM OSS vor, ein Super-Telezoom mit konstanter Lichtstärke und einem Autofokus, der dreimal schneller sein soll als beim Vorgänger. Mit 1840 Gramm ist es ein Leichtgewicht und für ein Tele dieser Klasse durchaus handlich. Der Preis: 5000 Euro. Zusammen mit der Alpha 7R VI ergibt das ein System für über 10.000 Euro – da überlegt man sich zweimal, ob man nicht doch lieber ein gebrauchtes Auto kauft.
Canon setzt auf Lüfter statt Sucher
Weiterlesen nach der Anzeige
Canon geht einen anderen Weg und präsentiert die EOS R6 V, eine Kamera, die sich klar an Videografen richtet. Das V steht für Video, und das merkt man: Statt eines elektronischen Suchers gibt es nur ein Display, dafür aber einen internen Lüfter, der beliebig lange Aufnahmezeiten ermöglicht. 4K mit 60p läuft zwei Stunden durch, 7K Open Gate so lange, wie der Akku hält. Das ist ein echter Vorteil gegenüber der EOS R6 Mark III, die ohne Lüfter nach 33 Minuten schlapp macht.
Die EOS R6 V nutzt den gleichen 32,5-Megapixel-Sensor wie die R6 Mark III und die Cinema-Kamera C50. Sie bietet 7K RAW mit 60p, oversampeltes 4K bis 60p und 4K 120p ohne Crop. Auch der Autofokus ist identisch zur R6 Mark III, was bedeutet: schnell, präzise und mit intelligenter Motiverkennung.
Für Fotografen ist die R6 V weniger interessant, da sie nur einen elektronischen Verschluss besitzt und damit in puncto Dynamikumfang gegenüber der R6 Mark III mit mechanischem Verschluss das Nachsehen hat. Aber für Content Creator, die hauptsächlich Videos drehen, ist sie eine kompakte, flexible Lösung. Der Preis: 2500 Euro, also 400 Euro günstiger als die R6 Mark III. Wer also auf den Sucher verzichten kann, spart Geld und bekommt längere Aufnahmezeiten.
Passend dazu stellt Canon das RF 20–50 mm F4 L IS USM PZ vor, ein Standardzoom mit konstanter Lichtstärke und Motorzoom. Es wiegt nur 420 Gramm, bietet einen Bildstabilisator mit bis zu acht Blendenstufen und kostet 1500 Euro. Im Kit mit der R6 V sind es 3700 Euro – ein faires Angebot für Videografen, die ein kompaktes System suchen.
c’t Fotografie Zoom In abonnieren
Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Nikon schreibt Rekordverluste – aber Kameras laufen gut
Während Sony und Canon neue Geräte vorstellen, kämpft Nikon mit den Zahlen [PDF]. Das Unternehmen hat im Geschäftsjahr 2025/26 einen Rekordverlust von 86 Milliarden Yen (rund 470 Millionen Euro) eingefahren. Das klingt dramatisch, ist aber nur die halbe Wahrheit. Der Großteil der Verluste geht auf eine einmalige Abschreibung von 91,3 Milliarden Yen zurück, die mit der Übernahme von Nikon SLM Solutions zusammenhängt, einem Hersteller für metallischen 3D-Druck. Die Firma läuft nicht so gut wie erhofft, also wurden die Bücher angepasst – kein frisches Geld fließt ab, aber die Zahlen sehen trotzdem furchtbar aus.
Die Imaging-Sparte von Nikon hat ihre Umsatzziele erreicht und liegt nur 1,8 Prozent unter dem Vorjahr. Der operative Gewinn ist zwar um 59,5 Prozent gesunken, aber das liegt vor allem am Verkauf von MRMC, Nikons Roboterkamera-Unternehmen, und an Ausgaben für Forschung und Entwicklung. Die Kameras selbst laufen solide, vor allem die Z5 II, Z50 II und ZR haben sich gut verkauft.
Für das kommende Jahr erwartet Nikon weniger Kamera-, aber stabile Objektivverkäufe. Der Gesamtmarkt soll schrumpfen, was die Sache nicht einfacher macht. In der Vergangenheit hat Nikon jedoch immer wieder gezeigt, dass man sich auch aus schwierigen Situationen herausarbeiten kann. Die Produkte stimmen, die Zahlen müssen folgen.
Shutterstock zahlt 35 Millionen Dollar wegen unfairer Abo-Praktiken
Während die Kamerahersteller mit Technik und Zahlen kämpfen, hat Shutterstock ein anderes Problem: Die US-Handelskommission FTC hat dem Stockfoto-Anbieter vorgeworfen, Kunden mit unfairen Abo-Praktiken abgezockt zu haben. Shutterstock soll wichtige Infos zu automatischen Verlängerungen und Kündigungsgebühren versteckt haben, Kunden ohne ausdrückliche Zustimmung belastet und Kündigungen absichtlich erschwert haben.
Das Unternehmen zahlt nun 35 Millionen Dollar, um die Sache aus der Welt zu schaffen. Das Geld geht direkt an die betroffenen Kunden. Shutterstock muss zudem seine Abo-Praktiken ändern: klare Offenlegung der Bedingungen, ausdrückliche Zustimmung vor Abbuchungen und einfache Kündigungsmöglichkeiten. Gut so, denn versteckte Gebühren und komplizierte Kündigungen sind ein Ärgernis, das niemand braucht.
Rene Matić gewinnt den Deutsche Börse Photography Foundation Prize 2026
In der Kunstwelt hat Rene Matić den Deutsche Börse Photography Foundation Prize 2026 gewonnen. Die Ausstellung „AS OPPOSED TO THE TRUTH“ im CCA Berlin überzeugte die Jury mit ihrer Auseinandersetzung mit Identität, Zugehörigkeit und politischen Zwängen. Matić ist erst 29 Jahre alt und damit eine der jüngsten Preisträgerinnen in der Geschichte des Awards. Der Preis ist mit 30.000 Pfund dotiert, die anderen Nominierten erhalten jeweils 5.000 Pfund.
Die Ausstellung in der Photographers‘ Gallery in London läuft noch bis zum 7. Juni und zeigt, wie vielschichtig Fotografie sein kann – von dokumentarischer Arbeit über experimentelle Konzepte bis zu Installationen mit Sound. Matić selbst sagt, dass es nicht nur um Repräsentation geht, sondern darum, wie wir repräsentiert werden wollen: „Ich will als jemand dargestellt werden, um den man sich kümmert.“
Empfehlung zum Wochenende: Technologie trifft Kreativität
Unsere Empfehlung für einen Long Read zum Wochenende: Die Interviews und Hintergründe zu den nominierten Fotografen des Deutsche Börse Photography Foundation Prize. Die Arbeiten von Jane Evelyn Atwood über Frauengefängnisse, Weronika Gęsickas humorvolle Fake-Enzyklopädie und Amak Mahmoodians Reflexionen über Exil und Erinnerung zeigen, wie vielfältig und relevant Fotografie heute ist. Und wer sich für die technische Seite interessiert, findet in den Datenblättern zur Sony Alpha 7R VI und zur Canon EOS R6 V genug Stoff zum Staunen – oder Kopfschütteln über die Preise.
Lesen Sie auch
(tho)
Künstliche Intelligenz
Kommentar: Die SaaSpocalypse hat begonnen
Als der Hedgefonds TCI jüngst seinen Microsoft-Anteil drastisch zusammenstrich, klang das erst einmal nach einer dieser Meldungen, die im Strom der Finanznachrichten untergehen. Doch diesmal lohnt der zweite Blick. TCI-Gründer Chris Hohn gehörte jahrelang zu den großen Profiteuren des Microsoft-Booms, fast 400 Prozent Kursgewinn seit 2017 sprechen eine deutliche Sprache. Wenn ausgerechnet so ein Investor kalte Füße bekommt, geht es nicht um schwache Quartalszahlen. Dann steht die ökonomische Grundlage der Softwareindustrie zur Debatte.
Weiterlesen nach der Anzeige

Moritz Förster schreibt seit 2012 für die iX und heise online. Er betreut neben dem iX-Channel den Bereich Arbeitsplatz.
Die Sprengkraft der KI-Revolution liegt nicht darin, dass sie eine bestimmte Software ersetzt. Sondern darin, dass sie das Geschäftsmodell dahinter pulverisiert. Willkommen in der SaaSpocalypse.
Das Geschäftsmodell hinter der Lizenzmaschine
Zwei Jahrzehnte lang funktionierte Unternehmenssoftware nach einem stabilen Prinzip. Jede Aufgabe bekam ihre eigene Anwendung: Texte in Word, Tabellen in Excel, Kundendaten in Salesforce, Bildbearbeitung in Photoshop. Unternehmen zahlen Lizenzen pro Nutzer, pro Arbeitsplatz, pro Monat. Je tiefer die Software in die Arbeitsabläufe einsickerte, desto verlässlicher sprudelten Umsatz und Margen. Der Wert lag dabei nie nur im Programmcode, sondern in einer schlichten Tatsache: Menschen mussten ihre Arbeit innerhalb dieser Anwendungen erledigen.
Genau diese Logik bröckelt nun. KI-Assistenten verändern nicht bloß einzelne Funktionen, sondern die Schnittstelle zur Arbeit selbst. Wer heute Copilot, Gemini oder ChatGPT nutzt, klickt sich nicht mehr durch klassische Menüs. Stattdessen formuliert der Nutzer Ziele: „Fasse die wichtigsten Punkte aus diesen Mails zusammen.“ „Bau eine Präsentation aus den Quartalszahlen.“ Die Arbeit wandert Schritt für Schritt vom Menschen zur Maschine. Und je besser diese Systeme werden, desto unwichtiger wird die Anwendung im Hintergrund.
Microsoft sägt am eigenen Ast
Das zeigt sich ausgerechnet bei Microsoft selbst. Seinen Copilot präsentiert der Konzern längst nicht mehr als Zusatzfunktion für Word oder Excel. Das Ziel ist ein Assistent, der quer über alle Anwendungen arbeitet. Der Nutzer redet mit dem Agenten – nicht mehr mit dem Programm. Wird die KI zur Bedienoberfläche der Wissensarbeit, verliert die klassische Anwendung ihre Rolle als zentraler Zugangspunkt. Sie wird zur Infrastruktur.
Weiterlesen nach der Anzeige
Aus Nutzersicht klingt das verlockend. Für die Softwareindustrie ist es eine Bedrohung. Denn Software-as-a-Service-Modelle leben davon, dass jeder Mitarbeiter Zugang zu einzelnen Anwendungen braucht. KI-Agenten lösen diese Kopplung auf. Warum Hunderte Vollzugänge bezahlen, wenn ein paar Agenten einen Großteil der Arbeit erledigen?
Die Börse handelt bereits die nächste Ära
Die Nervosität an den Börsen kommt nicht von ungefähr. Microsoft, Salesforce, Adobe und Oracle verdienen weiterhin Milliarden. Aber die Zweifel wachsen, ob die fetten Margen der SaaS-Ära dauerhaft Bestand haben. Bemerkenswert dabei: Die Disruption entsteht innerhalb der Plattformen selbst. Microsoft demonstriert mit Copilot genau die Entwicklung, die das klassische Softwaremodell untergräbt. Der Konzern treibt die Entkopplung von Nutzer und Anwendung selbst voran.
Börsen handeln spekulative Erwartungen, keine Gegenwart. Für Investoren genügt die Aussicht auf sinkende Preissetzungsmacht, um Bewertungen neu zu sortieren. Die Machtfrage lautet deshalb nicht mehr, wer die beste Software baut. Sondern wer künftig die Bedienoberfläche der Arbeit kontrolliert.
Das erklärt, warum TCIs Teilverkauf mehr ist als ein gewöhnliches Börsensignal. Der Fonds stößt Microsoft-Aktien nicht ab, weil Office schwächelt oder Azure plötzlich Verluste schreibt. TCI reagiert auf eine tiefere Unsicherheit: KI löst eben nicht einfach Programme ab. Sie ersetzt die ökonomische Logik, auf der die Softwareindustrie aufgebaut wurde. Und genau deshalb droht die SaaSpocalypse.
Bei diesem Kommentar handelt es sich um das Editorial der iX 6/2026, die am 22. Mai erscheint.
(fo)
Künstliche Intelligenz
Code lesen statt Code schreiben: Die unterschätzte Senior-Disziplin
Im April 2000 veröffentlichte Stack-Overflow-Gründer Joel Spolsky einen Aufsatz mit dem Titel „Things You Should Never Do, Part I“. Anlass war die Entscheidung von Netscape, den Code des damaligen Browsers von Grund auf neu zu schreiben, statt den vorhandenen weiterzuentwickeln.
Weiterlesen nach der Anzeige

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Spolskys These: Diese Entscheidung sei der schlimmste strategische Fehler, den eine Softwarefirma machen könne. Sie beruhe auf einem fundamentalen Missverständnis darüber, was Programmierarbeit eigentlich ist. Programmiererinnen und Programmierer schrieben lieber neu, weil das Lesen fremden Codes mühsam sei und sich das Schreiben produktiv anfühle. Doch dieser Eindruck täusche. Die Verlockung, neu anzufangen, sei eine der teuersten Versuchungen der Branche.
Über 25 Jahre später hat dieser Text nichts von seiner Aktualität verloren. Im Gegenteil. Mit dem Auftauchen von Large Language Models (LLM) hat sich die Asymmetrie zwischen Schreiben und Lesen so verschoben, dass die Frage akut wird, ob wir die eigentliche Senior-Disziplin der Softwareentwicklung systematisch unterschätzen. Das Tippen ist nicht das, was Teams in den nächsten Jahren ihren Atem rauben wird. Das Lesen ist es. In diesem Beitrag möchte ich zeigen, warum das so ist, woher die Asymmetrie kommt, wie sie sich durch generative KI verschärft und wie aus einer beiläufigen Begleitfähigkeit eine eigenständige Disziplin werden müsste.
Der eigene Code wird nach drei Wochen zu fremdem Code
Beim Schreiben hat man alles gleichzeitig im Kopf: die Anforderung, das Datenmodell, die geplante Architektur, die Stelle, an der man gerade arbeitet, die Annahmen, die man trifft, die Trade-offs, die man eingeht. Diese mentale Gesamtsicht macht das Schreiben schnell. Sie ist gleichzeitig das, was beim Lesen fehlt.
Wer drei Wochen später denselben Code wieder vor sich hat, ohne den Kontext mitzubringen, muss diese Gesamtsicht rekonstruieren. Variablennamen geben Hinweise, Tests sagen mehr, ein Pull-Request-Kommentar liefert im Bestfall den fachlichen Anlass, eine Commit-Message mit Glück die letzte Begründung. Die eigentliche Intention, das gedachte Modell, die verworfenen Alternativen, all das ist verloren. Rekonstruieren kostet Zeit und Konzentration, und beides ist teurer als das Schreiben.
Spolskys Anekdote ist deshalb so anschaulich, weil sie diese Asymmetrie auf Organisationsebene zeigt. Bei Netscape stand man vor einer alten Codebasis, die niemand mehr durchschauen wollte. Die Verlockung lag nahe, das Ganze einfach neu zu schreiben. Das Ergebnis ist bekannt: drei Jahre Stillstand, ein verlorener Browser-Markt, eine Firma im Niedergang. Der vermeintlich einfachere Weg war der teuerste.
Weiterlesen nach der Anzeige
Auf individueller Ebene zeigt sich dasselbe Muster täglich. Es zeigt sich in Stack-Overflow-Antworten, die statt der Frage einen anderen Lösungsansatz vorschlagen. Es zeigt sich in Kolleginnen und Kollegen, die Refactorings vorschlagen, ohne den vorhandenen Code wirklich verstanden zu haben. Es zeigt sich in der eigenen Versuchung, ein Modul lieber zu ersetzen als zu verbessern. Lesen ist und bleibt unbequem.
LLMs kippen die Bilanz endgültig
Ein modernes LLM erzeugt mehrere Hundert Zeilen Code in der Zeit, in der eine Person diese Zeilen einmal überfliegen kann. Generieren ist billig geworden. Token sind billig, Wartezeiten kurz, und das mentale Modell für die Aufgabe ist auf das Formulieren eines Prompts geschrumpft. Der Aufwand auf der Schreibseite ist faktisch zusammengebrochen.
Auf der Leseseite hat sich nichts geändert. Verstehen kostet noch immer das, was es immer gekostet hat: konzentrierte Aufmerksamkeit, Zeit, Geduld. Die menschliche Verarbeitungsgeschwindigkeit für Code liegt grob bei einigen Zeilen pro Minute, je nach Komplexität deutlich darunter. Diese Größenordnung lässt sich nicht durch Werkzeuge beschleunigen, weil sie an der menschlichen Kognition selbst hängt.
Das Resultat ist eine groteske Verschiebung. Wo früher eine Tagesarbeit etwa hundert Zeilen Code produzierte, die ein Reviewer in einer halben Stunde durchgehen konnte, kann heute eine Stunde Promptarbeit Tausende Zeilen erzeugen. Die zu verstehende Menge wächst dramatisch, die Geschwindigkeit des Verstehens bleibt konstant. Was früher ein Engpass beim Schreiben war, wird zum Engpass beim Verstehen.
Diese Verschiebung wird in vielen Diskussionen ignoriert. Man feiert die Produktivität auf der Generierungsseite und schweigt über die Bilanz, die sich auf der Leseseite auftut. Was nicht gelesen wird, wird nicht verstanden. Was nicht verstanden wird, wird nicht zuverlässig betrieben. Die Schulden verschieben sich nur in die Zukunft, sie verschwinden nicht.
Sichtbar wird das spätestens dort, wo Code-Review-Prozesse, die für die Geschwindigkeit der Vor-LLM-Ära konzipiert waren, plötzlich mit Pull-Requests konfrontiert sind, deren Umfang ein menschlicher Reviewer in einem ganzen Tag nicht durchdringen könnte. Die Reaktion ist meistens nicht eine vertiefte Auseinandersetzung, sondern ein verkürztes Daumen-hoch. Damit verlagert sich der Code-Review von einem inhaltlichen zu einem zeremoniellen Schritt, und genau in dieser Verlagerung entstehen die Probleme, die später teuer werden.
Die Abhängigkeitsspirale
Eine ambitionierte Schule propagiert, die Beschäftigung mit Code werde überflüssig: Mit genug Skills, Harness-Engineering und einer präzisen Markdown-Spezifikation lasse sich die Arbeit vollständig auf die Spec-Ebene verlagern. Der generierte Code sei eine Implementierungsfrage, die niemand mehr ansehen müsse. Diese Vorstellung wird mit Anlauf gegen eine Wand laufen.
Wer Code nur generiert, ohne ihn zu lesen, hat von Anfang an fremden Code vor sich. Reviewen geht nicht, Fehler suchen geht nicht, beides setzt Verstehen voraus. Mit jeder weiteren Generierung wächst die Codebasis schneller, als sie sich durchdringen lässt. Die Lücke zwischen „vorhanden“ und „verstanden“ öffnet sich in atemberaubender Geschwindigkeit, und mit ihr die Anzahl der Stellen, an denen man später fragen muss, was hier eigentlich passiert.
Die einzige verbliebene Instanz, die diesen Code noch erklären, prüfen oder reparieren kann, ist die KI selbst. Damit ist man ironischerweise auf genau das System angewiesen, das die Lage herbeigeführt hat. Aus einem Werkzeug wird eine Abhängigkeit, aus einer Beschleunigung eine Falle. Wer keine eigene Verstehenskompetenz aufbaut, hat nur noch eine externe und entscheidet über diese externe Kompetenz nicht mehr selbst.
Dieses Muster ist nicht neu, neu ist nur seine Geschwindigkeit. Ein Team besitzt eine unzugängliche Codebasis nicht mehr. Im klassischen Fall geschah die Unzugänglichkeit über Jahre, durch personelle Wechsel und unzureichende Dokumentation. Im KI-gestützten Fall kann das innerhalb weniger Monate geschehen, weil die Generierungsgeschwindigkeit die Aufnahmegeschwindigkeit hoffnungslos übersteigt.
Der typische Auslöser ist nicht spektakulär. Ein Bug taucht in Produktion auf, niemand im Team versteht den betroffenen Code, also befragt man die KI. Die KI liefert eine Erklärung und einen Fix, beides plausibel, beides ungeprüft. Im günstigen Fall stimmt es. Im weniger günstigen baut man neue Schulden auf alte und merkt es erst, wenn der nächste Bug genau in dieser Schicht entsteht. Aus Reparatur wird Übermalung.
Was zunächst wie eine Befreiung wirkt, ist also eine Verlagerung der Last. Statt selbst zu schreiben, formuliert man Prompts. Statt selbst zu verstehen, fragt man die KI. Beides scheint produktiv. Beides erodiert die Souveränität über die eigene Codebasis.
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
