Entwicklung & Code
Kommentar: Von wegen KI bedroht Jobs – Daten sind wirklich in Gefahr!
Die Angst vor der KI ist oft von theoretischer Natur, insbesondere die Sorge: KI frisst meinen Job. In der Bankbranche gehen Analysten von 200.000 wegfallenden Stellen aus. Dem stehen aber eine Million unbesetzbarer Stellen im öffentlichen Dienst im Jahr 2030 gegenüber. Hier werden wir der KI noch dankbar sein.
Ganz konkret für die allermeisten Menschen sind hingegen Gefahren, die es jetzt schon gibt und persönliche Daten betreffen – die Daten aller Menschen, die in irgendeiner Form im Internet erscheinen, auf Webseiten, in Berichten, in Datenbanken oder in Social-Media-Profilen. Denn all das saugen sich die großen LLM-Modelle beim Training ein und spucken es auf Prompt-Anfrage in freundlicher Sprache hübsch verpackt wieder aus. Wie ein dicker Wal filtern sie statt des Planktons persönliche Daten aus der Flut und verdauen sie.
Man könnte einwenden, dass die großen Player der Branche wie Google, Meta und Microsoft sich diese Daten ohnehin schon immer in ihren großen Bauch einverleiben. Aber die mit KI betriebene Art der Verwertung erreicht eine neue Dimension an Performance, verständiger Kompilation und leichter Auswertbarkeit für fast jedermann.
Keine kleinen Datenfische
Das Ausmaß des Datensaugens zeigt eine Untersuchung der Datenschutzfirma incogni, laut der die LLM-Betreiber nicht nur im Internet sammeln – oft unter Ignorieren der robots.txt – sondern auch in diffusen „Datenbanken“ (Claude), bei „Marketingpartnern“ (Gemini und Meta) bei „Datenbrokern“ (Microsoft), bei „Sicherheitspartnern“ (ChatGPT, Gemini und DeepSeek) oder auf dem Handy. Hier gibt es Standortdaten (Gemini und Meta), Telefonnummern (DeepSeek, Gemini und Pi) oder sogar Fotos (Grok, auch mit Dritten geteilt) zum Verzehr. Eine Opt-out-Möglichkeit hierfür bietet keiner der LLM-Betreiber in der Studie.
Anders beim Umgang mit den Prompt- und Chat-Daten: Hier können Anwenderinnen und Anwender bei ChatGPT, Copilot, Mistral und Grok erklären, dass die KI-Firmen ihre Kommunikationsdaten nicht verwenden sollen. Anthropic verzichtet für seine Claude-Modelle prinzipiell auf Daten über User-Eingaben. Alle anderen Firmen in der Untersuchung schweigen darüber.
Die LLM-Betreiber verletzen mit diesem monströsen Datensee grundlegende Prinzipien des Datenschutzes, beispielsweise, dass persönliche Daten nicht so leicht zusammengeführt werden sollen („Mandantentrennung“), um das Entstehen ebensolcher Datenpools an sensiblen Daten zu verhindern. Genau das geschieht aber derzeit beim LLM-Training.
Theoretisch werden damit leichtgängige Antworten auf Fragen möglich wie „Mit wem war Susi in den vergangenen Jahren im Urlaub?“, falls Susi das gelegentlich irgendwo halböffentlich gepostet hat. Möglicherweise fischen die KI-Interfaces wie ChatGPT solche Fragen heraus, im LLM-Bauch stecken die Antworten dennoch drin. Und mit geschicktem Prompting lässt sich mehr herauskitzeln als das, was der LLM-Betreiber vielleicht möchte – Sicherheitsexperten kennen das.
Die KI liefert hier Zusammenhänge, die mit einer traditionellen Google-Suche weitaus aufwendiger oder sogar unmöglich gewesen wären. Diese Gefahr ist konkreter als der für die meisten Menschen erstmal nur theoretisch drohende Jobverlust. Genau deshalb sollten sich gerade Social-Media-Freunde im KI-Zeitalter stärker bewusst machen, wer oder was sich ihre halböffentlichen Daten einverleibt – es könnte ein Datenhai mit Walfischbauch sein.
(who)
Entwicklung & Code
Software Testing: Qualität ist kein Zufall
In dieser Episode sprechen Richard Seidl und Florian Fieber über den besonderen Anlass, dass Seidl mit dem Deutschen Preis für Softwarequalität ausgezeichnet wurde. Diese Auszeichnung bietet den Rahmen, um über die Rolle des Menschen in der Technologieentwicklung nachzudenken. Richard Seidl teilt seine Sichtweise, dass Qualität weit über Testdaten und Skripte hinausgeht und dass es darum geht, ein Umfeld zu schaffen, in dem Teams Qualität aktiv leben.
Seidl und Fieber diskutieren auch die zukünftigen Herausforderungen und Möglichkeiten, die sich durch die Integration von KI im Bereich Testing ergeben.
„Wenn ein Team wirklich Qualität lebt und nicht nur Testfälle schrubbt, dann ist das ganze Thema auf einem völlig anderen Level angekommen.“ – Richard Seidl
Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.
Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Qualität ist kein Zufall – Richard Seidl“ und steht auf YouTube bereit.
(mai)
Entwicklung & Code
Apple übernimmt Entwickler des Open Policy Agents
Open Policy Agent (OPA) ist eine Software, die Regeln (formuliert in der Sprache Rego) und Datenobjekte entgegennimmt und auf dieser Grundlage Entscheidungen trifft – Haupteinsatzgebiet sind Autorisierungsregeln, die die Frage beantworten, ob ein Nutzer eine Aktion ausführen darf. Weil OPA Open-Source-Software ist (Apache License 2.0) und vergleichsweise leicht in andere Anwendungen integriert werden kann, erfreut er sich großer Beliebtheit in der Cloud-Native-Community: OPA wird unter anderem genutzt, um über Anfragen ans Kubernetes-API zu entscheiden, trifft in Banken aber auch Entscheidungen, wer welche Anfragen an interne Systeme stellen darf.
Erfunden wurde OPA vom Unternehmen Styra, das mit Zusatzprodukten und Dienstleistungen rund um OPA Geld verdient hat. Auf der Homepage findet man die Logos von Zalando, CapitalOne und dem Europäischen Patentamt. Auch Goldman Sachs und Netflix gehört zu den OPA-Nutzern. Der Code von OPA selbst liegt aber nicht mehr in der Hand von Styra: 2018 wurde OPA als Incubating-Projekt von der CNCF (Cloud Native Computing Foundation) akzeptiert, seit 2021 hat es den höchsten Status „Graduated“ erreicht und hat insgesamt 485 Contributors.
Jetzt steht der nächste Umbruch an: Die Erfinder von Open Policy Agent sowie weitere Mitarbeiter des Unternehmens Styra wechseln den Arbeitgeber: Apple, ebenfalls OPA-Nutzer, übernimmt Styra-CTO Tim Hinrichs und weitere Entwickler. Das hat Hinrichs im OPA-Blog verkündet. „Apple ist ein enthusiastischer OPA-Nutzer, der es als zentrale Komponente seiner Autorisationsinfrastruktur nutzt, um ein großes Portfolio globaler Clouddienste zu verwalten.“
Mehr Open Source
Weil der Code bereits in der Hand der CNCF liegt, ändert sich das Open-Source-Projekt nichts. Der Code bleibt Open Source und wird wie zuvor von der CNCF verwaltet. Auch die Liste der Maintainer soll sich nicht ändern. Neu ist vielmehr, dass Zusatzprodukte aus dem Styra-Portfolio ebenfalls Open Source werden und ins öffentliche Repository umziehen: die kommerzielle OPA-Distribution EOPA, die Verwaltungsoberfläche „OPA Control Plane“, mehrere SDKs sowie der Rego-Linter namens Regal.
Website und Rego-Playground (eine Website, um Rego-Regeln zu testen) sollen wie gewohnt weiterlaufen und auch die Entwicklung soll weitergehen. Unklar hingegen ist, in welcher Form das Unternehmen Styra weiterarbeiten wird. Dazu macht der Blogpost keine Angaben. Große Organisationen, die gehofft haben, bei Styra die Autorisierungsexpertise und Beratung von Tim Hinrichs und den anderen OPA-Kernentwicklern einkaufen zu können, gehen leer aus: Diese Expertise nutzt jetzt Apple.
(jam)
Entwicklung & Code
software-architektur.tv: Netflix ohne Bounded Contexts
In der Softwarearchitektur gilt: Systeme lassen sich besser warten und flexibler gestalten, wenn man sie in mehrere Bounded Contexts aufteilt – und das ist gerade bei Microservices-Systemen entscheidend. Doch nun hat ausgerechnet Netflix, ein Pionier der Microservices-Bewegung, einen Blogpost veröffentlicht, der einen ganz anderen Weg propagiert: „Model Once, Represent Everywhere: UDA (Unified Data Architecture)„.
In dieser Episode nimmt Eberhard Wolff den Ansatz von Netflix genauer unter die Lupe und diskutiert, ob die Zeit gekommen ist, die Idee klar getrennter Bounded Contexts infrage zu stellen – und stattdessen auf ein zentrales Modell zu setzen.
Lisa Maria Schäfer malt dieses Mal keine Sketchnotes.
Livestream am 22. August
Die Ausstrahlung findet live am Freitag, 22. August 2025, 13 bis 14 Uhr statt. Die Folge steht im Anschluss als Aufzeichnung bereit. Während des Livestreams können Interessierte Fragen via Twitch-Chat, YouTube-Chat, Bluesky, Mastodon, Slack-Workspace oder anonym über das Formular auf der Videocast-Seite einbringen.
software-architektur.tv ist ein Videocast von Eberhard Wolff, Blogger sowie Podcaster auf iX und bekannter Softwarearchitekt, der als Head of Architecture bei SWAGLab arbeitet. Seit Juni 2020 sind über 250 Folgen entstanden, die unterschiedliche Bereiche der Softwarearchitektur beleuchten – mal mit Gästen, mal Wolff solo. Seit mittlerweile mehr als zwei Jahren bindet iX (heise Developer) die über YouTube gestreamten Episoden im Online-Channel ein, sodass Zuschauer dem Videocast aus den Heise Medien heraus folgen können.
Weitere Informationen zur Folge finden sich auf der Videocast-Seite.
(mdo)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 5 Tagen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 2 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Entwicklung & Codevor 4 Tagen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken