Datenschutz & Sicherheit
Nach Russland baut nun auch US-Firma iranische Drohnen nach
Das US-Verteidigungsministerium hat vor wenigen Tagen eine neue Kampfdrohne namens Lucas vorgestellt. Lucas steht für „Low-Cost Unmanned Combat Attack System“ und ist eine kostengünstige Nurflügler-Drohne. Sie wurde als Konkurrenz zur iranischen Shahed 136 entwickelt.
Das von dem Unternehmen SpektreWorks entwickelte System ähnelt der bekannten Kamikaze-Drohne: Beide verfügen über eine dreieckige Deltaflügelform und nutzen für den Propellerantrieb einen Kolbenmotor.
Die Lucas-Drohne hat ein Startgewicht von bis zu 100 Kilogramm und fliegt bis zu 5.500 Meter hoch. Sie unterstützt wie die Shahed den schnellen Start von Lkw-Plattformen und soll analog zur iranischen Mini-Kampfdrohne in großen Stückzahlen zum Einsatz kommen.
Auch die Lucas ist eine Einwegwaffe: Der Aufprall und die Explosion des mitgeführten Sprengkopfes zerstören auch das Luftfahrzeug. Jede Einheit kostet rund 100.000 US-Dollar.
700 Kamikaze-Drohnen in einer Nacht
Die Shahed-Drohnen wurden im Ukraine-Krieg durch Lieferungen aus dem Iran an Russland sowie dortige Nachbauten bekannt. In Russland tragen die Drohnen die Bezeichnung „Geran-2“. In nächtlichen Schwärmen attackieren sie systematisch zivile Infrastruktur und Wohngebiete in der Ukraine. Innerhalb des vergangenen Jahres hat das russische Militär die Angriffe von zunächst rund 200 auf über 1.000 Angriffe gesteigert. Am 8. Juli dieses Jahres hat kamen sogar mehr als 700 Drohnen in einer einzigen Nacht zum Einsatz.

Russland hat die Shahed-136 zunächst direkt aus dem Iran importiert. Die ersten dokumentierten Lieferungen erfolgten bereits im September 2022. Das iranische Regime hatte den Verkauf zunächst geleugnet und später behauptet, die Geschäfte seien schon vor dem russischen Angriff auf die Ukraine erfolgt. Die russischen Nachbauten werden inzwischen in eigenen Fabriken gefertigt, Berichten zufolge soll Russland derzeit 1.000 Geran-2 pro Monat produzieren können.
Nun arbeitet Russland an der Modernisierung der Deltaflügler. Dazu soll auch eine von einem Strahlentriebwerk angetriebene und damit deutlich schnellere Variante gehören. Sie wurde Berichten zufolge bereits eingesetzt und basiert auf einem Nachfolger der Shahed-136. Zukünftige Modelle sollen über SIM-Karten oder russisches Satelliten-Internet gesteuert werden, um Störungen der Funkverbindungen durch das ukrainische Militär zu verhindern.
Ein Konzept aus Deutschland
Die Wurzeln der besatzungslosen Nurflügler-Revolution liegen in Deutschland der 1980er-Jahre. Damals hatten das deutsche Heer und die USA ein Projekt gestartet, das Drohnen entwickeln sollte, die sich zum Angriff auf sowjetische Radaranlagen eignen.
Der ehemalige deutsche Flugzeughersteller Dornier entwickelte dazu die 110 Kilogramm schwere Drohne Anti-Radar (DAR), die über eine Reichweite von etwa 600 Kilometern verfügte. DAR sollte von speziellen LKWs gestartet werden, die jeweils sechs Waffensysteme transportieren konnten.
Technologisch war die DAR für ihre Zeit vergleichsweise fortschrittlich. Sie konnte feindliche Radaremissionen erkennen und sich autonom in ein Ziel stürzen. Damit ist sie ein Vorläufer der heute zunehmend populären Kamikazedrohnen.
Anders als bei der Shahed ließen sich bei der DAR jedoch keine Ziele einprogrammieren. Die Ähnlichkeiten betreffen also eher das Design als die Elektronik, die in den vergangenen vierzig Jahren bis hin zu KI-Systemen disruptive Sprünge gemacht hat.
Israelische Firma übernimmt DAR-Konzept
Die DAR sollte in den 1990er-Jahren in den Dienst der Bundeswehr gestellt werden. Mit dem Ende des Kalten Krieges wurde das Projekt aber eingestellt.
Die Geschichte des Nurflüglers endete damit nicht: Die im Staatsbesitz befindliche israelische Firma IAI übernahm das Konzept und entwickelte daraus die bis heute erfolgreiche Harpy-Drohne, die wie ihr Nachfolgemodell Harop immer noch hergestellt und exportiert wird.
Zwischenzeitlich hatte die Bundeswehr ihre Pläne mit Kamikazedrohnen auch wieder aufgewärmt: Sie entwickelte in den 2010er-Jahren gemeinsam mit Rheinmetall das sogenannte Wirksystem zur Abstandsbekämpfung im Einsatzgebiet (WABEP). Es ähnelte DAR, sollte allerdings aus zwei Systemen bestehen: Die bereits im Dienst des Heeres stehende Kleindrohne Zielortung (KZO) sollte Ziele aufspüren, die dann eine Kamikazedrohne des israelischen Rüstungskonzern IAI angreift.

Deutsches Heer holt Entwicklung nach
Dem Bundeswehrplan 2009 zufolge wollte das Verteidigungsministerium zwei WABEP-Systeme mit jeweils 42 Drohnen plus Bodenstationen beschaffen. Das System wurde erfolgreich getestet, aber nicht weiterentwickelt, da die Bundeswehr die Indienststellung erst für 2019 projektierte und diesen Zeitpunkt für zu spät hielt.
Das war jedoch ein Irrtum, wie sich spätestens im Krieg um Berg-Karabach im Jahr 2020 herausstellte. In dem Krieg haben mutmaßlich israelische Kamikazedrohnen die aserbaidschanische Offensive äußerst erfolgreich unterstützt.
Nun will das deutsche Heer die Entwicklung nachholen. Bevor über die Beschaffung entschieden wird, werden derzeit Kamikazedrohnen deutscher Hersteller im Ukraine-Krieg getestet. Allerdings handelt es sich dabei nicht um Deltaflügler.
Helsing, Quantum Systems und Donaustahl produzieren für die Ukraine
Das Münchner KI-Unternehmen Helsing hat angekündigt, nach einem ersten Auftrag von mehr als 4.000 kleinen Kamikaze-Drohnen weitere 6.000 Einheiten seiner elektrisch angetriebenen HX-2 an das ukrainische Militär zu liefern. Einzelne Soldat*innen können die HX-2 im Schwarm steuern.
Auch der Konkurrent Quantum Systems verstärkt sein militärisches Engagement in der Ukraine. Das Rüstungs-Start-up will in diesem Jahr seine Produktionskapazität für Aufklärungsdrohnen verdoppeln. Quantum-Firmenchef Florian Seibel gründete zudem eine Firma namens Stark, das unter anderem Kamikaze-Drohnen in der Ukraine produzieren soll.
Die niederbayerische Unternehmen Donaustahl stellt für den Krieg kleine Gefechtsköpfe her, die ukrainische Einheiten an beliebige Quadrokopter montieren können. Und erst kürzlich stellte Donaustahl eine eigene senkrecht startende Kamikaze-Drohne vor, die für den Einsatz in der Ukraine bestimmt ist.
Datenschutz & Sicherheit
Kritische Lücke in Firebox-Firewalls: WatchGuard rät zu zügigem Firmwareupdate
Aufgrund einer „kritischen“ Sicherheitslücke sind Attacken auf einige Firewalls des Herstellers WatchGuard vorstellbar. Auch wenn es dem Hersteller zufolge noch keine Hinweise auf Attacken gibt, empfiehlt er eine zügige Aktualisierung.
Schadcode-Attacke möglich
In einer Warnmeldung listet WatchGuard die verwundbaren Fireboxmodelle wie T15, T70 und M4800 auf. Der Beitrag liest sich so, als wären Instanzen nur verwundbar, wenn sie mit Mobile User VPN mit IKEv2 und Branch Office VPN mit IKEv2 und Dynamic Gateway Peer konfiguriert sind. Offensichtlich sind Geräte auch angreifbar, wenn es diese Konfiguration in der Vergangenheit mal gegeben hat, sie aber mittlerweile gelöscht wurde.
Ist das gegeben, können Angreifer der Beschreibung zufolge aus der Ferne und ohne Authentifizierung an der Schwachstelle (CVE-2025-9242 „kritisch„) ansetzen. Das führe dann zu einem Speicherfehler (out-of-bounds) und Angreifer können Schadcode ausführen. Aufgrund der Einstufung der Lücke ist davon auszugehen, dass Systeme im Anschluss als vollständig kompromittiert gelten. Wie Angriffe im Detail ablaufen könnten, ist bislang nicht bekannt.
Instanzen absichern
Um Attacken vorzubeugen, müssen Admins eine der reparierten Versionen von Fireware OS installieren:
- 12.3.1_Update3 (B722811)
- 12.5.13
- 12.11.4
- 2025.1.1
Die Entwickler weisen darauf hin, dass der Support für Fireware OS 11.x ausgelaufen ist und der Versionsstrang keine Sicherheitspatches mehr bekommt. An dieser Stelle müssen Adins ein Upgrade auf eine noch unterstützte Ausgabe durchführen. Wenn Admins den Sicherheitspatch nicht umgehend installieren können, empfiehlt der Hersteller die Absicherung über eine temporäre Lösung.
(des)
Datenschutz & Sicherheit
Schwachstellen bedrohen HPE Aruba Networking EdgeConnect SD-WAN
Angreifer können Wide Area Networks (WAN) attackieren, die auf HPE Aruba Networking EdgeConnect SD-WAN fußen. Die Entwickler haben jüngst mehrere Sicherheitslücken geschlossen. Nach erfolgreichen Attacken können Angreifer unter anderem Sicherheitsbeschränkungen umgehen oder sogar Schadcode ausführen, um Systeme vollständig zu kompromittieren.
Multiple Gefahren
In einer Warnmeldung schreiben die Entwickler, dass sie insgesamt neun Softwareschwachstellen geschlossen haben. Davon ist der Großteil mit dem Bedrohungsgrad „hoch“ eingestuft.
Aufgrund von Fehlern im Command-Line-Interface können etwa entfernte Angreifer an einer Lücke (CVE-2025-37123) ansetzen, um sich höhere Nutzerrechte anzueignen und im Anschluss eigenen Code mit Root-Rechten auszuführen. Dafür müssen sie aber bereits authentifiziert sein.
Für das erfolgreiche Ausnutzen einer weiteren Lücke (CVE-2025-37124) ist hingegen keine Authentifizierung nötig. An dieser Stelle können Angreifer auf einem nicht näher beschriebenen Weg Traffic am Firewallschutz vorbeischleusen.
Weiterhin ist das Ausführen von Befehlen auf Systemebene möglich (CVE-2025-37126). Fehler in der Kryptografie (CVE-2025-37127) führen dazu, dass Angreifer die Kontrolle über Systeme erlangen können.
WANs gegen mögliche Attacken schützen
Um Angriffen vorzubeugen, müssen Admins HPE Aruba Networking EdgeConnect SD-WAN 9.5.4.1 oder 9.4.4.2 installieren. HPE versichert, dass ihnen derzeit keine Attacken bekannt sind. Das kann sich aber schnell ändern, weswegen Admins die Sicherheitspatches zeitnah installieren sollten.
Zusätzlich sollte sichergestellt sein, dass etwa das Web-Interface von außen nur für ausgewählte Konten erreichbar ist und etwa Firewallregeln den Zugriff einschränken. Außerdem raten die Entwickler zur Authentifizierung RADIUS oder TACACS einzusetzen.
(des)
Datenschutz & Sicherheit
Datenschutz und KI: Schluss mit der Zögerlichkeit!
Hinter weitverbreiteten KI-Anwendungen stehen generative Sprach- und Bildmodelle, die mit riesigen Datenmengen gefüttert werden, auch mit personenbezogenen Daten. Das Problem: Teile der Trainingsdaten, darunter personenbezogene, lassen sich aus vielen der Modelle extrahieren. Unter welchen Umständen sich ein Modell zu viel „merkt“ und wie sich das verhindern lässt, ist bislang wenig erforscht. Zugleich werden Extrahierungsmethoden immer besser. Anbieter*innen können bislang nicht verhindern, dass Modelle personenbezogene Trainingsdaten ausgeben. Auch Chatbots können personenbezogene Daten von anderen verraten.
Außerdem „halluzinieren“ die Modelle. Sie generieren also falsche Informationen, die nicht in den Trainingsdaten enthalten sind. Weil KI-Unternehmen diese nicht offenlegen, können Forscher*innen nicht zuverlässig messen, wann ein Modell Informationen erfindet und wann es unrichtige Trainingsdaten wiedergibt. Zuverlässige Methoden zur Vermeidung von Halluzinationen gibt es bisher nicht.
Werden personenbezogene Daten aus einem Modell extrahiert, kann für Betroffene gerade die Kombination aus „Erinnerung“ und „Halluzination“ gefährlich sein. Ein mit personenbezogenen Daten trainiertes Modell generiert unter Umständen Falschinformationen über sie. Gerade bei öffentlichen Modellen besteht das Risiko, dass Nutzer*innen diese Informationen unkritisch weiterverbreiten.
Meta fragt lieber nicht um Erlaubnis
Mit Llama (Large Language Model Meta AI) ist auch Meta an dem KI-Rennen beteiligt. Meta nutzt Llama für eigene KI-Funktionen wie Transkriptions- oder Suchfeatures auf Instagram, Facebook und WhatsApp sowie für Chatbots oder in KI-Brillen, die das Unternehmen anbietet. Außerdem stellt Meta seine Modelle anderen zur Nutzung bereit. So können etwa Forscher*innen die Modelle testen oder Unternehmen auf Basis von Llama KI-Dienstleistungen oder -Produkte anbieten.
Im Juni 2024 informierte Meta die Nutzer*innen von Instagram und Facebook über eine Aktualisierung seiner Datenschutzrichtlinie. Diese Aktualisierung ließ Metas Vorhaben erkennen, seine KI-Modelle mit Nutzer*innendaten zu trainieren. Die Nutzer*innen konnten dem zwar widersprechen, die Widerspruchsmöglichkeit war jedoch schwer auffindbar.
Nachdem Datenschutzorganisationen wie noyb Meta scharf kritisierten, veröffentlichte der Konzern noch gleichen Monat weitere Informationen zum geplanten Training. Demnach beabsichtigte der Konzern, nur noch öffentliche Daten für das Training zu verwenden. Kurz darauf verkündete Meta, die irische Datenschutzbehörde verzögere das Training in der EU. Im April 2025 verkündete der Konzern dann den baldigen Trainingsstart.
Was trainiert Meta eigentlich mit welchen Daten?
Inzwischen hat der Konzern damit begonnen, seine KI mit den Daten europäischer Nutzer*innen zu trainieren. Unklar ist weiterhin, welche Daten dafür genau genutzt werden. Meta stellt im Vergleich zu anderen KI-Unternehmen zwar mehr Informationen über das Training mit Social-Media-Daten bereit. Diese Informationen haben sich aber immer wieder verändert und lassen Fragen offen.
Das betrifft insbesondere den Umgang mit sensiblen Daten. Bei Llama handelt es sich um ein multimodales Sprachmodell, das neben Texten auch Bilder, Videos und Tondateien verarbeitet. Der für das Training genutzte Social-Media-Content umfasst damit etwa auch Fotos der Nutzer*innen. Metas Datenschutzinformationen verweisen auf öffentliche Inhalte wie Beiträge, Kommentare und Audiospuren.
Inzwischen heißt es in den Datenschutzinformationen, dass auch Daten von Drittpartner*innen und KI-Interaktionen für die KI-Entwicklung genutzt würden. Als Beispiele für KI-Interaktionen nennt Meta Nachrichten, die Nutzer*innen oder andere Personen von der KI erhalten, mit ihr teilen oder an diese senden.
Diese Angaben schließen private Sprachnachrichten und Transkriptionen nicht aus. Metas Umschreibung passt auch auf Chatverläufe mit Chatbots. Solche Chatverläufe können besonders sensible Daten enthalten, wenn etwa Chatbots für intime Gespräche zu mentaler Gesundheit oder parasoziale romantische Beziehungen genutzt werden.
Verbraucherzentrale scheitert vor Gericht
Um den Beginn des Trainings zu verhindern, hat die Verbraucherzentrale Nordrhein-Westfalen im Mai 2025 einen Eilantrag beim Oberlandesgericht (OLG) Köln gestellt. Sie argumentierte insbesondere, dass Meta das Training nicht auf eine wirksame Rechtsgrundlage stützen könne, ist mit dem Eilantrag jedoch gescheitert. Das Urteil und Einblicke in die mündliche Verhandlung in Köln offenbaren erhebliche Mängel.
Meta hatte sich entschieden, keine Einwilligungen einzuholen, sondern beruft sich auf ein berechtigtes Interesse an der Nutzung der Daten für KI-Training. Die Verbraucherzentrale hält das für unzureichend, doch das Gericht folgt Metas Argumentation in seinem Urteil. Nach der Datenschutzgrundverordnung (DSGVO) können berechtigte Interessen die Verarbeitung personenbezogener Daten rechtfertigen, solange die Interessen Betroffener nicht schwerer wiegen. Dabei müssen diese der Datenverarbeitung aber widersprechen können.
Die Verbraucherzentrale NRW hat darauf hingewiesen, dass nicht alle Betroffenen widersprechen können. Facebook- und Instagram-Beiträge enthalten zuhauf personenbezogene Daten von Nicht-Nutzer*innen. Die Widerspruchsfunktion steht aber nur Nutzer*innen offen. Das Gericht ignoriert diesen Einwand. Zudem behauptet es ohne Begründung und trotz gegenteiliger Hinweise, Meta erfülle die Anforderungen der DSGVO an den Schutz von Minderjährigen.
Das Gericht halluziniert niedrige Risiken herbei
Berechtigte Interessen geben außerdem keine Rechtsgrundlage für Verarbeitungen her, die für Betroffene zu riskant sind. Das OLG Köln behauptet, die Risiken für Nutzer*innen seien gering. Dabei legt das Urteil nahe, dass die Richter*innen nicht verstanden haben, was Meta trainiert. Das Wort „Llama“ taucht im gesamten Urteil nicht auf. Auch beschreibt das Gericht keine Anwendungsszenarien.
Auf diese kommt es aber entscheidend an. Ein Transkriptionsfeature gibt wahrscheinlich keine extrahierbaren Daten aus. Aus Llama selbst werden jedoch sicher Daten extrahiert. Forscher*innen wenden Extrahierungsmethoden auf alle bekannten Modelle an. Je nachdem, welche Arten von Daten wie gut extrahierbar sind, könnte es dabei versehentlich auch zu Datenlecks kommen.
Gerichte prüfen in Eilverfahren die Rechtslage nur „kursorisch“, also nicht im Detail. Das OLG Köln reiht dabei aber mit großem Selbstbewusstsein Behauptungen aneinander, die aus Sicht der Datenschutzforschung haltlos sind. Selbst wenn Metas Training transparent genug wäre, fehlt es an tragfähigen Forschungsergebnissen für die Einschätzung des Gerichts.
Ein grober Fehler des Urteils betrifft besondere Kategorien personenbezogener Daten. Das sind sensible Daten, die die DSGVO besonders schützt, zum Beispiel Daten über Race, religiöse Anschauungen oder sexuelle Orientierungen. Social-Media-Daten enthalten viele solcher Daten. Besondere Kategorien personenbezogener Daten dürfen nicht auf Basis berechtigter Interessen verarbeitet werden, sondern nur unter strengeren Voraussetzungen, in vielen Fällen nur aufgrund von Einwilligungen. Das OLG Köln stört sich daran nicht.
Stattdessen behauptet das Gericht, dass die Anwendung der besonderen Schutzanforderungen nicht geboten sei. Das Urteil stellt hier wieder auf ein nicht weiter begründetes geringes Risiko ab. Dabei kommt es gerade im Bereich des maschinellen Lernens leicht zu unbemerkten Modellbias, also zu systematischen Fehleinschätzungen, die zum Beispiel zu rassistischer Diskriminierung führen. Besondere Kategorien personenbezogener Daten bergen dabei potenziell besonders hohe Risiken.
Bedenkliche Informationslage
Bedenklich ist zudem die Informationslage, auf die sich das Gericht stützt. In diesem Fall sind das vor allem die Angaben von Meta selbst. Das ist in einem Eilverfahren an sich nicht zu beanstanden – weil es schnell gehen muss, gelten geringere Beweisanforderungen. Gerichte arbeiten daher mit eidesstattlichen Versicherungen, formellen Erklärungen der Parteien. Um Falschangaben vorzubeugen, sind falsche eidesstattliche Versicherungen nach dem Strafgesetzbuch strafbar.
Das Urteil stellt entscheidend auf eidesstattliche Versicherungen von Metas Produktmanager für generative KI ab. Zwei in der mündlichen Verhandlung in Köln anwesende Personen berichten allerdings, dass die Versicherungen nie formgerecht abgegeben worden sind. (Die Autorin hat von zwei in der Verhandlung in Köln anwesenden Personen Informationen zum Ablauf der mündlichen Verhandlung und dabei getroffenen Aussagen des Gerichts erhalten. Eine der Personen ist seitens der klagenden Verbraucherzentrale am Verfahren beteiligt, die andere Person hat den Prozess beobachtet, ohne daran beteiligt zu sein.)
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Eidesstattliche Versicherungen müssen mündlich oder im Original mit händischer Unterschrift abgegeben werden. Selbst wenn die Erklärungen von Meta formgerecht wären, hätte sich das OLG Köln besser nicht darauf verlassen. Es gibt zwar keine Anzeichen dafür, dass diese Falschangaben enthalten. Durch das deutsche Strafgesetzbuch wäre deren Richtigkeit aber nicht abgesichert: Falls der in Kalifornien ansässige Manager nicht einreisen will, hätten Falschangaben keine strafrechtlichen Folgen für ihn.
Zudem legt das Urteil nahe, dass Metas Erklärungen inhaltlich dünn sind. Sie bestätigen etwa das Funktionieren der Widerspruchsfunktion. Eine Pressemitteilung der für Meta zuständigen irischen Datenschutzbehörde (Data Protection Commission, DPC) zeigt jedoch, dass die Behörde Meta zur Nachbesserung der Widerspruchsfunktion aufgefordert hat. Es bleibt somit zweifelhaft, ob Widersprüche in der Vergangenheit einfach genug möglich waren und funktioniert haben.
Datenschutzbehörden lassen Meta erst mal machen
Auch die Pressemitteilung der irischen Datenschutzbehörde und der Umgang des Gerichts damit verdienen besondere Aufmerksamkeit. Die für ihre Nachsicht gegenüber Datenkonzernen bekannte Behörde hat die Pressemitteilung am Vorabend der mündlichen Verhandlung in Köln veröffentlicht. Sollte die Behörde sich etwa mit Meta abgestimmt und so das Verfahren beeinflusst haben?
Das OLG Köln hat nach Berichten Anwesender schon in der mündlichen Verhandlung signalisiert, der Rechtsauffassung der irischen Behörde wahrscheinlich folgen zu müssen, warum auch immer das Gericht sich an deren Einschätzung auch nur lose gebunden fühlt. Das ist nicht nur im Hinblick auf die Gewaltenteilung bedenklich. Die Pressemitteilung enthält auch keinerlei Rechtsauffassung zur Frage nach der Datenschutzkonformität, der das Gericht folgen könnte. Sie enthält schlicht gar keine rechtliche Einschätzung. Es heißt lediglich, Meta habe in Absprache mit der Behörde Maßnahmen zur Verbesserung des Datenschutzes ergriffen und verfolge die Umsetzung weiter.
Aus der Pressemitteilung wird ersichtlich, dass die irische Behörde Meta nur beraten hat. Das war dem OLG Köln auch von Metas Hauptaufsichtsbehörde in Deutschland, dem Hamburger Datenschutzbeauftragten, bekannt. Im Urteil heißt es ausdrücklich, die Behörde habe Meta das Training „bislang“ nicht untersagt und beobachte derzeit die Folgen der Trainings.
Der Hamburger Datenschutzbeauftragte hatte im Juli 2024 die Datenschutzauswirkungen des Trainings generativer Sprachmodelle noch unterschätzt. Nach Berichten aus der mündlichen Verhandlung hat er angesichts seiner Einblicke in Metas Training diese Auffassung zurückgenommen, erhebliche Datenschutzbedenken geäußert und zunächst sogar ein eigenes Verfahren gegen Meta angekündigt. Außerdem berichtete er, dass die irische Behörde plane, ein Verletzungsverfahren im Oktober einzuleiten. Das spricht dafür, dass europäische Datenschutzbehörden von Verstößen wissen, Meta aber zunächst gewähren lassen.
Wider den KI-Hype
Die Bedeutung des Kölner Verfahrens weist über Meta und über Deutschland hinaus. Das Urteil und die Vorgänge im Prozess legen nahe, dass europäische Gerichte und Aufsichtsbehörden bei KI dem Ansatz „Abwarten und Teetrinken“ folgen. Es lässt sich nur spekulieren, welche Rollen hier der Druck des KI-Hypes, Innovationspläne der EU oder auch blanke Naivität spielen.
Dabei macht die DSGVO nicht nur klare Vorgaben an KI-Unternehmen, sondern bietet diesen auch ausreichende Möglichkeiten, sich an die Vorgaben zu halten. Demnach müssen KI-Unternehmen die Datenschutzkonformität ihrer Vorhaben begründet nachweisen. Sie dürfen ihre Modelle trainieren und testen – allerdings nur zu reinen Forschungszwecken und ohne die KI in der Praxis einzusetzen – und damit blind auf die Menschheit loszulassen. Gerichte und Aufsichtsbehörden sollten diese Vorgaben durchsetzen, anstatt sich dem KI-Hype zu beugen.
Prof. Dr. Paulina Jo Pesch ist Juniorprofessorin für Bürgerliches Recht sowie das Recht der Digitalisierung, des Datenschutzes und der Künstlichen Intelligenz am Institut für Recht und Technik der Friedrich-Alexander-Universität Erlangen-Nürnberg. Sie koordiniert das vom Bundesministerium für Forschung, Technologie und Raumfahrt (BMFTR) geförderte interdisziplinäre Forschungsprojekt SMARD-GOV, das Datenschutzaspekte großer Sprachmodelle erforscht.
Eine englischsprachige Langfassung der Analyse des Verfahrens sowie eines weiteren Verfahrens beim OLG Schleswig-Holstein ist im CR-online blog erschienen.
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 3 Tagen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier