Datenschutz & Sicherheit
Generative KI: Finger weg von Bildgeneratoren
Eines der ersten Bilder, das ich mit „generativer KI“ erstellt habe, war ein Waschsalon im Stil von Edward Hopper. Das Motiv entspricht dem US-amerikanischen Maler sehr: ein halb-öffentlicher, halb privater Raum; die Stimmung irgendwo zwischen Kontemplation und Melancholie. Aber gemalt hat er es nie. Das KI-generierte Bild hatte das typische Hopper-Gefühl in mir geweckt, ich war begeistert. Bildgeneratoren sind der Anfang von etwas Großem, da war ich mir im Jahr 2022 sicher.
Schon früh war die öffentliche Debatte über Bildgeneratoren begleitet von teils inbrünstigen Einwänden, dass Erzeugnisse von Maschinen doch keine ernst zu nehmenden Gefühle oder Bedeutungen zum Ausdruck bringen könnten. Immerhin berechnet Software ihre Erzeugnisse bloß aus Material, das es bereits gibt; es fehlt also der Wille eines Menschen, etwas auf bestimmte Weise auszudrücken.
Mich überzeugt das nicht. Warum soll das Erzeugnis einer Maschine von Gefühl und Bedeutung entleert sein, das Erzeugnis eines Menschen aber gefühlvoll und bedeutsam? Diese KI-Kritik ist von klassischen Kommunikations-Modellen geprägt, die Sender und Empfänger in den Mittelpunkt rücken. Einfach ausgedrückt packt demnach ein Sender einen gewünschten Inhalt auf einen Kommunikationsträger, der die Botschaft zum Empfänger bringt – etwa per Wort oder Bild. Gerade Künstler*innen können diesem Modell zufolge ihre Kommunikation in Form eines Kunstwerks ganz besonders mit Bedeutung aufladen, weil sie dabei auf geniale Weise wie aus tiefer Seele schöpfen.
Diesem Modell zufolge kann ein KI-erzeugtes Bild schon allein deshalb nichts Sinnvolles ausdrücken, weil die Maschine nichts meinen kann. Das Erzeugnis ist allenfalls ein Klumpatsch von einst bedeutsamen Inhalten, also: KI-Slop.
Spätere Ansätze – von Systemtheorie über Poststrukturalismus – haben jedoch das Modell verworfen, wonach Bedeutung wie ein Päckchen von A nach B transportiert wird. Bedeutung lässt sich demnach auch nicht in einem Bild verpacken, sodass es nur noch beim Betrachten ausgepackt und in Empfang genommen werden muss. Vielmehr lässt sich jede Kommunikation und damit auch jedes Bild als eine Art Remix aus bestehenden Bedeutungsträgern beschreiben. Die konkrete Bedeutung eines Werks wiederum entsteht bei jeder Beobachtung aufs Neue und zwar durch die Betrachtenden. Das heißt, nicht nur jedes Werk ist ein Remix, sondern auch jede Beobachtung eines Werks.
Selbst das Wetter meint etwas – für uns

Insofern fehlt maschinell erzeugten Bildern zwar die menschliche Intention bis ins Detail, die etwa anzunehmen ist, wenn jemand nach jahrelanger Übung gezielt eine Leinwand mit Pinsel und Farbe bearbeitet hat. Gefühl und Bedeutung können KI-Bilder trotzdem haben, und zwar beim Betrachten. Das klappt auch ohne jegliche Intention eines Senders.
Das Prinzip kennen wir alle aus unserem Alltag, und zwar vom Wetter: Auch Sonnenuntergänge, Gewitter oder Wolkenformationen können ins uns eine Menge Gefühle auslösen, obwohl das Wetter nichts meinen kann. Es meint trotzdem etwas – für uns.
Die Grenze zwischen menschengemachten und synthetischen Werken ist weniger klar, als man auf den ersten Blick meinen könnte. Auch ohne Einsatz von Software haben Künstler*innen immer wieder gezielt die Kontrolle über ihre Werke reduziert. So spielen beim Action Painting Zufall und Physik eine wichtige Rolle, wenn Künstler*innen Farben schleudern und spritzen. Im Konstruktivismus wiederum geht es um Berechenbarkeit statt Zufall, wenn Künstler*innen streng auf geometrische Formen setzen.
Die Beispiele zeigen, generative KI ist weniger ein radikaler Bruch im kreativen Schaffen, sondern eher eine neue Verschiebung in der Rolle des Menschen beim Entstehen eines Werks. Statt mit Pinsel und Farbe hantiert man mit Prompts; feilt an Textbefehlen, bis die Maschine etwas erzeugt, das man gerne speichern und weiterverbreiten möchte. Der Stoff, aus dem ein Werk entsteht, ist nicht roh wie etwa eine Tube Ölfarbe, sondern vorgeformt durch das einfließende Trainingsmaterial.
Wie es sich praktisch anfühlt, mit Bildgeneratoren zu arbeiten, habe ich eine Zeit lang selbst getestet. Über Monate hinweg habe ich die Software genutzt, um eigene Artikel zu bebildern. Es war reizvoll, mehr Freiheiten in der Gestaltung der Motive zu haben. Inzwischen habe ich aber damit aufgehört – und ich halte es sogar für besser, wenn Redaktionen die Finger von Bildgeneratoren lassen. Dafür sehe ich vor allem drei Gründe.
1. Der typische KI-Look wirkt unseriös

Nach ein paar Jahren KI-Hype und einer Flut KI-generierter Bilder auf Websites und in sozialen Medien zeigt sich eine Kluft zwischen Theorie und Praxis: Während KI-Bilder meiner Meinung nach bedeutsam, gefühlvoll und schön sein können, sind sie es erstaunlich oft – einfach nicht.
So unbegrenzt wie Anfangs vermutet sind die kreativen Möglichkeiten dann doch nicht. Zumindest Stand aktuell, und mit dem eher geringen Aufwand, den viele in ihre Prompts und KI-Erzeugnisse stecken. An einem Großteil der tatsächlich in meinen Feeds kursierenden, KI-generierten Bilder habe ich mich sattgesehen. Sie sind oft überladen und austauschbar, teils offensiv geschmacklos. Einflüsse von Stilrichtungen lassen sich erahnen, sind aber oft grobschlächtig miteinander vermengt, ohne Gefühl für Stimmigkeit. Ein schauriges Beispiel dafür ist das oben eingebettete KI-Bild, das ich leider selbst als Artikelbild veröffentlicht habe, und heute für einen Griff ins Klo halte.
Websites, die auf KI-Bilder setzen, erscheinen mir inzwischen suspekt. Denn in der Praxis nutzen die meisten seriösen Medien solche Bilder nicht oder kaum; fragwürdige Content-Schleudern aber schon.
Egal, wie man sonst zu KI-Bildern steht: Sie können mangelnde Seriosität ausstrahlen. Besonders wenn Leser*innen eine Website nicht gut kennen und nur die Bilder ins Auge springen. Es könnte bei manchen die Frage aufkommen, ob die Redaktion möglicherweise auch ihre Texte achtlos zusammenrührt; wie sorgfältig das redaktionelle Angebot wirklich ist. Die Bebilderung von Artikeln sollte funktional sein und nicht mehr Fragen aufwerfen als die Hauptinhalte.
2. Generative KI schafft bedenkliche Abhängigkeiten

Generative KI gibt Menschen mit Internetverbindung zuvor ungeahnte Produktionsmittel in die Hand. Selbst ohne Vorkenntnisse lassen sich etwa Texte, Übersetzungen, Code, Bilder und Videos in mindestens mittelmäßiger Qualität erstellen. Und wer würde so viele verschiedene Dinge schon mindestens mittelmäßig hinbekommen? Das bedeutet mehr Möglichkeiten und mehr Macht für alle. Aber das ist nur die eine Seite der Medaille.
Die andere Seite ist düster. Je mehr sich generative KI verbreitet, desto mehr zementieren deren Anbieter ihre Machtposition. Als der Bild-Generator Stable Diffusion erstmals gratis für alle veröffentlicht wurde, hatte ich die Hoffnung auf eine dezentrale Zukunft generativer KI ohne mächtige Tech-Unternehmen als Nadelöhr. Es kam anders.
Heute kontrollieren einige wenige Unternehmen wie OpenAI, Anthropic, Microsoft, Meta und Google die populären und effizienten KI-Anwendungen. Sie sammeln die Risiko-Milliarden ein, steigen zu den reichsten Unternehmen der Welt auf oder festigen diese Position. Unter der Regie der KI-Konzerne entsteht eine technologische Infrastruktur, die Produktionsweisen zentralisiert. Die Konzerne bestimmen in der Folge, welche KI-Anwendungen kostenlos sind und wofür man zahlen muss. Sie bestimmen, für welche Sprachen, welche gesellschaftlichen Gruppen, welche Einsatzmöglichkeiten ihre Dienste optimiert werden.
Auf rabiate Weise extrahieren KI-Konzerne massenhaft Werke zum Training ihrer Modelle aus dem Netz, selbst wenn die Künstler*innen und Urheber*innen dahinter das nicht möchten. Einerseits finde ich: Zur Freiheit von Kunst sollte es gehören, dass sich Menschen oder auch Maschinen frei an Werken bedienen können, um Neues zu schaffen. Andererseits bereitet mir das extreme Macht-Ungleichgewicht Bauchschmerzen, das besteht, wenn Milliarden-Konzerne diese Freiheit brachial für kommerzielle Interessen ausnutzen.
In der Folge profitieren nicht alle gleichermaßen von den Produktionsmöglichkeiten sogenannter KI. Die neue Technologie kann nicht nur Gewinner*innen hervorbringen, sondern auch Verlierer*innen. Sie birgt etwa das Potenzial, KI-freie Formen künstlerischer oder handwerklicher Bildproduktion allein durch diese Produktionsgewalt zu verdrängen, zu ersetzen und damit unter die Kontrolle weniger Konzerne zu bringen.
Diese Kontrolle bezieht sich nicht nur auf die Gestaltung der KI-Werkzeuge, sondern auch auf die erzeugten Inhalte. Die KI-Konzerne entscheiden und moderieren, was erlaubt und verboten ist. Bei Sprachmodellen wie Grok aus den USA oder DeepSeek aus China sieht man, wie schnell vermeintliche Inhaltsmoderation in autoritäre Zensur und Desinformation umschlägt.
Bei den meisten kommerziellen Bildgeneratoren gibt es zudem sehr hohe Hürden für jegliche Darstellung von Nacktheit. Damit wollen die Konzerne unter anderem verhindern, dass Menschen illegale Inhalte erzeugen, und nehmen dabei Overblocking in Kauf. Die Folge ist, dass selbst jugendfreie Darstellungen zensiert werden, etwa wissenschaftliche oder künstlerische Motive. Zum Vergleich: Sogar in der Sixtinischen Kapelle im Vatikan sind Adam und Eva ohne Kleider zu sehen.
Keine Skrupel haben die KI-Konzerne dagegen offenbar bei Deals über hunderte Millionen US-Dollar mit dem Militär der rechtsradikalen Trump-Regierung.
Die erhoffte Demokratisierung von Produktionsmitteln durch generative KI hat also auch gegenteilige Effekte. Solange Bildgeneratoren von wenigen Konzernen kontrolliert werden, entstehen neue Formen von Abhängigkeit, und zwar von konkreten KI-Modellen und deren Features, von Plattform-Policys, Finanzierungsmodellen und letztlich auch den Launen und Ideologien ihrer superreichen Eigentümer.
Entsprechend unangenehm ist es, etwa einen journalistischen Artikel oder einen Blogbeitrag mit einem Generator von Google oder OpenAI zu bebildern. Der Name dieser Konzerne in der Bildunterschrift: ein unerwünschter Werbe-Effekt.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Auch wenn meine kleinen Beiträge als Nutzer oder Konsument von KI-Bildgeneratoren das Machtgefüge dahinter nicht nennenswert beeinflussen – es muss einfach nicht sein. Gerade wenn Redaktionen ihre Artikel in großem Stil mit KI bebildern, verstetigen sie den Gebrauch fragwürdiger Produkte.
3. Hinter generativer KI stecken hohe, unsichtbare Kosten

Oft sind die wahren Kosten meines privilegierten, digitalen Alltags unsichtbar, und bei den meisten Leser*innen hier dürfte es ähnlich sein. Wir tippen, streamen und surfen mit energiehungrigen Produkten aus unter anderem Plastik und Seltenerdmetallen, die durch geplante Obsoleszenz zugleich der umweltschädliche Elektroschrott von morgen sind; produziert und bis zur Haustür gebracht von oftmals schlecht behandelten Angestellten; entworfen und kontrolliert von Megakonzernen, die damit Milliarden anhäufen. Obendrauf kommen jetzt noch die Kosten für generative KI.
Es ist widersprüchlich, an einem Apple-Laptop sitzend von der Nutzung einer Technologie abzuraten, weil sie verborgene Kosten für Gesellschaft und Umwelt mit sich bringt. Denn was ich an generativer KI kritisiere, trifft auch auf meine eigenen Geräte zu. Um davon nicht völlig blockiert zu sein, will ich zwei Ebenen voneinander unterscheiden: Einerseits strukturelle Ausbeutungsverhältnisse, andererseits individuelle Konsumentscheidungen. Ersteres lässt sich nicht durch letzteres überwinden. Dennoch sind individuelle Konsumentscheidungen nicht egal. Bildgeneratoren sind noch nicht so tief in unseren Alltag gesickert wie Laptops; sie sind noch kein wichtiger Teil digitaler, gesellschaftlicher Teilhabe. Noch haben wir die Wahl.
Die Systeme hinter KI-generierten Bildern fressen Energie durch Training und Betrieb und sind deshalb klimaschädlich. Die Konzerne hinter kommerziellen Bildgeneratoren ziehen riesige Rechenzentren hoch, zapfen Atomkraftwerke an und können Menschen im Umland zur Kühlung der Server sogar das Wasser abgraben. Millionen gering bezahlte Arbeiter*innen, oftmals aus dem Globalen Süden, machen durch ihre Arbeit die Leistungen der Software überhaupt erst möglich.
Die menschliche Arbeit hinter sogenannter KI soll nicht nur bewirken, dass generierte Bilder möglichst gut aussehen, sondern auch, dass sie möglichst nicht illegal oder verstörend sind. Gewalt, Folter, Missbrauch – all das sollen Nutzer*innen am Ende nicht zu Gesicht bekommen. Dafür sichten und annotieren Angestellte im Akkord Inhalte, etwa Bilder aus dem Trainingsmaterial oder neue KI-Erzeugnisse. Solche Arbeit ist oftmals psychisch belastend, die therapeutische Begleitung schlecht. Für ihren Lohn zahlen Datenarbeiter*innen also nicht nur mit ihrer Arbeitskraft, sondern auch mit ihrer Gesundheit.
Diese und weitere Kosten verschwinden hinter den glatt designten Oberflächen der Bildgeneratoren, die per Mausklick Inhalte en masse ausspucken, als wären nur Maschinen am Werk. Ich finde: Gerade weil es leicht zugängliche KI-freie Alternativen zur Bebilderung gibt, muss man das als redaktionelles Angebot nicht aktiv unterstützen.
Ambivalenzen aushalten

Mehr als drei Jahre, nachdem ich mit Stable Diffusion einen Waschsalon im Stil von Edward Hopper erzeugt habe, wiederhole ich den Versuch. Dieses Mal mit Google Gemini Ende 2025: „Wie hätte Edward Hopper einen Waschsalon gemalt?“
Ich hoffe darauf, dass mich das Ergebnis kaltlässt, schließlich habe ich mich in diesem Text daran gemacht, Bild-Generatoren zu kritisieren und von ihrem Einsatz abzuraten. Bloß, das Gegenteil ist der Fall: Die Software erzeugt ein Bild, das mir sofort gefällt. Hätte ich es früher in einem Hopper-Sammelband gesehen, es hätte zu meinen Lieblingsmotiven gezählt. Zugleich merke ich, was für ein Luxus daraus spricht, dieses Bild generieren und genießen zu können.
KI genießen, KI ablehnen – wie lässt sich diese Ambivalenz aushalten?
Der Knackpunkt liegt für mich darin, in welcher Rolle ich mit KI-generierten Bildern umgehe. Im Fall vom Hopper-Bild entscheide ich mich als Privatperson dafür, ein problematisches Produkt wie einen Bildgenerator für eine ästhetische Erfahrung zu nutzen: Das ist reiner Luxus. Ob und wie oft man das tun möchte, darüber muss wohl jede*r für sich selbst entscheiden.
Anders ist die Lage, wenn ich in meiner Rolle als Redakteur KI-Bilder in die redaktionelle Routine integriere. Dann wären sie kein privater Luxus mehr, sondern beruflich genutzte Gebrauchsgrafiken für ein breites Publikum. Sie würden den Einsatz einer Technologie normalisieren, die ich sehr kritisch sehe. Mein Fazit: Finger weg.
Zumindest zu dokumentarischen Zwecken kommt der falsche Hopper als eingebettete Grafik in diesen Text. Typisch für Hopper sehen wir hier einen isolierten Menschen in einer urbanen Umgebung. Er scheint in sich gekehrt, als würde er dem Gefühl einer inneren Leere nachhängen. Wahrscheinlich interessiert mich dieses KI-Bild deshalb umso mehr: Weil sich auch KI-Bilder die Frage nach innerer Leere gefallen lassen müssen. Und schon sind sie nicht mehr leer.
Datenschutz & Sicherheit
Erneut heulen in Sachsen-Anhalt Sirenen ohne Grund
Alarm ohne Gefahr erst in Halle an der Saale und jetzt in Querfurt im Saalekreis: Das Landeskriminalamt (LKA) ermittelt jetzt zum zweiten unbeabsichtigten Alarm in einer Woche. Am Freitagabend habe es in Querfurt Sirenenalarm und Durchsagen gegeben, sagte ein Sprecher der Polizeiinspektion Halle. Geprüft werde, ob an der Technik manipuliert wurde. Die Stadt Querfurt hatte über ihren WhatsApp-Kanal bereits am Freitag mitgeteilt, dass es sich bei den Lautsprecherdurchsagen in der Kernstadt um eine Fehlalarmierung handele.
Weiterlesen nach der Anzeige
Erst am vorvergangenen Samstag hatte es in Halle einen großflächigen Alarm gegeben, alle betriebsfähigen Alarmsirenen im Stadtgebiet heulten minutenlang. Zusätzlich gab eine Durchsage. Die Stadt sprach danach von einem externen Angriff auf das System. Weder die Stadt noch das Land Sachsen-Anhalt oder der Bund hätten den Alarm ausgelöst. Wegen des Verdachts auf einen Cyberangriff hat dann das LKA Magdeburg die Ermittlungen übernommen.
Laut LKA nutzen Halle und Querfurt zwei unterschiedliche technische Systeme zum Betrieb von Sirenen, meldet der MDR. Nach dem derzeitigen Ermittlungsstand sei ein technischer Zusammenhang mit dem Vorfall in Halle unwahrscheinlich, heißt es dort weiter. Aktuell werde zu beiden Vorfällen in alle Richtungen ermittelt und Beweise würden gesichert. Nach einer Meldung der Mitteldeutschen Zeitung war die Sirenenanlage in Querfurt erst im Mai 2023 in Betrieb genommen worden.
(jes)
Datenschutz & Sicherheit
Mit Palantir und Paragon auf Migrantenjagd
Eine der Kritiken an neuen Überwachungswerkzeugen für Verfolgungsbehörden lautet, dass diese zunehmend auch zweckentfremdet eingesetzt werden. Oder dass autoritäre Regierungen sie nach einer Machtübernahme gegen unliebsame Gruppen oder Personen richten.
Wie real diese Befürchtungen sind, lässt sich derzeit in den USA beobachten. Dort versieht Präsident Donald Trump die Einwanderungsbehörde ICE mit immer mehr Ressourcen für ihre Jagd auf Migrant*innen, sichert ihr für Verbrechen Straffreiheit zu und schafft sich so eine eigene brutale Präsidentengarde mit modernster technischer Ausrüstung.
Mapping von Deportationskandidat*innen
Über die digitalen Überwachungsmethoden des ICE berichtet häufig das US-Investigativportal „404 Media“. Dessen jüngste Recherche zeigt, wie etwa Palantir in die Massenfestnahmen eingebunden ist. Demnach entwickelt der berüchtigte Technologiekonzern ein Werkzeug namens ELITE, mit dem die Einwanderungsbehörde eine Karte mit Adressen von potenziellen Deportationskandidat*innen erstellen kann. Die Daten stammen unter anderem vom Gesundheitsministerium, von der US-Migrationsbehörde USCIS und vom Datenanbieter Thomson Reuters.
ICE nutzt die Software angeblich, um Orte zu identifizieren, an denen möglichst viele Personen auf einen Schlag festgenommen werden könnten. Zu jeder Person kann ein Dossier sowie ein „Confidence Score“ abgerufen werden – also eine Bewertung, wie verlässlich die angegebene aktuelle Adresse einer gesuchten Person ist.
„404 Media“ stützt ihre Recherche auf interne ICE-Materialien, öffentliche Beschaffungsunterlagen und Aussagen eines ICE-Beamten. Ihre Veröffentlichung erfolgte kurz nachdem Kristi Noem, die Chefin des Heimatschutzministeriums, angekündigt hatte, Hunderte weitere Bundesagent*innen nach Minneapolis zu entsenden. Vergangene Woche erschoss der ICE-Beamte Jonathan Ross dort die 37-jährige US-Bürgerin Renee Nicole Good, als diese ihr Auto wenden und die Szenerie einer Razzia und Protesten dagegen verlassen wollte.
Daten aus Online-Werbegeschäft
Zusätzlich zur Palantir-Software kaufte ICE zwei Überwachungssysteme namens Tangles und Webloc der Firma Penlink, die Zugriff auf Standortdaten von Hunderten Millionen Handys bieten. Darüber berichtete „404 Media“ vergangene Woche in einer weiteren Recherche.
Die Systeme nutzen GPS-Koordinaten sowie WLAN- und IP-Daten. Sie stammen aus dem Online-Werbegeschäft und werden über sogenannte Software Development Kits bei der Nutzung von Apps hinterlassen. Von Datenbrokern werden sie angeblich für personalisierte Werbung gesammelt, dann aber auch mit anderem Zweck verkauft.
Ermittler*innen können in Webloc ebenfalls Gebiete auf einer Karte markieren. Das System zeigt dann alle Handys an, die sich zu diesem Zeitpunkt dort befinden. Anschließend lassen sich die Bewegungen einzelner Geräte verfolgen. So stellen die Beamt*innen fest, wohin eine bestimmte Person nach der Arbeit fährt oder wo sich nachts ihr Handy befindet, was beides auf den Standort ihrer Wohnung schließen lässt. Die Software kann auch mehrere Orte gleichzeitig überwachen und anzeigen, welche Geräte an zwei oder mehr Orten waren, etwa bei einer politischen Versammlung.
Laut einer internen ICE-Rechtsanalyse, die die Bürgerrechtsorganisation ACLU durch eine Informationsfreiheitsklage erhielt, braucht die US-Behörde für die Nutzung dieser Daten aus ihrer Sicht keine richterliche Anordnung. Die Begründung: Menschen hätten die Informationen „freiwillig“ an Dritte weitergegeben, indem sie Apps nutzten.
Spyware „Graphite“ jetzt im US-Besitz
Bekannt ist außerdem, dass ICE die Spyware „Graphite“ des Unternehmens Paragon einsetzen darf. Die Trump-Regierung genehmigte einen Vertrag, den die Biden-Administration noch blockiert hatte.
Die Software gilt als eines der leistungsfähigsten Hacking-Werkzeuge weltweit und kann sämtliche Daten auf Smartphones auslesen, einschließlich der ansonsten verschlüsselten Kommunikation über Signal oder WhatsApp. Zudem lässt sich ein Telefon durch heimliches Aktivieren des Mikrofons zur Wanze umfunktionieren.
Nach Überwachungsskandalen in mehreren EU-Staaten wurde die bis dahin israelische Spyware-Firma Paragon Solutions Ende 2024 vom US-Private-Equity-Fund AE Industrial Partners übernommen, der dafür eine halbe Million US-Dollar gezahlt haben soll. Dieser Wechsel erleichtert US-Behörden wie ICE den Einsatz der Software, obwohl größere Teile der Belegschaft weiterhin in Israel ansässig sind.
Kampagne gegen beteiligte Firmen
Weitere digitale Werkzeuge der US-Einwanderungsbehörde haben der Arbeitswissenschaftler Eric Blanc von der Rutgers University, der Gewerkschaftsorganisator Wes McEnany und Claire Sandberg, ehemalige nationale Organisationsdirektorin von Bernie Sanders’ Präsidentschaftskampagne 2020, in der US-Wochenzeitschrift „The Nation“ dokumentiert. Darin rufen sie zu einer Kampagne gegen die Firmen auf.
Als besonders verwundbar gelten den drei Autor*innen jene Unternehmen, deren Verträge mit ICE vor einer möglichen Verlängerung stehen. Dazu zählt etwa Dell mit einem Auftrag über umgerechnet 16 Millionen Euro für Microsoft-Software-Lizenzen, der im März ausläuft. Auch kleinere Verträge mit dem Paketdienst UPS und FedEx sowie dem Kommunikationsausrüster Motorola Solutions enden im Frühjahr.
Einen längerfristigen Vertrag hat ICE beispielsweise mit dem Kommunikationsdienstleister AT&T geschlossen. Er umfasst rund 70,5 Millionen Euro und könnte bis Juli 2032 laufen. Der Datenanbieter LexisNexis ermöglicht Trumps Milizen für 18 Millionen Euro Zugriff auf umfangreiche personenbezogene Daten aus öffentlichen und privaten Quellen, einschließlich Haftdaten.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Palantir liefert „ImmigrationOS“
Als einen der bedeutendsten Akteure in der ICE-Infrastruktur nennt „The Nation“ Amazon, dessen Web Services für die Daten- und Überwachungsoperationen der Behörde unerlässlich seien.
Eine besondere Rolle spielt laut Blanc, McEnany und Sandberg aber Palantir: Der Konzern stellt den US-Migrationsbehörden unter dem Namen „ImmigrationOS“ ein Rückgrat bereit, das Informationen aus verschiedenen Datenbanken und Anwendungen zusammenführt.
Mithilfe der Software können ICE-Beamt*innen ihre Operationen automatisieren – zu den Features gehören die KI-gestützte Zielpersonenpriorisierung, die Echtzeitüberwachung der Person sowie die Koordination von Festnahmen und Abschiebungen.
„ImmigrationOS“ greift dazu auf Daten der Sozialversicherungs-, der Steuer- und der Migrationsbehörden sowie staatlicher Wählerverzeichnisse zu. Für die Entwicklung des Systems Plattform erhielt Palantir 25,5 Millionen Euro.
„Außer Kontrolle geratener Zug“
Nach den jüngsten Enthüllungen von „404 Media“ hat sich die Electronic Frontier Foundation zu Wort gemeldet. Die US-Bürgerrechtsorganisation erklärt, dass sie bereits mehrere juristische Schritte gegen die Datensammelwut der Migrationsbehörden unternommen habe – darunter Klagen gegen den Zugriff von ICE auf Gesundheits- oder Steuerdaten.
Doch diese allein reichten nicht aus: Menschen müssten im öffentlichen Diskurs weiterhin Bedenken und Protest äußern, so die Electronic Frontier Foundation. Auch müsse der Kongress umgehend handeln, „um diesem außer Kontrolle geratenen Zug Einhalt zu gebieten, der die Privatsphäre und Sicherheit jeder einzelnen Person in Amerika zu zermalmen droht“.
Jedoch ist die Datensammelwut für diesen „außer Kontrolle geratenen Zug“ nicht auf die USA beschränkt. Die Regierung in Washington fordert von den mehr als 40 Teilnehmern ihres Visa-Waiver-Programms einen direkten Zugriff auf nationale Polizeidatenbanken mit biometrischen Informationen.
In Deutschland wäre dies die INPOL-Datei, in der auch weit über zwei Millionen Asylsuchende oder Ausreisepflichtige mit Fingerabdrücken und Gesichtsbildern gespeichert sind. Die EU-Staaten sind zu diesem US-Zugriff grundsätzlich bereit und haben die Kommission mit Verhandlungen über ein Rahmenabkommen beauftragt.
Datenschutz & Sicherheit
Die Woche, in der das iranische Regime tausende Demonstrierende ermordete

Liebe Leser:innen,
wir alle haben mitbekommen, wie im Iran Hunderttausende aufgestanden sind, die vierte große Protestwelle in nur zehn Jahren hat das Land erfasst. Wieder keimt die Hoffnung, dass es dieses Mal endlich gelingt, das illegitime, brutale und autoritäre Regime zu stürzen. Ich telefoniere mit einem Freund, der iranische Wurzeln hat. Wir vereinbaren, dass wir nach der Revolution direkt nach Teheran fliegen. Dieses Mal wird es klappen.
Die Proteste sind riesig – doch dann geht das Internet aus.
An diesem Punkt fange ich an, wieder einmal einen Artikel über Internetabschaltungen zu schreiben, ich erkläre das Thema in Interviews. Mein Freund hat Angst, weil dieses Mal alles abgeschaltet ist. Sogar die Festnetztelefone sind gekappt, das hat der Iran noch nie gemacht. Es ist klar, was das heißt: brutale Gewalt.
Mich bewegt das Thema persönlich, ich habe schon öfter über das Land und die Proteste berichtet, war selbst im Iran unterwegs. Ich habe dort unglaublich schöne Erfahrungen mit wundervollen Menschen gemacht. Ich habe die Wut und Verzweiflung der Menschen gespürt und ihren Mut, gegen das Regime aufzustehen. Wer einmal die Iraner:innen erlebt hat, der kann nur noch die Daumen für die Befreiung drücken. Ich mache mich mit der Sache gemein, auch als Journalist. Gerade als Journalist.
In der letzten Protestwelle im Jahr 2022 habe ich zusammen mit Kollegen über die Abschottung des iranischen Internets recherchiert. In Folge unserer Artikel wurde ein an der Abschottung beteiligtes Unternehmen von der EU und den USA sanktioniert. Doch was ist dieser kleine journalistische Beitrag angesichts der Opfer, die die Menschen dort seit Jahren bringen. Auch jetzt.
Trotz des Blackouts sind in den vergangenen Tagen grauenhafte Nachrichten durchgedrungen. Zunächst war von hunderten Toten die Rede. Kurz darauf von 2.500 ermordeten Demonstrant:innen. Und dann lese ich morgens in einem Exil-Medium, dass es sogar 12.000 sein könnten. Am Frühstückstisch kommen mir die Tränen, ich fühle mich hilflos. Es ist nicht zu fassen. Der Bruder meines iranischen Freundes hat zwei Freunde im Kugelhagel in Teheran verloren. Plötzlich sind die Leichensäcke aus den Videos ganz nah.
Im Mail-Account der Redaktion häufen sich Bitten der persischen Diaspora, doch zu berichten, etwas zu tun. So viele Zuschriften zu einem Thema hatten wir noch nie. Doch die Proteste sind offenbar vorbei, niedergeschlagen mit brutalster und hemmungsloser Gewalt.
In der Redaktionssitzung Ratlosigkeit, uns sind hier die Hände gebunden, wir haben keine gesicherten Informationen. Was können wir tun? Es fühlt sich viel zu wenig an – angesichts der wohl größten Gewaltanwendung gegen Proteste seit dem Tiananmen-Massaker in China. Gewalt gegen Menschen, die für Freiheit und Würde kämpfen.
Bleibt stark und laut
Markus Reuter
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
-
UX/UI & Webdesignvor 3 MonatenIllustrierte Reise nach New York City › PAGE online
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 3 MonatenX: Für Dauer von Bezahlabo kann man bald ungenutzte Kontonamen übernehmen
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Online Marketing & SEOvor 3 Monaten3 Creator to watch: Diese TikToker haben im September für Aufsehen gesorgt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenRybbit 2.0: Google-Analytics-Alternative mit Kartenansicht
