Datenschutz & Sicherheit
Die Woche, in der Politiker*innen auf X den Deepfakes zusahen

Liebe Leser*innen,
in der zweiten Woche des Jahres hat uns unter anderem die anhaltende Tatenlosigkeit zum Chatbot Grok beschäftigt. Seit wir am Mittwoch über Musks polemische Reaktion und die leeren Worte der Sprecher*innen von X berichtet haben, geht die Woche ohne nennenswerte Reaktion der dort Verantwortlichen zu Ende.
Dafür hielt der Freitag ein Update des Chatbots bereit: Die Bildgenerierung von Grok ist nun nur noch zahlenden Abonnent*innen vorenthalten und steht nicht mehr allen Menschen auf der Plattform X zur Verfügung. Laut den Medienberichten ist das Tool aber noch über die Grok-App und -Website verfügbar. In Zukunft heißt es dann einfach: Wer in Musks dicke Tasche einzahlt oder einen kleinen Umweg nimmt, kann weiter sexualisierte Deepfakes verbreiten.
Die Frage bleibt, wie lange Regulierungsbehörden noch bei so etwas zusehen oder ob sie doch irgendwann in Aktion treten.
In den vergangenen Tagen war besonders Kritik aus Frankreich und Großbritannien gegenüber X laut zu hören. Der britischen Kommunikationsbehörde Ofcom steht inzwischen frei, Sanktionen gegen xAI und Grok zu verhängen. Laut des britischen Online Safety Act ist als letzter Schritt sogar eine Sperre von X möglich.
Die EU-Kommission geht einen anderen Weg. Sie hat am Donnerstag bei Musks Unternehmen angewiesen, dass dieses interne Dokumente und Daten zu Grok bis Ende 2026 aufbewahren muss. Zu einem späteren Zeitpunkt könnte dann eine Untersuchung beginnen.
Politiker*innen hängen zu sehr an der Plattform
Das eigentlich Verwunderliche an dieser neuen Episode des Absturzes der einstigen Informationsplattform ist jedoch die eher achselzuckende Reaktion von Abgeordneten, Bundesministerien und auch der EU-Kommission. Sie posten einfach weiter auf der Plattform X, als sei in den vergangenen Jahren, Monaten und Wochen nichts passiert.
Sie tun so, als habe Musk nicht X um eine funktionierende Moderation beraubt, als habe es keine Eingriffe des Milliardärs in Wahlkämpfe zu Gunsten rechter Parteien gegeben, als sei X noch eine normale Plattform und nicht ein Instrument zum Pushen rechtsradikaler Narrative geworden. Nun kommt also sexualisierte digitale Gewalt direkt aus Musks Chatbot dazu – und Ministerien und Abgeordnete berufen sich auf eine angebliche Informationspflicht, die sie quasi zum Bleiben auf der Plattform zwinge. Dabei gibt es seit Musks Plattformübernahme zahlreiche bekannte Stimmen und Institutionen, die einfach Schluss mit X gemacht haben.
Wir haben Bundestagsabgeordnete, zwei deutsche Ministerien und die EU-Kommission gefragt, warum sie immer noch auf X aktiv sind: Mehr Lavieren als in diesen Antworten geht kaum.
Euch ein schönes Wochenende mit Schneespaziergängen statt X
Laura
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Datenschutz & Sicherheit
Anthropic-CEO nennt Vorgehen des Pentagons „vergeltend und strafend“
Anthropic-Gründer Dario Amodei hat nun öffentlich auf die Einstufung seines Unternehmens als Sicherheitsrisiko durch das US-Verteidigungsministerium reagiert. In einem Interview mit CBS, das spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war“, so Amodei.
Weiterlesen nach der Anzeige
Im Interview, das in Auszügen etwa bei YouTube zu sehen ist, stellte der Anthropic-Chef den Konflikt als Frage amerikanischer Grundwerte dar. Was man getan habe, geschah zum Wohl des Landes und zur Unterstützung der nationalen Sicherheit der USA. Die roten Linien, die Anthropic gezogen habe, seien ebenfalls Ausdruck dieser Werte.
Als das Pentagon mit der Lieferketten-Einstufung und dem Defense Production Act gedroht habe, habe Anthropic lediglich von seinem Recht auf freie Meinungsäußerung Gebrauch gemacht. „Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt“, so Amodei gegenüber CBS.
In einer Mitteilung kündigte das Unternehmen an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten. Eine solche Einstufung hat zur Folge, dass Unternehmen, die mit dem Pentagon Geschäfte machen wollten, keine Verträge mit Antrophic schließen dürften. Laut dem Antrophic-Statement auf der Unternehmenswebsite sei die Maßnahme rechtlich nicht haltbar und schaffe einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen, das mit der Regierung verhandelt.
Das sind die zwei roten Linien
Das Pentagon hatte Anthropic im Juli 2025 einen 200-Millionen-Dollar-Vertrag für die Entwicklung agentischer KI-Arbeitsabläufe zugesagt. In den anschließenden Verhandlungen forderte Anthropic jedoch Leitplanken für zwei konkrete Einsatzbereiche. Öffentlich eskalierte der Streit, als bekannt wurde, dass Anthropic-Technologie bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde – in welcher Form genau, wurde nicht offengelegt.
Weiterlesen nach der Anzeige
Wie Amodei in einem parallel veröffentlichten Blogbeitrag auf der Anthropic-Website darlegt, lehnt das Unternehmen den Einsatz von Claude für massenhafte Inlandsüberwachung sowie für vollständig autonome Waffen ab. Bei der Überwachung argumentiert Anthropic, dass KI verstreute, einzeln harmlose Daten automatisiert zu umfassenden Persönlichkeitsprofilen zusammenführen könne – in einem Ausmaß, mit dem die bestehende Gesetzgebung nicht Schritt halte.
Bei autonomen Waffen verweist das Unternehmen darauf, dass heutige KI-Systeme nicht zuverlässig genug seien, um ohne menschliche Kontrolle Ziele auszuwählen und anzugreifen. Anthropic habe dem Pentagon angeboten, gemeinsam an der Verbesserung dieser Zuverlässigkeit zu forschen – das Angebot sei laut Amodei jedoch abgelehnt worden.
Das Pentagon sieht das anders. Laut CBS News erklärte Emil Michael, Technologiechef des Pentagons, das Militär habe Anthropic gegenüber erhebliche Zugeständnisse gemacht. Man müsse dem Militär aber irgendwann zutrauen, verantwortungsvoll zu handeln.
OpenAI schnappt sich Deal
Unterdessen hat OpenAI-Chef Sam Altman auf X bekannt gegeben, dass man mit dem Pentagon eine Vereinbarung getroffen habe. Offenbar springt das Unternehmen also in Anthropics Lücke.
Altman erklärte, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. Laut Altman stimme das Kriegsministerium diesen Grundsätzen zu und wolle sie in Gesetze und Richtlinien aufnehmen.
Was allerdings konkret zwischen OpenAI und dem Pentagon vereinbart wurde, ist noch unklar.
(ssi)
Datenschutz & Sicherheit
OpenAI erhält wohl Pentagon-Auftrag nach Bruch mit Anthropic
Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe eine Vereinbarung mit dem US-Verteidigungsministerium getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI als Risiko für die nationale Sicherheit eingestuft hatte.
Weiterlesen nach der Anzeige
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.
Altman spricht von wichtigen Sicherheitsprinzipien
Nun springt offenbar OpenAI in die Lücke. „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen“, schrieb Altman bei X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.“
Streit zwischen Pentagon und Anthropic eskalierte
Weiterlesen nach der Anzeige
Im Kern hatte auch Konkurrent Anthropic auf diese beiden Punkte gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als „Supply-Chain Risk to National Security“, also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem „besseren und patriotischeren“ Anbieter zu ermöglichen.
Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
Anthropic: KI nicht verlässlich für autonome Waffen
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei in einem Blogbeitrag, dass Künstliche Intelligenz es mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, so der Anthropic-Chef.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
Details des OpenAI-Deals nicht klar
Was die Vereinbarung zwischen dem Pentagon und OpenAI nun im Detail bei den Punkten Massenüberwachung und autonome Waffen vorsieht, blieb zunächst unklar.
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – „Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte“. Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.
Der Pentagon-Beamte Michael schrieb bei X, wenn es um Leben und Tod der US-Soldaten gehe, sei es im Zeitalter von KI von entscheidender Bedeutung, einen zuverlässigen und beständigen Partner zu haben, der in gutem Glauben handele.
(ssi)
Datenschutz & Sicherheit
Die Woche, in der wir eine Blamage kommen sehen
Liebe Leser:innen,
es gibt Wochen, da zieht sich ein bestimmtes Thema über Tage bei uns durch. Und es gibt andere Wochen, da ist es nur ein Fragment, das kurz aufblitzt und hängen bleibt.
In dieser Woche war es ein Fragment. Konkret: eine Antwort des sächsischen Innenministeriums.
Das Haus von Armin Schuster (CDU) will den biometrischen Abgleich von Gesichtern und Stimmen mit Internetdaten erlauben. Eine Polizeigesetznovelle soll den Weg dafür ebnen.
Schuster begründet die neuen Befugnisse damit, dass sich „eine Blamage“ wie bei der RAF-Terroristin Daniela Klette nicht wiederholen dürfe. Klette war über Jahre untergetaucht, Hinweise auf ihren Aufenthaltsort hatten dann zwei Journalisten mit Hilfe der umstrittenen Gesichtersuchmaschine PimEyes gefunden.
Allerdings steht Schuster vor hohen Hürden. Denn für einen biometrischen Abgleich braucht sein Ministerium eigentlich eine sehr, sehr große biometrische Datenbank. Eine solche anzulegen oder zu nutzen, verbietet aber die KI-Verordnung der EU – „und zwar ausnahmslos“, wie die Nichtregierungsorganisation AlgorithmWatch in einem Gutachten festgestellt hat.
Das sächsische Innenministerium ficht das nicht an. Man werde Tools verwenden, „die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen“. Außerdem fokussiere sich die geplante Novelle „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“.
Ein biometrischer Abgleich ohne Referenzdatenbank? Das geht effektiv nicht, sagt nicht nur AlgorithmWatch, sondern schreiben auch die Wissenschaftlichen Dienste des Deutschen Bundestages in ihrem kürzlich veröffentlichten Gutachten.
Und Gefahrenabwehr wird als Argument wohl kaum ausreichen, um die KI-Verordnung auszuhebeln, falls das sächsische Innenministerium etwas derartiges plant. Eine abschließende Entscheidung über deren Auslegung obliege dem Europäischen Gerichtshof, schreiben vorausahnend die Wissenschaftlichen Dienste des Bundestages.
Ich bin gespannt, wie die Geschichte weitergeht – und wer sich am Ende wie blamiert. Haben wir hier etwas missverstanden? Hat das Ministerium die Sachlage intern noch nicht ausreichend geklärt? Oder sind das Anzeichen eines Schusterschen Trumpismus, der Expertise und rechtsstaatliche Prinzipien einfach mal über Bord wirft?
Habt ein frühlingshaftes Wochenende
Daniel
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
