Datenschutz & Sicherheit
Instagram-Datenleck: Daten von 6,2 Millionen Konten bei Have-I-Been-Pwned
Bösartige Akteure haben mittels Scraping durch Instagram-Zugriffsschnittstellen (APIs) Daten von 6,2 Millionen Nutzerinnen und Nutzern des Dienstes abgegriffen und in einem Untergrundforum angeboten. Nun sind sie in der Datenbank des Have-I-Been-Pwned-Projekts (HIBP) gelandet und lassen sich dort auffinden. Zudem sind rund 672.000 Datensätze von Nutzern des Untergrundforums BreachForums dort gelandet.
Weiterlesen nach der Anzeige
Das meldet Betreiber Troy Hunt auf der Have-I-Been-Pwned-Webseite. Demnach hat ein Nutzer in einem Untergrundforum einen Datensatz mit 17 Millionen Einträgen von öffentlich zugreifbaren Instagram-Informationen angeboten. Die Daten sollen über Instagram-APIs mittels Scraping abgegriffen worden sein und aus dem Jahr 2024 stammen. Sie umfassen Nutzernamen, Anzeigenamen, Konto-IDs und in einigen Fällen geografische Daten. „Von diesen Einträgen enthielten 6,2 Millionen eine E-Mail-Adresse und einige zudem eine Telefonnummer“, schreibt Hunt. „Es gibt keine Hinweise darauf, dass Passwörter oder andere sensible Informationen kompromittiert wurden“.
Solche Informationen lassen sich insbesondere außerhalb Deutschlands leicht für SIM-Swapping-Angriffe missbrauchen, bei denen Kriminelle die Mobilnummer von Opfern kapern und damit dann Einkäufe oder andere kriminelle Aktionen tätigen. In Deutschland sind Provider unter Umständen haftbar, weshalb sie Maßnahmen ergreifen, sodass SIM-Swapping hierzulande kein signifikantes Problem darstellt.
Das Leck mit den älteren Daten hat jedoch nichts damit zu tun, dass Instagram-Nutzerinnen und Nutzer derzeit Passwort-Rücksetz-Anfragen erhalten. Laut Instagram geht das auch nicht auf einen Einbruch in die Server des Dienstes zurück, sondern darauf, dass Fremde solche Passwort-Reset-E-Mails anfordern konnten. Betroffene sollen diese E-Mails ignorieren.
BreachForums-Nutzerdaten ebenfalls geleakt
Zudem kam es bei BreachForums respektive Nachfolgeinkarnationen davon nach der erfolgreichen Übernahme durch Strafermittler im April vergangenen Jahres zu einem Datenleck im August 2025. Hunt schreibt auf der HIBP-Webseite dazu, dass 672.000 E-Mail-Adressen in allen Tabellen der Datenbank, einschließlich der Forenbeiträge und privater Nachrichten, enthalten sind. Die Nutzer-Tabelle umfasst allein 324.000 E-Mail-Adressen, Nutzernamen und Argon2-Passwort-Hashes.
Interessierte können auf der HIBP-Webseite ihre E-Mail-Adressen überprüfen und anzeigen lassen, in welchen Datenlecks sie aufgetaucht sind. Einen vergleichbaren Dienst bietet das Hasso-Plattner-Institut mit dem Identity Leak Checker an, der ebenfalls Informationen aus diversen Datenlecks sammelt.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
Anthropic-CEO nennt Vorgehen des Pentagons „vergeltend und strafend“
Anthropic-Gründer Dario Amodei hat nun öffentlich auf die Einstufung seines Unternehmens als Sicherheitsrisiko durch das US-Verteidigungsministerium reagiert. In einem Interview mit CBS, das spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war“, so Amodei.
Weiterlesen nach der Anzeige
Im Interview, das in Auszügen etwa bei YouTube zu sehen ist, stellte der Anthropic-Chef den Konflikt als Frage amerikanischer Grundwerte dar. Was man getan habe, geschah zum Wohl des Landes und zur Unterstützung der nationalen Sicherheit der USA. Die roten Linien, die Anthropic gezogen habe, seien ebenfalls Ausdruck dieser Werte.
Als das Pentagon mit der Lieferketten-Einstufung und dem Defense Production Act gedroht habe, habe Anthropic lediglich von seinem Recht auf freie Meinungsäußerung Gebrauch gemacht. „Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt“, so Amodei gegenüber CBS.
In einer Mitteilung kündigte das Unternehmen an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten. Eine solche Einstufung hat zur Folge, dass Unternehmen, die mit dem Pentagon Geschäfte machen wollten, keine Verträge mit Antrophic schließen dürften. Laut dem Antrophic-Statement auf der Unternehmenswebsite sei die Maßnahme rechtlich nicht haltbar und schaffe einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen, das mit der Regierung verhandelt.
Das sind die zwei roten Linien
Das Pentagon hatte Anthropic im Juli 2025 einen 200-Millionen-Dollar-Vertrag für die Entwicklung agentischer KI-Arbeitsabläufe zugesagt. In den anschließenden Verhandlungen forderte Anthropic jedoch Leitplanken für zwei konkrete Einsatzbereiche. Öffentlich eskalierte der Streit, als bekannt wurde, dass Anthropic-Technologie bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde – in welcher Form genau, wurde nicht offengelegt.
Weiterlesen nach der Anzeige
Wie Amodei in einem parallel veröffentlichten Blogbeitrag auf der Anthropic-Website darlegt, lehnt das Unternehmen den Einsatz von Claude für massenhafte Inlandsüberwachung sowie für vollständig autonome Waffen ab. Bei der Überwachung argumentiert Anthropic, dass KI verstreute, einzeln harmlose Daten automatisiert zu umfassenden Persönlichkeitsprofilen zusammenführen könne – in einem Ausmaß, mit dem die bestehende Gesetzgebung nicht Schritt halte.
Bei autonomen Waffen verweist das Unternehmen darauf, dass heutige KI-Systeme nicht zuverlässig genug seien, um ohne menschliche Kontrolle Ziele auszuwählen und anzugreifen. Anthropic habe dem Pentagon angeboten, gemeinsam an der Verbesserung dieser Zuverlässigkeit zu forschen – das Angebot sei laut Amodei jedoch abgelehnt worden.
Das Pentagon sieht das anders. Laut CBS News erklärte Emil Michael, Technologiechef des Pentagons, das Militär habe Anthropic gegenüber erhebliche Zugeständnisse gemacht. Man müsse dem Militär aber irgendwann zutrauen, verantwortungsvoll zu handeln.
OpenAI schnappt sich Deal
Unterdessen hat OpenAI-Chef Sam Altman auf X bekannt gegeben, dass man mit dem Pentagon eine Vereinbarung getroffen habe. Offenbar springt das Unternehmen also in Anthropics Lücke.
Altman erklärte, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. Laut Altman stimme das Kriegsministerium diesen Grundsätzen zu und wolle sie in Gesetze und Richtlinien aufnehmen.
Was allerdings konkret zwischen OpenAI und dem Pentagon vereinbart wurde, ist noch unklar.
(ssi)
Datenschutz & Sicherheit
OpenAI erhält wohl Pentagon-Auftrag nach Bruch mit Anthropic
Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe eine Vereinbarung mit dem US-Verteidigungsministerium getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI als Risiko für die nationale Sicherheit eingestuft hatte.
Weiterlesen nach der Anzeige
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.
Altman spricht von wichtigen Sicherheitsprinzipien
Nun springt offenbar OpenAI in die Lücke. „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen“, schrieb Altman bei X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.“
Streit zwischen Pentagon und Anthropic eskalierte
Weiterlesen nach der Anzeige
Im Kern hatte auch Konkurrent Anthropic auf diese beiden Punkte gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als „Supply-Chain Risk to National Security“, also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem „besseren und patriotischeren“ Anbieter zu ermöglichen.
Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
Anthropic: KI nicht verlässlich für autonome Waffen
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei in einem Blogbeitrag, dass Künstliche Intelligenz es mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, so der Anthropic-Chef.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
Details des OpenAI-Deals nicht klar
Was die Vereinbarung zwischen dem Pentagon und OpenAI nun im Detail bei den Punkten Massenüberwachung und autonome Waffen vorsieht, blieb zunächst unklar.
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – „Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte“. Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.
Der Pentagon-Beamte Michael schrieb bei X, wenn es um Leben und Tod der US-Soldaten gehe, sei es im Zeitalter von KI von entscheidender Bedeutung, einen zuverlässigen und beständigen Partner zu haben, der in gutem Glauben handele.
(ssi)
Datenschutz & Sicherheit
Die Woche, in der wir eine Blamage kommen sehen
Liebe Leser:innen,
es gibt Wochen, da zieht sich ein bestimmtes Thema über Tage bei uns durch. Und es gibt andere Wochen, da ist es nur ein Fragment, das kurz aufblitzt und hängen bleibt.
In dieser Woche war es ein Fragment. Konkret: eine Antwort des sächsischen Innenministeriums.
Das Haus von Armin Schuster (CDU) will den biometrischen Abgleich von Gesichtern und Stimmen mit Internetdaten erlauben. Eine Polizeigesetznovelle soll den Weg dafür ebnen.
Schuster begründet die neuen Befugnisse damit, dass sich „eine Blamage“ wie bei der RAF-Terroristin Daniela Klette nicht wiederholen dürfe. Klette war über Jahre untergetaucht, Hinweise auf ihren Aufenthaltsort hatten dann zwei Journalisten mit Hilfe der umstrittenen Gesichtersuchmaschine PimEyes gefunden.
Allerdings steht Schuster vor hohen Hürden. Denn für einen biometrischen Abgleich braucht sein Ministerium eigentlich eine sehr, sehr große biometrische Datenbank. Eine solche anzulegen oder zu nutzen, verbietet aber die KI-Verordnung der EU – „und zwar ausnahmslos“, wie die Nichtregierungsorganisation AlgorithmWatch in einem Gutachten festgestellt hat.
Das sächsische Innenministerium ficht das nicht an. Man werde Tools verwenden, „die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen“. Außerdem fokussiere sich die geplante Novelle „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“.
Ein biometrischer Abgleich ohne Referenzdatenbank? Das geht effektiv nicht, sagt nicht nur AlgorithmWatch, sondern schreiben auch die Wissenschaftlichen Dienste des Deutschen Bundestages in ihrem kürzlich veröffentlichten Gutachten.
Und Gefahrenabwehr wird als Argument wohl kaum ausreichen, um die KI-Verordnung auszuhebeln, falls das sächsische Innenministerium etwas derartiges plant. Eine abschließende Entscheidung über deren Auslegung obliege dem Europäischen Gerichtshof, schreiben vorausahnend die Wissenschaftlichen Dienste des Bundestages.
Ich bin gespannt, wie die Geschichte weitergeht – und wer sich am Ende wie blamiert. Haben wir hier etwas missverstanden? Hat das Ministerium die Sachlage intern noch nicht ausreichend geklärt? Oder sind das Anzeichen eines Schusterschen Trumpismus, der Expertise und rechtsstaatliche Prinzipien einfach mal über Bord wirft?
Habt ein frühlingshaftes Wochenende
Daniel
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
