Datenschutz & Sicherheit
Anthropics neues KI-Modell Mythos: Zu gefährlich für die Öffentlichkeit
Anthropic hat mit Mythos ein neues KI-Modell vorgestellt, das so gefährlich sein soll, dass es nicht öffentlich gemacht werden soll. Stattdessen soll Claude Mythos Preview im Rahmen einer Initiative namens Project Glasswing zuerst ausschließlich einer Reihe von Firmen zur Verfügung gestellt werden, die an IT-Sicherheit arbeiten. Die sollen die KI-Technik nutzen, um die „kritischste Software der Welt“ abzusichern. Das KI-Modell habe bereits tausende hochriskante Zero-Day-Lücken identifiziert, begründet Anthropic den Schritt. Solche seien in allen großen Betriebssystemen und jedem Internetbrowser, aber auch in zahlreicher anderer Software entdeckt worden. Vor allem sei Mythos Preview deutlich häufiger in der Lage, einen funktionierenden Exploit zu entwickeln.
Weiterlesen nach der Anzeige
Jahrzehntealte Lücken identifiziert
Als Beispiel listet Anthropic etwa eine seit 27 Jahren übersehene Lücke in OpenBSD auf, über die Angreifer ein Gerät aus der Ferne zum Absturz bringen könnten, „indem sie sich nur damit verbinden“. Auch von einer 16 Jahre alten Lücke in FFmpeg ist da die Rede, die bei fünf Millionen automatischen Scans mit speziellen Suchwerkzeugen nicht identifiziert worden sei. Zudem sei das Modell in der Lage gewesen, eine Reihe von bislang unbekannten Lücken im Linux-Kernel zusammenzuführen und daraus eine Attacke zu entwickeln, die es einem Angreifer ermöglichen würde, als normaler User die komplette Kontrolle über einen Rechner zu erlangen. Diese und andere Lücken seien den jeweils Verantwortlichen gemeldet worden. Anthropic hat dazu einen Blogeintrag veröffentlicht.
Der jetzt vorgestellten Initiative „Project Glasswing“ gehören demnach unter anderem Amazon Web Services (AWS), Anthropic, Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, die Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks an. 40 weitere Organisationen, die Software für kritische Infrastruktur verantworten, seien ebenfalls beteiligt. Insgesamt stellt Anthropic demnach Nutzungsrechte im Wert von bis zu 100 Millionen US-Dollar für das neue KI-Modell zur Verfügung, 4 Millionen US-Dollar sollen direkt an Betreiber von Open-Source-Software gehen. Damit soll ihnen allen ermöglicht werden, Systeme nach Schwachstellen zu durchsuchen. Die sollen geschlossen werden, bevor andere KI-Modelle zu den Fähigkeiten von Mythos aufholen.
Anthropic ist primär für seine KI Claude bekannt, die mit ChatGPT von OpenAI konkurriert. Zuletzt geriet die Firma aber durch einen Streit mit dem Pentagon in die Schlagzeilen: Anthropic lehnte den Einsatz seiner KI in autonomen Waffen oder zur Massenüberwachung in den USA ab und wurde im Gegenzug zum Sicherheitsrisiko erklärt. Dagegen geht das Unternehmen gerichtlich vor. Dem US-Magazin Platformer hat die KI-Firma erklärt, dass sie der US-Regierung bei der sicher nötigen Evaluierung von Mythos helfen könnte. Noch sei aber unklar, ob sie das Angebot annehmen würde. Unklar ist auch, ob der Plan, Sicherheitslücken mit immer mächtigeren KI-Werkzeugen jeweils rechtzeitig vor böswilligen Angreifern finden zu wollen, aufgehen kann.
(mho)
Datenschutz & Sicherheit
Social-Media-Verbot lässt Bundesregierung ahnungslos zurück
Deutsche Spitzenpolitiker*innen fordern seit Monaten ein Social-Media-Verbot für Minderjährige. Entsprechende Vorstöße gab es unter anderem vom Bundes- und Vizekanzler, vom Bundespräsidenten und von der Justiz- und Familienministerin. Höher ließe sich ein geplantes Vorhaben kaum aufhängen. Nun zeigt allerdings die Antwort der Bundesregierung auf eine Kleine Anfrage der Linken: Offenbar stehen die vielfachen Forderungen auf wackligen Füßen.
Fragen zur Forschungslage oder zur Abwägung von Grundrechten kann die Bundesregierung demnach nicht beantworten. Auch gebe es noch keine gemeinsame Position: „Der Meinungsbildungsprozess innerhalb der Bundesregierung ist noch nicht abgeschlossen“, heißt es in der Antwort auf die Fragen von Heidi Reichinnek und weiteren Abgeordneten, die wir hier veröffentlichen.
Wissenschaftliche Grundlage: Keine
Zu mehreren Anlässen hatte sich Bundesfamilienministerin Karin Prien (CDU) bereits für ein Social-Media-Verbot stark gemacht und dabei auf wissenschaftliche Erkenntnisse verwiesen. Die Linken-Abgeordneten wollten es genauer wissen: „Auf welche wissenschaftlichen Erkenntnisse stützt die Ministerin ihre jeweiligen Positionen?“
Auf diese Frage ging die Bundesregierung jedoch nicht näher ein. Wohl aber auf eine ähnliche Frage – nämlich die, welche Studien belegen, dass Social-Media-Verbote positive Auswirkungen auf das Wohlbefinden junger Menschen hätten. Die Antwort: „Nach Kenntnis der Bundesregierung liegen entsprechende belastbare Studien noch nicht vor.“
Das passt unter anderem zum Befund der Gelehrtengesellschaft Leopoldina. In einem Diskussionspapier vom August 2025 nannten die Expert*innen die Forschungslage zu den Auswirkungen sozialer Medien „unbefriedigend“. Die Frage, wie soziale Medien auf das Gehirn einwirken, sei „bislang noch kaum neurowissenschaftlich untersucht“.
Dennoch plädierte die Leopoldina für Vorsicht statt Nachsicht. Sie forderte ein Social-Media-Verbot, stützte sich dabei aber nicht auf die Forschungslage, sondern auf das „Vorsorgeprinzip“ als „ethischen Standard zum Umgang mit Unsicherheit“.
Abwägung von Grundrechten: „Dauert noch“
Ein Social-Media-Verbot für junge Menschen bis zu einer gewissen Altersgrenze greift in mehrere Grundrechte ein, dazu gehören vor allem Teilhabe und Information, aber auch die Religionsfreiheit.
Gesetze dürfen zwar in Grundrechte eingreifen, allerdings müssen sie unter anderem verhältnismäßig sein. Ob ein Social-Media-Verbot verhältnismäßig wäre, hat die Bundesregierung allerdings noch nicht geprüft, wie aus der Antwort hervorgeht. Die Prüfung „dauert noch an“.
Zweifel an der Verhältnismäßigkeit gibt es bereits, etwa von der Bundesdatenschutzbeauftragten Louisa Specht-Riemenschneider, die in einer Stellungnahme für den Thüringer Landtag Ende letzten Jahres schrieb: „Keinesfalls sollte undifferenziert für jedes soziale Medium in Gänze eine bestimmte Altersgrenze festgelegt werden.“ Kinder und Jugendliche hätten ein Recht auf soziale Teilhabe.
Beeinflussung der Expert*innen-Kommission: ¯\_(ツ)_/¯
Bis Sommer 2026 soll eine vom Familienministerium einberufene Expert*innen-Kommission Antworten zum „Kinder- und Jugendschutz in der digitalen Welt“ ausarbeiten, parallel zu einer ähnlichen Kommission auf EU-Ebene. Die wiederholten Forderungen von Spitzenpolitiker*innen nach einem Social-Media-Verbot sind an den deutschen Expert*innen jedoch nicht spurlos vorbeigegangen. Mitte März meldete sich die Co-Vorsitzende der Kommission, Nadine Schön (CDU), zu Wort und warnte:
Ich rate der Politik dringend, uns in Ruhe arbeiten zu lassen.
„Wie wird sichergestellt, dass die Expertenkommission nach den Äußerungen einiger Kabinettsmitglieder weiterhin ergebnisoffen tagt?“, wollten die Linken-Abgeordneten wissen. Die Bundesregierung antwortet knapp: „Die Expertenkommission ist unabhängig und arbeitet ergebnisoffen und evidenzbasiert.“
Minderjährige einbeziehen: Wenig
Minderjährige sitzen nicht in der Expert*innen-Kommission, sollen jedoch gehört werden, wie die Bundesregierung erklärt. Dafür solle es „bundesweit“ sechs Workshops geben. Bei den ersten beiden haben demnach zusammengerechnet 25 Kinder und Jugendliche teilgenommen.
Sollten die verbliebenen vier Workshops ähnlich frequentiert sein, hätte die Bundesregierung letztlich mit rund 75 jungen Menschen gesprochen. In Deutschland leben mehr als 10 Millionen unter 14-Jährige; quantitative Umfragen arbeiten oft mit mindestens 1.000 Befragten.
Einblicke in die Arbeit der Expert*innen-Kommission gibt es bislang keine. Nicht einmal die Liste der geladenen Sachverständigen ist öffentlich. Im Sommer erwartet die Bundesregierung die „Handlungsempfehlungen“ der Fachleute; sie sollen dann auf der Website des Familienministeriums veröffentlicht werden.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Vereinbarkeit mit EU-Recht: Punktuell
Weiter gingen die Linken-Abgeordneten auf die Vereinbarkeit eines deutschen Social-Media-Verbots mit dem EU-Recht ein. Die Wissenschaftlichen Dienste des Bundestags haben inzwischen in zwei separaten Gutachten dargelegt, dass sie dafür keine Spielräume sehen, weil EU-Recht Vorrang hat.
Die Bundesregierung antwortet ausweichend mit einem Verweis auf eine ganz bestimmte Regelung:
Die Leitlinien nach Art. 28 Absatz 4 Digital Services Act sehen in Ziffer 37 lit. d vor, dass ein nationales Mindestalter möglich ist.
Diese Regelung gibt es wirklich; sie steht in den Leitlinien der EU-Kommission zur Umsetzung des Gesetzes über digitale Dienste (DSA) für Minderjährige. Allerdings gibt die Regelung Mitgliedstaaten nicht automatisch grünes Licht für das Modell, das wichtige Politiker*innen seit Monaten fordern – also nationale Social-Media-Verbote mit Alterskontrollen nach australischem Vorbild. Dafür gibt es mehrere Gründe.
- Zunächst sind die Leitlinien rechtlich nicht bindend. Die Kommission hat sie verfasst, um klarzumachen, wie sie als Aufsichtsbehörde die korrekte Umsetzung des DSA auslegen möchte.
- Zudem sind die Leitlinien selbst widersprüchlich mit Blick auf Alterskontrollen. Einerseits empfehlen sie strenge Alterskontrollen als möglicherweise notwendige Maßnahme, um Minderjährige vor potenziell schädlichen Inhalten zu schützen. Andererseits schränken sie diese Empfehlung durch zahlreiche Bedingungen ein. Je nach Auslegung bleibt also wenig Spielraum für regelkonforme Alterskontrollen.
- Nicht zuletzt ist der Knackpunkt eines Social-Media-Verbots nach australischem Modell nicht das reine Mindestalter, sondern dessen Durchsetzung, und zwar durch flächendeckende Alterskontrollen, etwa auf Basis von Ausweispapieren oder biometrischen Gesichtsscans. Allerdings gilt nach wie vor, dass einzelne EU-Mitgliedstaaten Plattformen keine zusätzlichen Pflichten auferlegen dürfen, die über den DSA hinausgehen. Das nennt man Anwendungsvorrang.
Der DSA nennt Alterskontrollen lediglich als eine von mehreren Optionen, um Minderjährige im Netz vor Risiken zu schützen. Ohne strenge Alterskontrollen könnte ein nationales Mindestalter jedoch Gefahr laufen, symbolisch zu bleiben. Denn schon jetzt schreiben die Nutzungsbedingungen großer Social-Media-Plattformen Altersgrenzen zwischen 13 und 16 Jahren vor.
In ihrer jüngsten Analyse sehen die Jurist*innen der Wissenschaftliche Dienste das Vorhaben schon vorm Europäischen Gerichtshof landen:
Abschließend könnte über die Frage verbleibender Regelungsspielräume der Mitgliedstaaten im Bereich des Verbots bzw. der Beschränkung von Social-Media-Plattformen nur der EuGH entscheiden.
Reichinnek warnt vor „kopflosen Verboten“
Linken-Fraktionsvorsitzende Heidi Reichinnek kritisiert das Vorpreschen von Kabinettsmitgliedern in Sachen Social-Media-Verbot – während die Expert*innen-Kommission noch arbeitet. „Die Regierung führt das Konzept einer solcher Kommission komplett ad absurdum, wenn doch sowieso schon klar ist, dass das Ziel ein Social-Media-Verbot für junge Menschen ist“, erklärt sie in einem Statement gegenüber netzpolitik.org.
Die Verbote seien „kopflos“, so Reichinnek weiter; die Debatte lenke von den eigentlichen Aufgaben der Bundesregierung ab: „klare Vorgaben und Strafen für Digitalkonzerne, die Sucht fördern und Hass im Netz keinen Riegel vorschieben sowie eine bessere Ausstattung von Angeboten für Kinder und Jugendliche, die sie dabei unterstützen, einen aufgeklärten Umgang mit Medien zu lernen und ihnen bei Problemen zu helfen.“
Datenschutz & Sicherheit
Warnung aus UK: Russische Cyberkriminelle kapern Router zum Passwort-Klau
Cyberkriminelle mit Verbindungen zur russischen Regierung kapern gängige Internetrouter, um Passwörter für E-Mail-Konten und andere Online-Dienste zu stehlen. Davor warnt Großbritanniens Nationales Zentrum für Cybersicherheit (NCSC) in einer am Dienstag veröffentlichten Studie.
Weiterlesen nach der Anzeige
Die britischen Cybersicherheitsexperten gaben bekannt, dass mutmaßliche russische Angreifer sich Zugang zu Routern von Herstellern wie MikroTik und TP-Link verschaffen, um den ausgehenden Internetverkehr über von ihnen kontrollierte Server umzuleiten. Die Betroffenen seien durch den Diebstahl von Zugangsdaten, Datenmanipulation und umfassendere Sicherheitslücken gefährdet.
Verantwortlich hält das NCSC die als Advanced Persistent Threat 28 (APT28) bezeichnete Gruppe, auch bekannt als Forest Blizzard, Fancy Bear, STRONTIUM, die Sednit-Gang und Sofacy. „Wir gehen davon aus, dass es sich bei APT28 mit hoher Wahrscheinlichkeit um die 85. Hauptabteilung für Spezialdienste (GTsSS) des russischen Generalstabsnachrichtendienstes (GRU) (…) handelt“, heißt es in der Studie. Die Gruppe soll für mehrere Cyberattacken auch in Deutschland verantwortlich sein, darunter im Jahr 2024 auf die Deutsche Flugsicherung und im vergangenen Jahr auf den Deutschen Bundestag. Das NCSC schreibt in seiner Studie der Gruppe zudem Cyberangriffe auf den Deutschen Bundestag im Jahr 2015 zu, darunter Datendiebstahl und die Störung von E-Mail-Konten von Bundestagsabgeordneten und des Vizekanzlers.
Tausende potenzielle Opfer
NCSC-Einsatzleiter Paul Chichester erklärte gegenüber der Nachrichtenagentur Bloomberg, die nun öffentlich gemachten Attacken auf Internetrouter zeigten, dass Schwachstellen in gängigen Routern von versierten Angreifern ausgenutzt werden können.
Bloomberg berichtete zudem über ebenfalls am Dienstag von Black Lotus Labs des IT-Sicherheitsanbieters Lumen Technologies veröffentlichte Forschungsergebnisse zu den Router-Angriffen durch APT28. Danach wurden Tausende potenzielle Opfer aus mindestens 120 Ländern identifiziert, die mit der Infrastruktur der Cyberkriminellen kommunizierten. „Diese Angriffe richteten sich vorwiegend gegen Regierungsbehörden – darunter Außenministerien, Strafverfolgungsbehörden und Drittanbieter von E-Mail-Diensten“, heißt es in dem Bericht, der Bloomberg vorliegt.
Die Anfälligkeit von Internetroutern für Cyberangriffe ist zuletzt verstärkt in den Fokus gerückt. Ende März verbot die US-amerikanische Regulierungsbehörde Federal Communications Commission (FCC) in einem vielbeachteten Schritt den Verkauf neuer Router für den Verbrauchermarkt, sofern sie nicht in den USA hergestellt sind. Die Behörde begründete das umfassende Verbot mit Fragen der nationalen Sicherheit.
Weiterlesen nach der Anzeige
(akn)
Datenschutz & Sicherheit
Big Tech will ohne Rechtsgrundlage weiterscannen
Am vergangenen Samstag ist die europäische Ausnahmeregelung zum Scannen von privater Kommunikation nach Inhalten sexualisierten Kindesmissbrauchs – die sogenannte „freiwillige Chatkontrolle“ oder Chatkontrolle 1.0 – ausgelaufen. Die Tech-Konzerne Google, Meta, Microsoft und Snapchat wollen aber dennoch weiter die Kommunikation ihrer Nutzer:innen massenhaft und anlasslos nach solchen Inhalten durchsuchen. Das verkündeten die Unternehmen am 4. April in einer gemeinsamen Erklärung. Wie genau die Unternehmen die Maßnahmen fortsetzen wollen, ließen sie allerdings offen.
Das Auslaufen der Ausnahmeregelung „trübe“ die Rechtssicherheit, so die vier Konzerne, die sich enttäuscht über das „unverantwortliche Versäumnis“ zeigen. In der Erklärung heißt es weiter, dass man „weiterhin freiwillige Maßnahmen in Bezug auf unsere relevanten Dienste für die interpersonale Kommunikation ergreifen“ werde. Die Konzerne fordern zudem die EU-Institutionen auf, die Verhandlungen über einen Rechtsrahmen abzuschließen.
In einem Schreiben vom 25. März hatten mehrere EU-Kommissare, unter ihnen der Innenkommissar Magnus Brunner, in einem Schreiben an EU-Abgeordnete gewarnt, dass es nach dem 3. April den Anbietern gemäß der ePrivacy-Richtlinie untersagt sei, Material über sexuellen Kindesmissbrauch im Internet nach eigenem Ermessen aufzuspüren und zu melden. In der heutigen Pressekonferenz wollte die EU-Kommission allerdings nicht auf die Frage antworten, ob die eigenmächtige Fortführung der freiwilligen Chatkontrolle durch die Unternehmen gegen EU-Regeln verstoßen würde.
Scheitern mit Ansage
Das Scheitern der freiwilligen Chatkontrolle war vor allem durch die fehlende Verhandlungsbereitschaft des Rates im Trilog zustande gekommen, wie Dokumente belegen, die netzpolitik.org veröffentlicht hat. Das Parlament hatte zuvor dafür gestimmt, dass die freiwillige Chatkontrolle nicht mehr anlasslos sein sollte, sondern nur noch auf Verdacht. Die Mitgliedsstaaten, darunter auch Deutschland, wollten jedoch die Anlasslosigkeit beibehalten. Nach dem Scheitern des Trilogs hatten die Konservativen im EU-Parlament das Thema mit einem Verfahrenstrick noch einmal auf die parlamentarische Agenda gehoben – und waren dort gescheitert.
Die freiwillige Chatkontrolle wird unterschiedlich bewertet. Die Befürworter:innen halten sie für unverzichtbar, um Inhalte und Kriminelle aus dem Bereich des sexualisierten Kindesmissbrauchs ausfindig zu machen. Kritiker:innen weisen darauf hin, dass es sich um bekanntes Material handele und dass man damit keinen laufenden Kindesmissbrauch stoppe. Sie verweisen zudem darauf, dass das anlasslose Scannen von Kommunikation ein tiefer Eingriff in Grundrechte ist.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Der ehemalige Piraten-Europaabgeordnete Patrick Breyer nannte das Aus der anlasslosen Chatkontrolle in einer Pressemitteilung keinen Rückschlag, „sondern eine Chance für echten Kinderschutz“. Statt Massenüberwachung solle auf „Löschen statt Wegsehen“, auf sicheres Design bei Apps, mehr Prävention an Schulen sowie einer Stärkung der Ermittlungsbehörden gesetzt werden.
Verhandlungen über CSA-Verordnung
Ungleich wichtiger als die Ausnahmeregelung der Chatkontrolle 1.0 ist die CSA-Verordnung, welche auch die verpflichtende Chatkontrolle 2.0 enthalten könnte, über die seit vier Jahren gestritten wird. Durch ein eingestuftes Ratsprotokoll vom 13. März, das wir im Volltext veröffentlicht haben, wurde deutlich, dass die EU-Mitgliedstaaten Kompromisse bei der temporären freiwilligen Chatkontrolle 1.0 offenbar als eine Art Vorentscheidung für die weitaus wichtigeren Verhandlungen zur CSA-Verordnung und damit für eine permanente Regelung (Chatkontrolle 2.0) sehen.
Knackpunkt bei der CSA-Verordnung ist die verpflichtende Chatkontrolle. Der EU-Kommission möchte, dass dabei auch verschlüsselte Kommunikationen durchleuchtet werden. Das Parlament hat dies bisher abgelehnt und Maßnahmen nur auf Verdacht gefordert. Auch im EU-Rat hat die anlasslose Chatkontrolle bislang keine qualifizierte Mehrheit gefunden. Die drei Institutionen sind derzeit im Trilog und verhandeln über die Verordnung.
Für die Chatkontrolle nach Wunsch der EU-Kommission wäre Technologie namens Client-Side-Scanning nötig, welche vor der Verschlüsselung Inhalte auf dem Handy oder Computer scannt. Wäre diese Technologie einmal eingeführt, ist verschlüsselte Kommunikation wertlos, weil die Inhalte schon vor dieser angeschaut werden könnten. Es wäre das Ende der privaten und vertraulichen Kommunikation. Wir haben zusammengestellt, warum dies für uns alle gefährlich ist.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Entwicklung & Codevor 4 WochenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
