Datenschutz & Sicherheit
Social-Media-Verbot ist nicht die beste Lösung
Die Frage nach einem Social-Media-Verbot für Kinder und Jugendliche spaltet: Australien hat es, Frankreich plant es, Fachleute warnen – und Deutschland überlegt.
Es geht um die Frage, ob Plattformen per Gesetz dazu verpflichtet werden, Minderjährige fernzuhalten. Dafür müssten sie wahrscheinlich in großem Stil Ausweise prüfen und Gesichter biometrisch erfassen, um die Hürden möglichst hoch zu setzen. Die Hoffnung ist, Kinder und Jugendliche auf diesem Weg vor den vielfältigen Gefahren des Internets zu bewahren.
„Es wird über Kinder gesprochen – aber selten mit ihnen“, konstatieren die Marktforschenden von KB&B aus Hamburg. Im vergangenen Dezember hat die Agentur deshalb 362 Kinder und Jugendliche zwischen acht und 17 Jahren zu Social-Media-Regulierung befragt, außerdem 513 Eltern von Kindern und Jugendlichen dieser Altersgruppe. Die Ergebnisse hat KB&B auf 38 Seiten aufbereitet.
Die Umfrage ist nicht repräsentativ; gerade nach Auffächerung in Altersgruppen ist die Anzahl der befragten Minderjährigen gering. Dennoch lassen sich Tendenzen ablesen.
„Eine gewisse Online-Affinität der Teilnehmenden ist bei Online-Panelstudien grundsätzlich anzunehmen“, ordnet Forschungsleiter Malte Pingel die Ergebnisse auf Anfrage von netzpolitik.org ein. „In den Daten zeigen sich zudem ein überdurchschnittlich hoher Bildungsstand der Eltern sowie ein höherer Anteil von Müttern. Beides kann Einstellungen zu Regulierung und Erziehungspraktiken beeinflussen.“
Die meisten befragten Familien haben bereits Regeln
Mit Social Media verbinden Eltern und Kinder nicht dasselbe. Zwar sind beide Generationen in großer Mehrheit auf WhatsApp unterwegs. Auch YouTube und Instagram kennen viele. Die Eltern sind jedoch exklusiv in großer Zahl auf Facebook unterwegs; kaum aber auf TikTok und Snapchat, wo sich viele Kinder und Jugendliche tummeln.
Wenig überraschend nutzen Kinder und Jugendliche Social Media umso mehr, je älter sie werden: Gut die Hälfte der 11- bis 13-jährigen Befragten nutzt es täglich, bei 14- bis 17-Jährigen sind es schon 85 Prozent.
Die meisten Familien haben bereits feste Regeln für Social Media, wie die Umfrage zeigt. Nur 24 Prozent der Eltern und 15 Prozent der Minderjährigen sagen, es gebe keine. Zu den häufigsten Regeln gehört die zeitliche Begrenzung für Social Media, etwa eine maximale Stundenzahl pro Tag oder Woche. Diese Regel geben 43 Prozent der Eltern an sowie 36 Prozent der Minderjährigen.
Ähnlich häufig ist die Regel, bestimmte Apps einzuschränken, zum Beispiel: kein TikTok (Eltern: 39 Prozent; Minderjährige: 46 Prozent). Knapp ein Drittel der Eltern sagt, sie kontrollieren regelmäßig, was ihr Kind auf Social Media macht. Knapp jede*r fünfte befragte Minderjährige sagt: „Es gibt Regeln, aber ich halte mich nicht immer daran.“
Viele Eltern sind für ein Verbot, viele Kinder dagegen
Das derzeit viel diskutierte Social-Media-Verbot bekommt von Eltern mehrheitlich Zustimmung – zumindest, wenn man sie gesondert danach fragt. Die Frage „Wie stehst du generell zu der Idee, Social Media für Kinder und Jugendliche unter 16 Jahren gesetzlich zu verbieten?“ beantworteten rund sechs von zehn der befragten Eltern mit „finde ich sehr gut“ oder „eher gut“.
Der Nachwuchs sieht das mehrheitlich anders. 43 Prozent der befragten Minderjährigen finden ein Social-Media-Verbot „sehr schlecht“ oder „eher schlecht“. Ein knappes Drittel ist unentschieden. Nur rund zwei von zehn fänden das Verbot sehr gut oder eher gut.
Ein Generationenkonflikt? Dieser Eindruck hängt offenbar sehr von der Fragestellung ab. Sobald man das Thema nicht mehr auf ein Social-Media-Verbot zuspitzt, werden mehr Gemeinsamkeiten sichtbar. Gerade im Vergleich mit anderen Möglichkeiten stellt sich das Social-Media-Verbot als weniger beliebt heraus.
Alternativen zum Social-Media-Verbot sind beliebter
Die Marktforschenden haben die Eltern auch offener gefragt, welche Lösung sie persönlich am besten fänden, wenn es neue Regeln für Social Media gäbe. Analog dazu sollten die Kinder und Jugendlichen sagen, welche neuen Regeln sie am fairsten fänden.
Bei dieser Fragestellung schneidet das Social-Media-Verbot schon schlechter ab. Jedes vierte befragte Elternteil findet demnach ein komplettes Verbot von Social Media unter 16 Jahren am besten; weitere 10 Prozent sprechen sich für ein Verbot aus, das Eltern im Einzelfall wieder aufheben dürfen. Bei den befragten Minderjährigen findet knapp jede*r zehnte ein hartes Verbot am fairsten; weitere 16 Prozent finden eine mögliche Aufhebung des Verbots durch Eltern fair.
Die beliebteste Social-Media-Regelung der befragten Eltern (42 Prozent) ist allerdings kein Verbot, sondern nach Altersstufen eingeschränkte Funktionen – zum Beispiel kein Direktchat und keine öffentlichen Profile für unter 16-Jährige. Das fänden immerhin 24 Prozent der befragten Minderjährigen am fairsten.
Im Ranking oben ist neben den bereits erwähnten eingeschränkten Funktionen für Minderjährige noch der Wunsch, dass Plattformen mehr Kinderschutz-Einstellungen bieten. Rund jede*r vierte Minderjährige möchte keine neue Regulierung von außerhalb: „Jede Familie soll das selbst entscheiden“.
Kinder wollen weniger Mobbing
Weitere Fragen der Forschenden drehten sich darum, welche Vorteile Eltern, Kinder und Jugendliche überhaupt in einer möglichen Regulierung sehen. Dabei zeigten sich deutliche Unterschiede zwischen den Generationen.
Die von Kindern und Jugendlichen genannten Vorteile drehen sich vor allem um zwischenmenschliche Aspekte: 44 Prozent fänden „weniger gemeine Kommentare oder Mobbing“ gut, 43 Prozent „mehr Zeit für Hobbys, Schule, Sport und echte Treffen mit Freund:innen“, 38 Prozent „weniger Streit mit Eltern wegen Social Media“.
Bei den befragten Eltern ist die Priorität anders. Die meisten (77 Prozent) sehen als Vorteil „Schutz vor unangemessenen oder verstörenden Inhalten“. Diese Erwachsenen-Perspektive spiegelt sich auch in öffentlichen Debatten zu Alterskontrollen wieder, in denen ältere Menschen oftmals vor Inhalten wie Pornos oder Gewalt warnen.
Wir sind ein spendenfinanziertes Medium
Unterstütze auch Du unsere Arbeit mit einer Spende.
Der mehrheitlich gleichen Meinung sind Eltern, Kinder und Jugendliche wiederum bei den Nachteilen einer Social-Media-Regulierung. Rund sechs von zehn Eltern sagen: „Kinder würden Wege finden, Verbote zu umgehen“; und rund jede*r zweite Minderjährige sagt: „Viele würden trotzdem heimlich Social Media nutzen“. Weiter sorgen sich 45 Prozent der befragten Minderjährigen darum, bei einer Regulierung schlechter mit Freund*innen in Kontakt bleiben zu können.
Kinder und Eltern wollen nicht, dass der Staat allein bestimmt
Jede Regel muss sich die Frage gefallen lassen, wer sie überhaupt durchsetzen soll. Die Umfrage der Marktforschenden zeigt: Eltern wollen hier nicht aus der Verantwortung genommen werden – und auch Kinder und Jugendliche möchten sich an ihre Eltern wenden.
Konkret wollten die Marktforschenden wissen: „Wer sollte aus deiner Sicht hauptsächlich darüber entscheiden, wie Social Media für Kinder und Jugendliche geregelt wird?“ Von den befragten Eltern will die große Mehrheit mitreden (84 Prozent). Jedes vierte Elternteil sieht sogar die Eltern allein in der Hauptrolle. Ebenso viele Eltern finden, das müssten sie und der Staat gemeinsam verantworten. Gut jedes dritte Elternteil sieht sich, den Staat und Plattformen in der Verantwortung.
Deutlich zurücknehmen wollen sich nur 16 Prozent der befragten Eltern, die sagen: Nicht sie selbst, sondern Staat oder Plattformen sollten hauptsächlich entscheiden.
Eine starke Elternrolle befürworten auch die befragten Kinder und Jugendlichen. Rund jede*r zweite Minderjährige sagt, Kinder und Eltern sollten gemeinsam bestimmen, wie Social Media geregelt wird; rund jede*r fünfte sieht Eltern, Politik und Plattformen gemeinsam in dieser Rolle. Nur sechs Prozent wollen ihre Eltern da rauslassen und finden, das sollten vor allem Politik oder Plattformen regeln.
Bundesregierung will auf Expert*innen-Kommission warten
Zum Abschluss ihrer Auswertung weisen die Marktforschenden darauf hin, dass nicht nur das Alter die Einstellungen zu Social Media bestimmt, sondern auch, wie viel Menschen dort selbst unterwegs sind. Die Zustimmung für ein Verbot ist demnach besonders hoch unter Jugendlichen, die Social Media nicht nutzen und es auch nicht möchten (53 Prozent). Von den täglichen Nutzer*innen befürwortet nur jede*r zehnte ein Verbot.
Um die Tendenzen aus der Umfrage auf eine breitere Grundlage zu stellen, bräuchte es größer angelegte Studien. Im September 2025 hat die Bundesregierung eine Expert*innen-Kommission einberufen, die ein Jahr lang notwendige Schritte für einen effektiven Kinder- und Jugendmedienschutz prüfen soll.
Der Spielraum dafür ist durch bereits bestehende Gesetze begrenzt: Für ein pauschales Social-Media-Verbot nach australischem Vorbild gäbe es im EU-Recht hohe Hürden, auch wenn einzelne Mitgliedstaaten wie Frankreich das gerade anstoßen wollen.
Andererseits haben Deutschland und die EU selbst ohne neue Normen bereits einen großen Werkzeugkasten für Jugendschutz im Netz. Durch das noch relativ neue Gesetz über digitale Dienste (DSA) lassen sich Anbieter unter Androhung von Strafen in die Pflicht nehmen: Sie müssen spezifische Risiken ihrer Dienste für Minderjährige einschätzen und mindern. Auf diese Weise ließen sich die von den befragten Eltern, Jugendlichen und Kinder favorisierten Regulierungen aufgreifen, etwa eingeschränkte Funktionen und Kinderschutz-Einstellungen.
Datenschutz & Sicherheit
Trugbild: Flucht aus der Entfremdung

Ein Pinguin verlässt seine Kolonie am Südpol. Zielstrebig läuft er in Richtung der Berge. Es ist ein einsamer Gang in den sicheren Tod. „Aber warum?“, fragt Werner Herzog gewohnt dramatisch, während er den über das Eis wandernden Pinguin mit der Kamera festhält. Die Szene stammt aus seinem Dokumentarfilm „Begegnungen am Ende der Welt“ aus dem Jahr 2007.
Knapp zwanzig Jahre nach seinem ersten Auftritt geht der Pinguin viral. In den sozialen Medien setzt sich der Spitzname „Nihilist Penguin“ durch. Die Kommentarspalten lassen darauf schließen, dass sich Tausende Menschen in dem selbstmörderischen Vogel wiedererkennen. Es ist nicht das erste Mal, dass ein derartiges Verhalten im Netz als Spektakel romantisiert wird.
Fragwürdige Idole
Kurz vor der berühmt gewordenen Szene fragt Werner Herzog in der Doku einen Tierforscher, ob Pinguine wahnsinnig werden können, wenn sie genug von ihrer Kolonie haben. „Sie verlieren die Orientierung und landen dort, wo sie eigentlich nicht sein sollten“, antwortet der Forscher lakonisch.
Auf YouTube, TikTok und Instagram interpretieren viele Nutzer den Pinguin dagegen als einen mutigen Ausreißer, der sich aus den Fesseln der Gesellschaft befreit. „Dieser Pinguin ging nicht in die Berge, um zu sterben. Er machte diese Reise, um zu leben“, vermutet etwa ein Zuschauer. „Die Menschen verstehen die Abgründe der Kolonie nicht. Gesichtslos, starr, monoton“, ergänzt ein anderer. Wenige Tage nach dem viralen Erfolg des Pinguins gab es bereits T-Shirts zu kaufen mit der Aufschrift „Colony Dropout“.
Die mit unzähligen Daumen nach oben versehenen Beiträge heben den Pinguin damit auf eine Ebene mit fragwürdigen Internet-Idolen wie Marvin Heemeyer oder Richard Russell.
Heemeyer ist zu zweifelhaftem Ruhm gelangt, weil er mit einer modifizierten Planierraupe mehrere Gebäude, darunter das Haus des ehemaligen Bürgermeisters und die Polizeistation, im US-amerikanischen Ort Granby zerstörte. Anschließend erschoss sich der Täter. Seine Fans übernahmen den von den Medien etablierten Spitznamen „Killdozer“ für ihn. „Ist es nicht irre, wie viel besser du diesen Mann verstehst, je älter du wirst?“, sagt ein Bewunderer über den Killdozer und sammelt dafür über zwanzigtausend Likes auf YouTube.
Richard „Sky King“ Russell gehörte dem Bodenpersonal auf einem internationalen Flughafen in Seattle an. Der 28-Jährige entwendete dort ein unbesetztes Flugzeug und steuerte die Maschine nach einem 70-minütigen „Ausflug“ auf eine dünn besiedelte Insel. Den Absturz überlebte er nicht. Im Gespräch mit dem Kontrollturm sagte Russell zuvor: „Ich habe nicht geplant, wieder zu landen.“
In den sozialen Medien wurde er dafür ähnlich gefeiert wie Heemeyer und der Pinguin. Unter pathetischen Gedenkvideos und Lobreden am Jahrestag von Russells Flug, unter anderem von einem Kongressmitglied, finden sich Sprüche wie: „Am Boden war er tot, als er abhob, war er lebendig.“
Aus der Entfremdung ausbrechen wollen
Unter den Videos taucht immer wieder ein Zitat der Anime-Serie Cowboy Bebop auf: „Ich gehe da nicht hin, um zu sterben. Ich will herausfinden, ob ich wirklich lebe.“ Das Gefühl der Entfremdung ist offenbar ein essenzieller Teil der Online-Kultur. Und tatsächlich gibt es Tage, an denen sich die Netzwelt wie ein morbides Projekt zur Desensibilisierung der Menschheit anfühlt.
Die Startseiten von YouTube, TikTok, Instagram und Pornhub sind laut, überreizt und voller Gewalt. Nach der Entdeckung eines sehenswerten Videos lauert bereits ein brutaler Konterclip auf den Zuschauer. Darauf folgt penetrante Werbung – und der Kreislauf beginnt von neuem.
Ein Teil der Online-Gemeinschaft macht bizarre Figuren wie den Nihilist Penguin, den Sky King oder den Killdozer zu ihren Stellvertretern, die für sie aus einer feindlichen Umwelt und dem als fade wahrgenommenen Leben ausbrechen. Der Himmel oder die Berge dienen dabei als Symbole für eine verloren geglaubte Freiheit.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Im Streben nach „echten“ Erfahrungen außerhalb des digitalen Raums liegt wohl auch ein produktiver Aspekt des Herzogschen Pinguins. Das Buch „Reinhold Messners Philosophie – Sinn machen in einer Welt ohne Sinn“ beschreibt Messners Verlangen nach Grenzgängen in den Bergen als einen lebensnotwendigen Impuls. Dieser ereilt ihn ausgerechnet dann, wenn er sich am sichersten fühlt: zu Hause, bei der Familie. Woher dieser Trieb kommt, weiß Messner selbst nicht.
Es sind wohl diese weißen Flecken auf der Landkarte der menschlichen Bedürfnisse, die als Inspiration für einen nachhaltigen Ausbruch aus der Entfremdung dienen können. Herzogs Frage nach dem großen „Warum?“ sollte deshalb vielleicht gar nicht erst beantwortet werden.
Alarmierende Signale
Wo ein kleines Tier so große Aufmerksamkeit erregt, kreisen selbstverständlich schon die Marketing-Geier. Von Politikern und Präsidenten bis hin zu deutschen Discountern oder einer Schuhhandelskette möchten alle den Penguin für die eigenen Zwecke instrumentalisieren – etwa händchenhaltend mit Trump oder auf der Suche nach europäischen Werten am Südpol.
Diese vom „Nihilist Penguin“ inspirierten Marketing-Clips treffen den Nerv der Zeit. Auf die Schulter klopfen sollten sich die Werbeleute allerdings nicht. Denn dass eine beachtliche Zahl von Menschen online Selbstmorde romantisiert und so gleichzeitig ihr eigenes Leben abwertet, ist ein alarmierendes gesellschaftliches Signal. Dabei führt ein System, das menschliche Bedürfnisse mit leicht konsumierbaren Bildchen zu kompensieren versucht, zwangsläufig zur Entfremdung.
Und dem Wunsch, aus diesem System auszubrechen, kann eine erfahrungsarme Welt nichts weiter entgegensetzen als einen Pinguin, der auf eine KI-generierte Lidl-Filiale in den Bergen zuwatschelt.
Datenschutz & Sicherheit
Anthropic-CEO nennt Vorgehen des Pentagons „vergeltend und strafend“
Anthropic-Gründer Dario Amodei hat nun öffentlich auf die Einstufung seines Unternehmens als Sicherheitsrisiko durch das US-Verteidigungsministerium reagiert. In einem Interview mit CBS, das spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war“, so Amodei.
Weiterlesen nach der Anzeige
Im Interview, das in Auszügen etwa bei YouTube zu sehen ist, stellte der Anthropic-Chef den Konflikt als Frage amerikanischer Grundwerte dar. Was man getan habe, geschah zum Wohl des Landes und zur Unterstützung der nationalen Sicherheit der USA. Die roten Linien, die Anthropic gezogen habe, seien ebenfalls Ausdruck dieser Werte.
Als das Pentagon mit der Lieferketten-Einstufung und dem Defense Production Act gedroht habe, habe Anthropic lediglich von seinem Recht auf freie Meinungsäußerung Gebrauch gemacht. „Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt“, so Amodei gegenüber CBS.
In einer Mitteilung kündigte das Unternehmen an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten. Eine solche Einstufung hat zur Folge, dass Unternehmen, die mit dem Pentagon Geschäfte machen wollten, keine Verträge mit Antrophic schließen dürften. Laut dem Antrophic-Statement auf der Unternehmenswebsite sei die Maßnahme rechtlich nicht haltbar und schaffe einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen, das mit der Regierung verhandelt.
Das sind die zwei roten Linien
Das Pentagon hatte Anthropic im Juli 2025 einen 200-Millionen-Dollar-Vertrag für die Entwicklung agentischer KI-Arbeitsabläufe zugesagt. In den anschließenden Verhandlungen forderte Anthropic jedoch Leitplanken für zwei konkrete Einsatzbereiche. Öffentlich eskalierte der Streit, als bekannt wurde, dass Anthropic-Technologie bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde – in welcher Form genau, wurde nicht offengelegt.
Weiterlesen nach der Anzeige
Wie Amodei in einem parallel veröffentlichten Blogbeitrag auf der Anthropic-Website darlegt, lehnt das Unternehmen den Einsatz von Claude für massenhafte Inlandsüberwachung sowie für vollständig autonome Waffen ab. Bei der Überwachung argumentiert Anthropic, dass KI verstreute, einzeln harmlose Daten automatisiert zu umfassenden Persönlichkeitsprofilen zusammenführen könne – in einem Ausmaß, mit dem die bestehende Gesetzgebung nicht Schritt halte.
Bei autonomen Waffen verweist das Unternehmen darauf, dass heutige KI-Systeme nicht zuverlässig genug seien, um ohne menschliche Kontrolle Ziele auszuwählen und anzugreifen. Anthropic habe dem Pentagon angeboten, gemeinsam an der Verbesserung dieser Zuverlässigkeit zu forschen – das Angebot sei laut Amodei jedoch abgelehnt worden.
Das Pentagon sieht das anders. Laut CBS News erklärte Emil Michael, Technologiechef des Pentagons, das Militär habe Anthropic gegenüber erhebliche Zugeständnisse gemacht. Man müsse dem Militär aber irgendwann zutrauen, verantwortungsvoll zu handeln.
OpenAI schnappt sich Deal
Unterdessen hat OpenAI-Chef Sam Altman auf X bekannt gegeben, dass man mit dem Pentagon eine Vereinbarung getroffen habe. Offenbar springt das Unternehmen also in Anthropics Lücke.
Altman erklärte, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. Laut Altman stimme das Kriegsministerium diesen Grundsätzen zu und wolle sie in Gesetze und Richtlinien aufnehmen.
Was allerdings konkret zwischen OpenAI und dem Pentagon vereinbart wurde, ist noch unklar.
(ssi)
Datenschutz & Sicherheit
OpenAI erhält wohl Pentagon-Auftrag nach Bruch mit Anthropic
Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe eine Vereinbarung mit dem US-Verteidigungsministerium getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI als Risiko für die nationale Sicherheit eingestuft hatte.
Weiterlesen nach der Anzeige
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.
Altman spricht von wichtigen Sicherheitsprinzipien
Nun springt offenbar OpenAI in die Lücke. „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen“, schrieb Altman bei X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.“
Streit zwischen Pentagon und Anthropic eskalierte
Weiterlesen nach der Anzeige
Im Kern hatte auch Konkurrent Anthropic auf diese beiden Punkte gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als „Supply-Chain Risk to National Security“, also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem „besseren und patriotischeren“ Anbieter zu ermöglichen.
Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
Anthropic: KI nicht verlässlich für autonome Waffen
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei in einem Blogbeitrag, dass Künstliche Intelligenz es mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, so der Anthropic-Chef.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
Details des OpenAI-Deals nicht klar
Was die Vereinbarung zwischen dem Pentagon und OpenAI nun im Detail bei den Punkten Massenüberwachung und autonome Waffen vorsieht, blieb zunächst unklar.
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – „Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte“. Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.
Der Pentagon-Beamte Michael schrieb bei X, wenn es um Leben und Tod der US-Soldaten gehe, sei es im Zeitalter von KI von entscheidender Bedeutung, einen zuverlässigen und beständigen Partner zu haben, der in gutem Glauben handele.
(ssi)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 2 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
