Datenschutz & Sicherheit
Trugbild: Flucht aus der Entfremdung

Ein Pinguin verlässt seine Kolonie am Südpol. Zielstrebig läuft er in Richtung der Berge. Es ist ein einsamer Gang in den sicheren Tod. „Aber warum?“, fragt Werner Herzog gewohnt dramatisch, während er den über das Eis wandernden Pinguin mit der Kamera festhält. Die Szene stammt aus seinem Dokumentarfilm „Begegnungen am Ende der Welt“ aus dem Jahr 2007.
Knapp zwanzig Jahre nach seinem ersten Auftritt geht der Pinguin viral. In den sozialen Medien setzt sich der Spitzname „Nihilist Penguin“ durch. Die Kommentarspalten lassen darauf schließen, dass sich Tausende Menschen in dem selbstmörderischen Vogel wiedererkennen. Es ist nicht das erste Mal, dass ein derartiges Verhalten im Netz als Spektakel romantisiert wird.
Fragwürdige Idole
Kurz vor der berühmt gewordenen Szene fragt Werner Herzog in der Doku einen Tierforscher, ob Pinguine wahnsinnig werden können, wenn sie genug von ihrer Kolonie haben. „Sie verlieren die Orientierung und landen dort, wo sie eigentlich nicht sein sollten“, antwortet der Forscher lakonisch.
Auf YouTube, TikTok und Instagram interpretieren viele Nutzer den Pinguin dagegen als einen mutigen Ausreißer, der sich aus den Fesseln der Gesellschaft befreit. „Dieser Pinguin ging nicht in die Berge, um zu sterben. Er machte diese Reise, um zu leben“, vermutet etwa ein Zuschauer. „Die Menschen verstehen die Abgründe der Kolonie nicht. Gesichtslos, starr, monoton“, ergänzt ein anderer. Wenige Tage nach dem viralen Erfolg des Pinguins gab es bereits T-Shirts zu kaufen mit der Aufschrift „Colony Dropout“.
Die mit unzähligen Daumen nach oben versehenen Beiträge heben den Pinguin damit auf eine Ebene mit fragwürdigen Internet-Idolen wie Marvin Heemeyer oder Richard Russell.
Heemeyer ist zu zweifelhaftem Ruhm gelangt, weil er mit einer modifizierten Planierraupe mehrere Gebäude, darunter das Haus des ehemaligen Bürgermeisters und die Polizeistation, im US-amerikanischen Ort Granby zerstörte. Anschließend erschoss sich der Täter. Seine Fans übernahmen den von den Medien etablierten Spitznamen „Killdozer“ für ihn. „Ist es nicht irre, wie viel besser du diesen Mann verstehst, je älter du wirst?“, sagt ein Bewunderer über den Killdozer und sammelt dafür über zwanzigtausend Likes auf YouTube.
Richard „Sky King“ Russell gehörte dem Bodenpersonal auf einem internationalen Flughafen in Seattle an. Der 28-Jährige entwendete dort ein unbesetztes Flugzeug und steuerte die Maschine nach einem 70-minütigen „Ausflug“ auf eine dünn besiedelte Insel. Den Absturz überlebte er nicht. Im Gespräch mit dem Kontrollturm sagte Russell zuvor: „Ich habe nicht geplant, wieder zu landen.“
In den sozialen Medien wurde er dafür ähnlich gefeiert wie Heemeyer und der Pinguin. Unter pathetischen Gedenkvideos und Lobreden am Jahrestag von Russells Flug, unter anderem von einem Kongressmitglied, finden sich Sprüche wie: „Am Boden war er tot, als er abhob, war er lebendig.“
Aus der Entfremdung ausbrechen wollen
Unter den Videos taucht immer wieder ein Zitat der Anime-Serie Cowboy Bebop auf: „Ich gehe da nicht hin, um zu sterben. Ich will herausfinden, ob ich wirklich lebe.“ Das Gefühl der Entfremdung ist offenbar ein essenzieller Teil der Online-Kultur. Und tatsächlich gibt es Tage, an denen sich die Netzwelt wie ein morbides Projekt zur Desensibilisierung der Menschheit anfühlt.
Die Startseiten von YouTube, TikTok, Instagram und Pornhub sind laut, überreizt und voller Gewalt. Nach der Entdeckung eines sehenswerten Videos lauert bereits ein brutaler Konterclip auf den Zuschauer. Darauf folgt penetrante Werbung – und der Kreislauf beginnt von neuem.
Ein Teil der Online-Gemeinschaft macht bizarre Figuren wie den Nihilist Penguin, den Sky King oder den Killdozer zu ihren Stellvertretern, die für sie aus einer feindlichen Umwelt und dem als fade wahrgenommenen Leben ausbrechen. Der Himmel oder die Berge dienen dabei als Symbole für eine verloren geglaubte Freiheit.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Im Streben nach „echten“ Erfahrungen außerhalb des digitalen Raums liegt wohl auch ein produktiver Aspekt des Herzogschen Pinguins. Das Buch „Reinhold Messners Philosophie – Sinn machen in einer Welt ohne Sinn“ beschreibt Messners Verlangen nach Grenzgängen in den Bergen als einen lebensnotwendigen Impuls. Dieser ereilt ihn ausgerechnet dann, wenn er sich am sichersten fühlt: zu Hause, bei der Familie. Woher dieser Trieb kommt, weiß Messner selbst nicht.
Es sind wohl diese weißen Flecken auf der Landkarte der menschlichen Bedürfnisse, die als Inspiration für einen nachhaltigen Ausbruch aus der Entfremdung dienen können. Herzogs Frage nach dem großen „Warum?“ sollte deshalb vielleicht gar nicht erst beantwortet werden.
Alarmierende Signale
Wo ein kleines Tier so große Aufmerksamkeit erregt, kreisen selbstverständlich schon die Marketing-Geier. Von Politikern und Präsidenten bis hin zu deutschen Discountern oder einer Schuhhandelskette möchten alle den Penguin für die eigenen Zwecke instrumentalisieren – etwa händchenhaltend mit Trump oder auf der Suche nach europäischen Werten am Südpol.
Diese vom „Nihilist Penguin“ inspirierten Marketing-Clips treffen den Nerv der Zeit. Auf die Schulter klopfen sollten sich die Werbeleute allerdings nicht. Denn dass eine beachtliche Zahl von Menschen online Selbstmorde romantisiert und so gleichzeitig ihr eigenes Leben abwertet, ist ein alarmierendes gesellschaftliches Signal. Dabei führt ein System, das menschliche Bedürfnisse mit leicht konsumierbaren Bildchen zu kompensieren versucht, zwangsläufig zur Entfremdung.
Und dem Wunsch, aus diesem System auszubrechen, kann eine erfahrungsarme Welt nichts weiter entgegensetzen als einen Pinguin, der auf eine KI-generierte Lidl-Filiale in den Bergen zuwatschelt.
Datenschutz & Sicherheit
Anthropic-CEO nennt Vorgehen des Pentagons „vergeltend und strafend“
Anthropic-Gründer Dario Amodei hat nun öffentlich auf die Einstufung seines Unternehmens als Sicherheitsrisiko durch das US-Verteidigungsministerium reagiert. In einem Interview mit CBS, das spricht er von einem beispiellosen Vorgang: „Diese Einstufung hat es noch nie zuvor bei einem amerikanischen Unternehmen gegeben. Und ich denke, es wurde in einigen ihrer Erklärungen, in ihrer Wortwahl, sehr deutlich, dass dies vergeltend und strafend war“, so Amodei.
Weiterlesen nach der Anzeige
Im Interview, das in Auszügen etwa bei YouTube zu sehen ist, stellte der Anthropic-Chef den Konflikt als Frage amerikanischer Grundwerte dar. Was man getan habe, geschah zum Wohl des Landes und zur Unterstützung der nationalen Sicherheit der USA. Die roten Linien, die Anthropic gezogen habe, seien ebenfalls Ausdruck dieser Werte.
Als das Pentagon mit der Lieferketten-Einstufung und dem Defense Production Act gedroht habe, habe Anthropic lediglich von seinem Recht auf freie Meinungsäußerung Gebrauch gemacht. „Meinungsverschiedenheiten mit der Regierung sind das Amerikanischste auf der Welt“, so Amodei gegenüber CBS.
In einer Mitteilung kündigte das Unternehmen an, die Einstufung als Lieferkettenrisiko gerichtlich anzufechten. Eine solche Einstufung hat zur Folge, dass Unternehmen, die mit dem Pentagon Geschäfte machen wollten, keine Verträge mit Antrophic schließen dürften. Laut dem Antrophic-Statement auf der Unternehmenswebsite sei die Maßnahme rechtlich nicht haltbar und schaffe einen gefährlichen Präzedenzfall für jedes amerikanische Unternehmen, das mit der Regierung verhandelt.
Das sind die zwei roten Linien
Das Pentagon hatte Anthropic im Juli 2025 einen 200-Millionen-Dollar-Vertrag für die Entwicklung agentischer KI-Arbeitsabläufe zugesagt. In den anschließenden Verhandlungen forderte Anthropic jedoch Leitplanken für zwei konkrete Einsatzbereiche. Öffentlich eskalierte der Streit, als bekannt wurde, dass Anthropic-Technologie bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde – in welcher Form genau, wurde nicht offengelegt.
Weiterlesen nach der Anzeige
Wie Amodei in einem parallel veröffentlichten Blogbeitrag auf der Anthropic-Website darlegt, lehnt das Unternehmen den Einsatz von Claude für massenhafte Inlandsüberwachung sowie für vollständig autonome Waffen ab. Bei der Überwachung argumentiert Anthropic, dass KI verstreute, einzeln harmlose Daten automatisiert zu umfassenden Persönlichkeitsprofilen zusammenführen könne – in einem Ausmaß, mit dem die bestehende Gesetzgebung nicht Schritt halte.
Bei autonomen Waffen verweist das Unternehmen darauf, dass heutige KI-Systeme nicht zuverlässig genug seien, um ohne menschliche Kontrolle Ziele auszuwählen und anzugreifen. Anthropic habe dem Pentagon angeboten, gemeinsam an der Verbesserung dieser Zuverlässigkeit zu forschen – das Angebot sei laut Amodei jedoch abgelehnt worden.
Das Pentagon sieht das anders. Laut CBS News erklärte Emil Michael, Technologiechef des Pentagons, das Militär habe Anthropic gegenüber erhebliche Zugeständnisse gemacht. Man müsse dem Militär aber irgendwann zutrauen, verantwortungsvoll zu handeln.
OpenAI schnappt sich Deal
Unterdessen hat OpenAI-Chef Sam Altman auf X bekannt gegeben, dass man mit dem Pentagon eine Vereinbarung getroffen habe. Offenbar springt das Unternehmen also in Anthropics Lücke.
Altman erklärte, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. Laut Altman stimme das Kriegsministerium diesen Grundsätzen zu und wolle sie in Gesetze und Richtlinien aufnehmen.
Was allerdings konkret zwischen OpenAI und dem Pentagon vereinbart wurde, ist noch unklar.
(ssi)
Datenschutz & Sicherheit
OpenAI erhält wohl Pentagon-Auftrag nach Bruch mit Anthropic
Im Streit zwischen dem Pentagon und der KI-Firma Anthropic um die Verwendung von Software mit Künstlicher Intelligenz im US-Militär hat offenbar der Rivale OpenAI den Zuschlag bekommen. In einem Statement auf der Plattform X verkündete OpenAI-Chef Sam Altman, man habe eine Vereinbarung mit dem US-Verteidigungsministerium getroffen. Details blieben dabei zunächst unklar. Die Ankündigung folgt wenige Stunden, nachdem das Pentagon Anthropic wegen der Unstimmigkeiten beim Einsatz von KI als Risiko für die nationale Sicherheit eingestuft hatte.
Weiterlesen nach der Anzeige
ChatGPT-Betreiber OpenAI und die Firma Anthropic wetteifern darum, ihre Software mit Künstlicher Intelligenz in Unternehmen und Behörden unterzubringen.
Altman spricht von wichtigen Sicherheitsprinzipien
Nun springt offenbar OpenAI in die Lücke. „Heute Abend haben wir mit dem Kriegsministerium eine Vereinbarung getroffen, unsere Modelle in dessen klassifiziertem Netzwerk einzusetzen“, schrieb Altman bei X. Pentagon-Chef Pete Hegseth repostete das Statement, ebenso wie der ranghohe Beamte Emil Michael.
Altman erläuterte weiter, zwei der wichtigsten Sicherheitsprinzipien von OpenAI seien das Verbot inländischer Massenüberwachung sowie die menschliche Verantwortung für den Einsatz von Gewalt, einschließlich autonomer Waffensysteme. „Das Kriegsministerium stimmt diesen Prinzipien zu, verankert sie in Gesetz und Richtlinien, und wir haben sie in unsere Vereinbarung aufgenommen.“
Streit zwischen Pentagon und Anthropic eskalierte
Weiterlesen nach der Anzeige
Im Kern hatte auch Konkurrent Anthropic auf diese beiden Punkte gepocht. Das Unternehmen wollte ihrem Chef Dario Amodei zufolge als Grenzen für die Verwendung seiner KI-Software im US-Militär durchsetzen, dass die KI der Firma nicht für Massenüberwachung in den USA sowie nicht in komplett autonomen Waffen eingesetzt wird.
Am Freitag eskalierte der Streit: Hegseth ordnete an, Anthropic als „Supply-Chain Risk to National Security“, also als Lieferketten-Risiko für die nationale Sicherheit, einzustufen. Mit sofortiger Wirkung dürften Auftragnehmer, Zulieferer oder Partner des US-Militärs keine Geschäfte mehr mit dem Unternehmen machen, schrieb Hegseth bei X. Anthropic solle dem Verteidigungsministerium noch maximal sechs Monate lang Dienstleistungen bereitstellen, um einen Übergang zu einem „besseren und patriotischeren“ Anbieter zu ermöglichen.
Die Maßnahme erfolge im Zusammenhang mit einer Anweisung von Präsident Donald Trump, wonach alle Bundesbehörden die Nutzung von Anthropic-Technologie einstellen sollen.
Anthropic: KI nicht verlässlich für autonome Waffen
Das Verteidigungsministerium will nur mit KI-Firmen zusammenarbeiten, die „jedem legalen Einsatz“ ihrer Software zustimmen. Anthropic hatte jedoch darauf beharrt, dass die von der Firma geforderten Einschränkungen wichtig seien.
So warnte Amodei in einem Blogbeitrag, dass Künstliche Intelligenz es mache, über das Netz verstreute Daten einzelner Menschen in großem Stil automatisiert zu einem ausführlichen Bild ihres Lebens zusammenzusetzen. Und zugleich sei KI noch nicht verlässlich genug, um in vollständig autonomen Waffen eingesetzt zu werden. „Wir werden nicht wissentlich ein Produkt liefern, das Amerikas Krieger und Zivilisten in Gefahr bringt“, so der Anthropic-Chef.
Spannungen zwischen Anthropic und dem Pentagon wurden öffentlich, nachdem bekannt wurde, dass Software der Firma bei der US-Militäroperation zur Gefangennahme des venezolanischen Machthabers Nicolás Maduro eingesetzt wurde. Wofür genau sie dabei verwendet wurde, blieb unklar.
Details des OpenAI-Deals nicht klar
Was die Vereinbarung zwischen dem Pentagon und OpenAI nun im Detail bei den Punkten Massenüberwachung und autonome Waffen vorsieht, blieb zunächst unklar.
In seinem Statement auf X rief OpenAI-Chef Altman das Pentagon zugleich dazu auf, diese gleichen Bedingungen allen KI-Unternehmen anzubieten – „Bedingungen, die unserer Meinung nach jedes Unternehmen akzeptieren sollte“. Man habe den Wunsch nach Deeskalation zum Ausdruck gebracht.
Er erklärte auch, dass OpenAI technische Schutzmaßnahmen entwickeln werde, um sicherzustellen, dass sich die Modelle wie vorgesehen verhielten, was auch dem Wunsch des Ministeriums entspreche. Zudem betonte Altman, das Pentagon habe bei allen Interaktionen tiefen Respekt gezeigt für Sicherheit und den Wunsch, gemeinsam das bestmögliche Ergebnis zu erzielen.
Der Pentagon-Beamte Michael schrieb bei X, wenn es um Leben und Tod der US-Soldaten gehe, sei es im Zeitalter von KI von entscheidender Bedeutung, einen zuverlässigen und beständigen Partner zu haben, der in gutem Glauben handele.
(ssi)
Datenschutz & Sicherheit
Die Woche, in der wir eine Blamage kommen sehen
Liebe Leser:innen,
es gibt Wochen, da zieht sich ein bestimmtes Thema über Tage bei uns durch. Und es gibt andere Wochen, da ist es nur ein Fragment, das kurz aufblitzt und hängen bleibt.
In dieser Woche war es ein Fragment. Konkret: eine Antwort des sächsischen Innenministeriums.
Das Haus von Armin Schuster (CDU) will den biometrischen Abgleich von Gesichtern und Stimmen mit Internetdaten erlauben. Eine Polizeigesetznovelle soll den Weg dafür ebnen.
Schuster begründet die neuen Befugnisse damit, dass sich „eine Blamage“ wie bei der RAF-Terroristin Daniela Klette nicht wiederholen dürfe. Klette war über Jahre untergetaucht, Hinweise auf ihren Aufenthaltsort hatten dann zwei Journalisten mit Hilfe der umstrittenen Gesichtersuchmaschine PimEyes gefunden.
Allerdings steht Schuster vor hohen Hürden. Denn für einen biometrischen Abgleich braucht sein Ministerium eigentlich eine sehr, sehr große biometrische Datenbank. Eine solche anzulegen oder zu nutzen, verbietet aber die KI-Verordnung der EU – „und zwar ausnahmslos“, wie die Nichtregierungsorganisation AlgorithmWatch in einem Gutachten festgestellt hat.
Das sächsische Innenministerium ficht das nicht an. Man werde Tools verwenden, „die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen“. Außerdem fokussiere sich die geplante Novelle „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“.
Ein biometrischer Abgleich ohne Referenzdatenbank? Das geht effektiv nicht, sagt nicht nur AlgorithmWatch, sondern schreiben auch die Wissenschaftlichen Dienste des Deutschen Bundestages in ihrem kürzlich veröffentlichten Gutachten.
Und Gefahrenabwehr wird als Argument wohl kaum ausreichen, um die KI-Verordnung auszuhebeln, falls das sächsische Innenministerium etwas derartiges plant. Eine abschließende Entscheidung über deren Auslegung obliege dem Europäischen Gerichtshof, schreiben vorausahnend die Wissenschaftlichen Dienste des Bundestages.
Ich bin gespannt, wie die Geschichte weitergeht – und wer sich am Ende wie blamiert. Haben wir hier etwas missverstanden? Hat das Ministerium die Sachlage intern noch nicht ausreichend geklärt? Oder sind das Anzeichen eines Schusterschen Trumpismus, der Expertise und rechtsstaatliche Prinzipien einfach mal über Bord wirft?
Habt ein frühlingshaftes Wochenende
Daniel
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Woche
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenDigital Health: „Den meisten ist nicht klar, wie existenziell IT‑Sicherheit ist“
