Apps & Mobile Entwicklung

Massenüberwachung und autonome Waffen: Anthropic widersetzt sich dem Ultimatum des Pentagon


Das amerikanische Department of War will, dass Anthropic sämtliche Sicherheitsrichtlinien in den Modellen entfernt, die der KI-Entwickler dem Militär bereitstellt. Trotz weitreichenden Drohungen widersetzt sich Anthropic weiterhin den Forderungen.

Streitpunkte sind die Massenüberwachung im Inland sowie autonome Waffen. Anthropic-Chef Dario Amodei erklärt in einer aktuellen Stellungnahme, dass man dem Militär nicht vorschreiben will, welche Aufträge es mit der KI-Technologie erfüllt. Ausschließen will man aber Tätigkeiten, bei denen die Sicherheit und Zuverlässigkeit nicht gewährleistet werden könne.

Das gilt insbesondere für autonome Waffen. Aktuelle KI-Systeme würden nicht zuverlässig genug arbeiten und wären laut Amodei damit ein Risiko für Zivilisten und US-Soldaten.

Dass die Modelle für rechtmäßige Geheimdienstoperationen eingesetzt werden, unterstütze Anthropic grundsätzlich. Bei der Massenüberwachung im Inland wären die Systeme aber nicht mit demokratischen Werten vereinbar, weil diese deutlich mehr Analyse-Möglichkeiten bei den Datenbergen bieten, die US-Dienste ohnehin sammeln.

Womit das Pentagon droht

Interessant wird nun, wie das Pentagon reagiert. Wie Axios berichtete, hat der amerikanische Kriegsminister Peter Hegseth Anthropic eine Frist bis heute eingeräumt. Er will Zugang zu den Modellen ohne Restriktionen, das Militär soll selbst über den Einsatzzweck bestimmen – auch wenn man offiziell erklärt, dass die von Anthropic genannten Punkte überhaupt nicht vorgesehen seien.

Sollte Anthropic sich verweigern, stehen folgende Konsequenzen im Raum:

  • Das Pentagon entfernt die Claude-Modelle aus den Systemen des Kriegsministeriums.
  • Anthropic wird als Lieferketten-Risiko eingestuft.
  • Man will die Aufhebung der Sicherheitsrichtlinien mit dem Defense Production Act erzwingen.

Gravierend für Anthropic ist vor allem die Einstufung als Lieferketten-Risiko. Bis dato nutzen US-Behörden dieses Verfahren für chinesische Netzwerk-Ausrüster wie Huawei, um so zu verhindern, dass die entsprechenden Komponenten in kritischer Infrastruktur verbaut werden. Für den russischen Antiviren-Hersteller Kaspersky Labs wurde ebenfalls so eine Warnung ausgesprochen.

Bei Anthropic wäre es das erste Mal, dass ein amerikanisches Unternehmen als Lieferketten-Risiko klassifiziert wird. Die Konsequenzen in der Praxis sind: Nicht nur das US-Militär verzichtet auf Claude-Modelle. Auch wer mit dem US-Militär kooperiert, darf keine Anthropic-Produkte – zumindest bei den entsprechenden Aufträgen – nutzen.

Nicht völlig klar ist, welche Auswirkungen so eine Einstufung auf Cloud-Konzerne wie Google und Amazon hat, die beide Dienstleistungen für das Militär betreiben. Die Rechenzentren-Kapazitäten so aufzuteilen, dass Anthropic-Produkte und Pentagon-Dienste strikt getrennt sind, dürfte aber ein komplexes und damit teures Unterfangen sein.

Claude wurde bei Manduro-Entführung verwendet

Dass der bestehende Deal zwischen Anthropic und dem Kriegsministerium hinfällig sein könnte, ist für das KI-Unternehmen eher verkraftbar. Der Deal hat einen Wert von 200 Millionen US-Dollar, der prognostizierte Umsatz für 2026 liegt hingegen bei 18 Milliarden US-Dollar.

Wie Hard Fork analysiert, könnte man so eine Summe als Marketingkosten verbuchen. Immerhin sendet Anthropic damit die Botschaft, im Gegensatz zur Konkurrenz wie Google und OpenAI bestimmte Fähigkeiten nicht anzubieten, wenn die ethisch oder rechtlich fragwürdig sind. Relevant dürfte daher vor allem die Frage sein, ob das Pentagon Anthropic als Lieferketten-Risiko einstuft.

Generell hat das US-Militär Interesse an den Claude-Modellen. Zum Einsatz gekommen sind diese laut einem Bericht des Wall Street Journals bereits bei der Entführung des venezolanischen Präsidenten Nicolás Maduro. Das erfolgte laut dem Axios-Bericht im Rahmen einer Partnerschaft mit Palantir. Verwendet wurden die Claude-Modelle demnach aber vor allem für bürokratische Aufgaben.



Source link

Beliebt

Die mobile Version verlassen