Apps & Mobile Entwicklung
Einstufung als Lieferkettenrisiko: Anthropic reicht Klage gegen US-Regierung ein
Der KI-Spezialist Anthropic macht seine Ankündigung wahr und reicht Klage gegen das US-Verteidigungsministerium ein. Der Grund: Das Unternehmen hält seine Einstufung als Lieferkettenrisiko für rechtswidrig und ist der Auffassung, dass die Trump-Regierung mit dem Bann ihre Befugnisse überschritten habe.
Lösungsversuche nicht von Erfolg gekrönt
Das Pentagon hatte Anthropic in der vergangenen Woche trotz mehrfacher Lösungsversuche seitens des Unternehmens sanktioniert, was bedeutet, dass dieses künftig nicht mehr mit dem Pentagon sowie dessen Auftragnehmern zusammenarbeiten darf. Damit besitzt die Einstufung eine größere Reichweite, als es auf den ersten Blick scheinen mag: Softwareunternehmen, die Claude in ihre Dienstleistungen integrieren, dürften diese ebenfalls nicht mehr Bundesbehörden anbieten. Dadurch könnte Anthropic zahlreiche weitere Aufträge verlieren. Anthropic-CEO Amodei stellte zwar schnell klar, dass die aktuelle Klassifizierung für die überwiegende Mehrheit der Unternehmenskunden keine Auswirkungen haben soll, dennoch steht durch die verlorengegangenen Aufträge ein Verlust von rund 200 Millionen US-Dollar jährlich im Raum.
Vorausgegangen war eine wochenlange Auseinandersetzung um die Frage, welche und wie viel Kontrolle das US-Militär über die KI-Systeme des Unternehmens erhalten darf. Anthropic vertrat dabei die Position, dass die eigene KI weder für die Massenüberwachung von Amerikanern im Inland noch für vollautonome Waffen zum Einsatz kommen dürfe. Ebenso wolle das Unternehmen Einsatzzwecke ausschließen, bei denen Sicherheit und Zuverlässigkeit nicht gewährleistet werden können. Aktuelle KI-Systeme agieren laut dem Unternehmen in den genannten Bereichen nicht zuverlässig genug und würden damit ein Risiko sowohl für Zivilisten als auch für US-Soldaten darstellen.
Klage bereits in den vergangenen Tagen angedroht
Bereits am vergangenen Donnerstag hatte Amodei in einem Blog-Beitrag geschrieben, dass er die Maßnahme für rechtlich nicht haltbar halte. Da mit dem Pentagon keine Einigung gefunden werden konnte, bleibe dem Unternehmen keine andere Möglichkeit, als gegen die Einstufung zu klagen.
Am Montag hat Anthropic diesen Schritt vollzogen und die Klage vor einem Bundesgericht für den nördlichen Distrikt von Kalifornien eingereicht). Darin fordert das Unternehmen das Gericht auf, die Einstufung aufzuheben und die Bundesbehörden daran zu hindern, sie durchzusetzen. „Die Verfassung erlaube es der Regierung nicht, ihre enorme Macht einzusetzen, um ein Unternehmen für seine geschützte Meinungsäußerung zu bestrafen“, heißt es in der Klageschrift. Als letztes Mittel wende sich das Unternehmen nun an die Justiz, um seine Rechte geltend zu machen und die rechtswidrige Vergeltungskampagne zu stoppen.
Juristen sagen steinigen Weg voraus
Experten sagen Anthropic dabei einen schweren Kampf voraus. Brett Johnson, Partner der Anwaltskanzlei Snell & Wilmer, ist der Auffassung, dass die Regeln, die es dem Verteidigungsministerium erlauben, ein Technologieunternehmen als Risiko für die Lieferkette einzustufen, kaum Raum für Einsprüche lassen. „Es liegt zu 100 Prozent im Ermessen der Regierung, die Parameter eines Vertrags festzulegen“, so der Jurist. Dean Ball, ein ehemaliger KI-Berater im Weißen Haus unter Trump, der sich gegen Hegseths Vorgehen ausgesprochen hatte, sieht in der Ausgangslage zumindest eine gewisse Chance für das Unternehmen: „Gerichte zögern ziemlich, die Regierung in Bezug auf Fragen der nationalen Sicherheit zu hinterfragen. Die Hürde dafür ist sehr hoch. Aber es ist nicht unmöglich“.
Die beste Möglichkeit für Anthropic liegt laut Johnson darin, zu beweisen, dass das Unternehmen gezielt ausgewählt wurde. Dafür spricht auch, dass Konkurrent OpenAI kurz nach der Einstufung Anthropics als Lieferkettenrisiko durch Verteidigungsminister Pete Hegseth einen neuen Vertrag mit dem Pentagon abgeschlossen hatte – der genau jene Vorkehrungen enthalten soll, die sich Anthropic gegenüber dem Pentagon sichern wollte. Nachdem die Kritik an OpenAI diesbezüglich immer lauter wurde, erklärte CEO Sam Altman, dass sein Unternehmen die Maßnahmen gegen Anthropic ablehne und nicht wisse, warum sein Konkurrent nicht denselben Vertrag mit der Regierung abschließen konnte.
Nicht so schnell ersetzbar
Verschiedenen Medienberichten zufolge ist Anthropic derzeit das einzige Unternehmen, das KI-Chatbots und Analyse-Tools für die sensibelsten Anwendungsfälle des Militärs bereitstellen kann. Wann OpenAI in der Lage sein wird, Claude und andere KI-Systeme von Anthropic in Militär-Software zu ersetzen, ist nicht bekannt. Verteidigungsminister Hegseth gab an, dass die Auslaufphase der Anthropic-Dienste bis zu sechs Monate dauern könnte.
Experten sprechen sich für Anthropic aus
Unterstützung erhält das Unternehmen auch aus anderer Richtung: Ein Zusammenschluss von Technologieverbänden, darunter TechNet, Business Software Alliance und die Software Information Industry Association, forderte die Trump-Regierung in der vergangenen Woche in einem Brief auf, die Einstufung zu überdenken. Die Verbände sind dabei nicht irgendwer, sondern vertreten große Technologieunternehmen wie Apple, Google, IBM, Microsoft, Meta, Nvidia, Oracle und Salesforce. Nach Ansicht der Koalition könnte die Herausstellung eines amerikanischen Unternehmens als Gegner statt als Gewinn eine abschreckende Wirkung auf die Innovation in den USA haben.
Ein weiterer Zusammenschluss aus hochrangigen Technologen und ehemaligen nationalen Sicherheitsberatern wandte sich mit einem ähnlichen Schreiben an die Mitglieder des Senatsausschusses für Streitkräfte. Darin warnten sie, dass „die Anwendung dieser Befugnis gegen ein amerikanisches Unternehmen eine erhebliche Abweichung von ihrem beabsichtigten Zweck darstellt“. Zudem forderten sie den Kongress auf, klarere Richtlinien für den Einsatz von KI zur Überwachung im Inland und für autonome tödliche Waffensysteme festzulegen.