Künstliche Intelligenz

Künstliche Intelligenz: Ringen um Regeln für KI-Einsatz im Krieg


Mit einer nicht mehrheitsfähigen Liste von Empfehlungen für die politische Regulierung des militärischen Einsatzes von Künstlicher Intelligenz ist am Donnerstag im spanischen A Coruña die dritte „Responsible AI in the Military Domain“-Konferenz (REAIM) zu Ende gegangen.

Weiterlesen nach der Anzeige

Regierungen müssen die Risiken des militärischen Einsatzes von KI detaillierter bewerten, heißt es in den Empfehlungen, die von nur 35 der 80 vertretenen Staaten, darunter Deutschland, unterzeichnet wurden. Entscheidungsprozesse müssten so dokumentiert werden, dass die Verantwortung für den Einsatz automatisierter Waffensysteme nachvollziehbar bleibt. Großmächte wie die USA und China haben das Abschlussdokument nicht unterzeichnet.

Die Regel, dass grundsätzlich ein Mensch und nicht die Maschine eine Waffe auslösen müsse („Human in the Loop“), sei überholt, betonte Jeroen van der Vlugt, CIO des niederländischen Verteidigungsministeriums. „Das stimmt schon bei konventionellen Waffensystemen heute nicht mehr.“ Regulierungen müssten Verantwortlichkeit über die gesamte Befehlskette und die Lebensdauer von KI-Waffensystemen klar definieren.

Im Rahmen der mit 1200 Teilnehmern und über 80 Delegationen gut besuchten Konferenz gaben UN-Vertreter den Startschuss für die Entwicklung eines Katalogs freiwilliger Maßnahmen für die zuliefernde KI-Branche.

Im vergangenen Jahr hatte die auf Initiative der Niederländer gegründete „Global Commission REAIM“ einige Richtlinien für Staaten, Militärs und Industrie erarbeitet. Diese Bemühungen, ganz konkrete Schritte für den Einsatz von KI in militärischen Zusammenhängen zu erarbeiten, finden sich in Teilen auch im Abschlussbericht der Konferenz 2026 wieder („Pathways to Action“).

Die nationale Politik der Staaten müsse internationales Recht einhalten und garantieren, lautet eine der Empfehlungen. Militärs sollten Entscheidungsprozesse beim Einsatz automatisierter Waffen dokumentieren, um Verantwortlichkeit später zweifelsfrei feststellen zu können. Zudem seien Risikobewertungen der Systeme vor dem operativen Einsatz notwendig.

Weiterlesen nach der Anzeige

Auch Datenbanken mit möglichen Risiken und Nebenwirkungen von Systemen hielt die Kommission für sinnvoll. Eine Vertreterin des spanischen National Cryptologic Centers verwies in A Coruña auf nicht unerhebliche Manipulationsrisiken, etwa die „Vergiftung“ von Datensätzen, die zu falschen Aufklärungsergebnissen führen können.

Bemerkenswert am Bericht der Kommission ist die lange Liste der KI-Systeme, die bei Streitkräften verschiedener Länder bereits im Einsatz sind. Sie reicht von der KI-unterstützten Entscheidungshilfe FELIX bei der NATO über Forschungsprogramme zur Verkürzung der Entwicklungszeiten für Kampfflieger bis zu operativ eingesetzten KI-Systemen: etwa Maven Smart von Palantir (NATO), das auf LLAMA beruhende LLM ChatBIT (China) und autonome Streubomben der Marke Harpy (Israel).

Die lange Beispielliste illustriert, wie weit diplomatische Versuche, gemeinsame Normen zu schaffen, hinter der Realität militärischer KI-Anwendungen zurück geblieben sind. Statt auf internationale Abkommen zu hoffen, konzentriert man sich bei REAIM auf gemeinsame Definitionen und Risikoabschätzung. Vielleicht könnte man sich auf eine Datenbank zu Vorfällen mit KI-Militärsystemen einigen, so eine Hoffnung.

Eine harte rote Linie gelte es aber festzulegen, mahnte eine Vertreterin der Global Commission REAIM, Denise Garcia: die Nutzung von KI bei Entscheidungen im Einsatz von Nuklearwaffen müsse geächtet werden. Für automatisierte, tödliche Waffensysteme müsse es verbindliche internationale Regeln geben. Von der EU erhofft sich die Wissenschaftlerin „eine gemeinsame Position“ in anstehenden Gesprächen zu einem möglichen völkerrechtlichen Vertrag bei der UN.

„Neue internationale Gesetze zu autonomen Waffensystemen sind auf jeden Fall machbar“, erklärt eine Sprecherin der Initiative „Stop Killer Robots“ auf Anfrage von heise online. Die Vereinten Nationen könnten dabei auf Ergebnissen der UN-Arbeitsgruppe zu tödlichen autonomen Waffen aufbauen. „Man muss jetzt einfach den nächsten Schritt gehen.“


(vbr)



Source link

Beliebt

Die mobile Version verlassen