Künstliche Intelligenz
LG Hamburg: xAI darf Unwahrheiten nicht als Fakten verbreiten
Der Verein Campact hat vor dem Landgericht Hamburg eine einstweilige Verfügung gegen den Betreiber der Plattform X.com und die damit verzahnte sogenannte Künstliche Intelligenz Grok erwirkt. Die Firma xAI, die den Chatbot Grok entwickelt, muss nun dafür Sorge tragen, dass die von ihr betriebene KI nicht länger unzutreffend behauptet, dass der Verein Campact aus Steuermitteln finanziert würde.
Der Verein, der sich als Plattform für politische Kampagnen versteht, ist derzeit nicht einmal eine steuerbegünstigte Organisation im Sinne der Abgabenordnung und wird aus privaten Spendenmitteln finanziert. Doch eine Steuerfinanzierung hatte das Modell nachweislich behauptet. Aus Sicht des Gerichts handelt es sich daher offenbar um eine unwahre Tatsachenbehauptung. Für das Unterbinden der Verbreitung sei daher xAI als Betreiber verantwortlich.
Nur Zwischenetappe auf dem Weg zur Klärung
Die einstweilige Verfügung ist dabei im Rechtsstreit zwischen privaten Stellen ein zivilprozessuales Mittel, mit dem verhindert werden soll, dass eine Schädigung der Rechte der Partei sich nachhaltig realisiert, bevor ein Gericht die streitige Angelegenheit abschließend beurteilen konnte. Insbesondere bei der Verbreitung falscher Tatsachenbehauptungen sind Einstweilige Verfügungen ein häufig gewähltes Mittel, da ein möglicher Schaden durch Unwahrheiten im Internet durch Juristen mitunter als sich potenziell selbst weiterverbreitend und somit irreparablen Schaden betrachtet wird. Das Landgericht Hamburg sah das Rechtsschutzbedürfnis der Kampagnenorganisation als gerechtfertigt an.
Demgegenüber steht bei der Verbreitung durch natürliche Personen die freie Meinungsäußerungsfreiheit und bei Presseerzeugnissen die Pressefreiheit als abzuwägendes Schutzgut – auf beides kann sich der Grok-Betreiber xAI jedoch nicht berufen. Die Firma kann zum einen gegen die einstweilige Verfügung vorgehen, zum anderen steht das Hauptsacheverfahren noch aus. Erst ein Urteil im Hauptsacheverfahren könnte einen juristischen Präzedenzfall schaffen.
Bei Campact gibt man sich mit dem Etappensieg zufrieden. „Der Beschluss ist ein wichtiges Signal im Kampf gegen Fake News“, sagt Astrid Deilmann, geschäftsführende Vorständin bei Campact. „Auch KI-Chatbots wie Grok sind der Wahrheit verpflichtet.“ xAI würde in die Verantwortung genommen und dürfe falsche Behauptungen nicht einfach achselzuckend hinnehmen, sondern müsse dafür sorgen, dass Lügen nicht verbreitet werden, so Deilmann weiter.
Grok: Halte mich an Recht
Bei einem Testlauf am Freitagvormittag antwortete Grok auf die Frage „Wird Campact aus Steuermitteln finanziert?“ auch korrekt, dass dies nicht der Fall sei. Pikant: Grok listet korrekt auf, dass immer wieder Fehlinformationen kursieren würden – nur die eigene Verbreitung wird durch die xAI nicht thematisiert.
Erst auf Nachfrage bestätigt der KI-Chatbot aus dem Musk-Universum dann, dass es wohl eine entsprechende Verfügung gegeben hat. „Diese Verfügung wurde erlassen, nachdem Grok in einer Antwort auf X.com eine solche Falschbehauptung gemacht hatte. Als KI von xAI respektiere ich geltendes Recht und passe meine Antworten entsprechend an, um genaue und verifizierte Informationen zu liefern“, so die Stellungnahme des LLMs.
Lesen Sie auch
Viele juristische Fragestellungen zu KI offen
Das Verfahren wegen der xAI ist nur eines von einer ganzen Reihe von Verfahren, in denen die Frage geklärt wird, wie Modelle an der Verbreitung von klar rechtswidrigen Inhalten oder unwahren Tatsachenbehauptungen gehindert werden können. Während etwa im Presserecht langjährige juristische Erfahrungen existieren, was zulässig ist und was nicht und auch bei Fragen der Anbieterhaftung für von Dritten verbreitete Inhalte breite umfangreiche Rechtsauslegung stattgefunden hat, ist die Verarbeitung etwa von Aussagen oder von Persönlichkeitsrechten und deren Nutzung durch Technologie ohne weiteres menschliches Zutun noch Neuland.
Dass LLM-Betreiber Filtermechanismen einsetzen, um staatlichen Vorgaben oder Urteilen von Gerichten zu entsprechen, ist dabei nicht nur bei chinesischen Modellen der Regelfall, die sich bei einer Nutzbarkeit in China an dortige Zensurvorschriften halten müssen.
(afl)