Künstliche Intelligenz
KI-Fehler vor Gericht: Unternehmen können sich gegen falsche Google-Infos wehren
Das Landgericht Frankfurt hat klargestellt, dass KI-Fehler unter bestimmten Voraussetzungen als potenzielle Wettbewerbsbehinderung eingestuft werden können. Damit eröffnet sich für Unternehmen die Möglichkeit, sich auf Basis des Kartellrechts gegen falsche KI-Texte zur Wehr zu setzen. Hintergrund dieser Entwicklung ist die wachsende Sorge vor dem „Zero-Click“-Effekt, bei dem Nutzer ihre Antworten direkt in den KI-Zusammenfassungen von Google finden und die Webseiten der ursprünglichen Urheber nicht mehr besuchen.
Weiterlesen nach der Anzeige
In dem Eilverfahren ging es um die Darstellung einer medizinischen Prozedur zur Penisverlängerung (Az.: 2-06 O 271/25). Ein Ärzteverbund kritisierte eine KI-Übersicht, die fälschlicherweise behauptete, bei dem Eingriff werde ein verborgener Teil des Penis durchtrennt und nach außen verlagert. Die Kläger sahen darin eine geschäftliche Beeinträchtigung durch sinkende Klickzahlen und versuchten, Google die Verbreitung unter Berufung auf das Kartellrecht sowie den Digital Markets Act (DMA) untersagen zu lassen.
Der Antrag scheiterte in dem konkreten Fall zwar, trotzdem enthält das mittlerweile veröffentlichte Urteil vom 10. September Signale für Unternehmen, die vom Suchmaschinen-Traffic abhängen. Die Richter stellten so etwa fest, dass deutsche Gerichte international zuständig sind und hiesiges Recht anwendbar ist. Da das Bundeskartellamt Google bereits eine marktübergreifende Bedeutung bescheinigte, unterliegt der Konzern einer besonderen Missbrauchsaufsicht.
Google hat Glück gehabt
Betroffene können sich deshalb grundsätzlich auf das kartellrechtliche Missbrauchsverbot nach den Paragrafen 33 und 19 des 2021 reformierten Gesetzes gegen Wettbewerbsbeschränkungen (GWB) berufen. Das Gericht hielt es ausdrücklich für möglich, dass objektiv falsche Angaben in KI-Übersichten eine unbillige Behinderung des Wettbewerbs darstellen können. Dabei sieht es insbesondere bei gesundheitsbezogenen Informationen ein erhebliches Gefahrenpotenzial für das Gemeinwohl.
Eine der zentralen Rechtsfragen blieb jedoch vorerst ungeklärt: Die 6. Zivilkammer ließ offen, ob Google die KI-Texte als eigene Äußerungen zuzurechnen sind oder ob es sich lediglich um ein Aggregat von Drittinformationen handelt. Aus der Urteilsbegründung geht hervor: Es könne offenbleiben, ob Google erfolgreich einwenden kann, dass es sich nur um Informationen Dritter handelt. Genauso wenig wollten die Richter klären, ob die Übersicht als selbst generiertes „Konglomerat“ – vergleichbar einer Zusammenfassung im Sinne der Rechtsprechung des Bundesgerichtshofs etwa zu „Auto-Complete“ – zu begreifen ist. Wären die KI-Zusammenfassungen als eigene Informationen gewertet worden, hätte das die Haftung für Google deutlich verschärft.
Dass der Antrag der Mediziner keinen Erfolg hatte, lag an der hohen juristischen Hürde der „Unbilligkeit“. Das Gericht betonte, eine Haftung auf Unterlassung bestehe nur, wenn eine unbillige Behinderung vorliege. Daran sind hohe Anforderungen zu stellen, die nicht bei jeder Unrichtigkeit erfüllt werden. In einer Gesamtabwägung kam die Kammer zum Schluss: Die Falschaussage war im spezifischen Gesamtkontext für den Durchschnittsnutzer nicht so schwerwiegend, dass sie eine sofortige einstweilige Verfügung gerechtfertigt hätte. Google profitierte dabei von der Ansicht der Richter, dass der Fehler durch den Kontext quasi „geheilt“ werden konnte.
Weiterlesen nach der Anzeige
Fehlerquote unter Verschluss
Auch die Vorwürfe hinsichtlich des Digital Markets Acts blieben ohne Erfolg, da die Richter die KI-Übersicht lediglich als Teil des Suchergebnisses und nicht als separates Produkt im Sinne von Artikel 6 DMA einstuften. Für den IT-Anwalt Jens Ferner unterstreicht diese Interpretation, dass KI-generierte Zusammenfassungen nicht automatisch als eigenständige Dienstleistungen gelten, solange sie sich auf die Suchanfrage beziehen und keine externen Angebote verdrängen. Trotzdem bewertet die Kanzlei Plutte das Urteil als „gute Nachricht“: Denn das Landgericht halte es dem Grunde nach für möglich, dass falsche KI-Angaben andere Unternehmen unbillig behindern können.
Google selbst wollte sich auf Anfrage von heise online nicht zu dem Richterspruch äußern. Offizielle Statistiken zur Fehlerquote hält der US-Konzern unter Verschluss. Um Risiken zu minimieren, hat Google die Ausspielrate bei sensiblen Themen wie Medizin oder Finanzen auf teils unter einem Prozent gedrosselt. Google versucht sich rechtlich zudem durch den Hinweis „experimentell“ abzusichern.
Insgesamt bietet das Urteil Experten zufolge so einen ersten Orientierungsansatz. Es ist aber kein Schlusspunkt in der Haftungsfrage. Es gibt für Google keinen „Freifahrtschein“. Hinweise des Suchmaschinenbetreibers wie „KI-Antworten können Fehler enthalten“ reichen nicht aus, wenn systematisch Falschinformationen verbreitet werden. Für betroffene Unternehmen eröffnet das Urteil zwar den kartellrechtlichen Weg. Es setzt aber hohe Hürden, da die Falschheit im Gesamtkontext nachweisbar und die Behinderung unbillig sein muss. Der Erfolg künftiger Prozesse wird davon abhängen, ob andere Gerichte dieser suchmaschinenfreundlichen Sichtweise folgen oder eine strengere Zurechnung als eigene Äußerung wählen.
(dahe)
Künstliche Intelligenz
Frankreich vs. Social Media: Nutzungsverbot unter 15 steht auf tönernen Füßen
Frankreichs Nationalversammlung hat ein Signal gesetzt und strengere Regeln zum Schutz Minderjähriger im digitalen Raum beschlossen. Deren Kern ist ein Nutzungsverbot sozialer Medien für Jugendliche unter 15 Jahren sowie eine Ausweitung des Handy-Verbots an Schulen bis in die Oberstufe. Präsident Emmanuel Macron hofft auf eine Umsetzung bis zum nächsten Schuljahr, doch Rechtsexperten bremsen die Euphorie. Hinter der Entschlossenheit verbirgt sich ein komplexes juristisches Tauziehen zwischen nationalem Souveränitätsanspruch und EU-Recht, das den Vorstoß verpuffen lassen könnte.
Weiterlesen nach der Anzeige
In dem Streit geht es nicht nur um eine pädagogische Debatte über die Bildschirmzeit, sondern um eine Weichenstellung zur Regulierung des digitalen Binnenmarkts. Die französische Politik gibt dem Schutz der mentalen Gesundheit von Kindern den Vorrang. Doch die Frage ist nicht mehr nur, ob soziale Medien für 14-Jährige schädlich sind, sondern wer in einem grenzenlosen Internet das Recht hat, den Zugang dazu zu beschränken.
EU-Verordnung als juristische Hürde
Hauptproblem für den französischen Gesetzgeber ist der Digital Services Act (DSA). Diese EU-Verordnung verfolgt das Ziel, das Recht für digitale Vermittlungsdienste vollständig zu harmonisieren. Ihre Bestimmungen haben damit Anwendungsvorrang vor nationalen Alleingängen. Wie Tobias Gostomzyk von der TU Dortmund gegenüber dem Science Media Center (SMC) erläutert, verpflichtet der DSA Plattformen zu umfassenden Sicherheitsmaßnahmen für Minderjährige. Er sieht aber kein generelles Nutzungsverbot vor. Ein nationales Gesetz, das über diese EU-Vorgaben hinausgeht, steht daher rechtlich auf wackeligen Füßen.
Die EU-Kommission hat selbst bereits Leitlinien veröffentlicht, die Methoden zur Altersverifikation vorsehen. Doch diese dienen vor allem der Umsetzung des bestehenden Schutzniveaus und nicht als Blankoscheck für nationale Verbote.
Zwischen Herkunftslandprinzip und zivilrechtlichen Kniffen
Weiterlesen nach der Anzeige
Ein weiterer Stolperstein ist das Herkunftslandprinzip der E-Commerce-Richtlinie. Es besagt, dass ein digitaler Diensteanbieter grundsätzlich nur den Gesetzen des Landes unterliegt, in dem er seinen Hauptsitz hat. Da Schwergewichte der Branche wie Meta, TikTok oder Google ihre Europa-Zentralen fast ausnahmslos in Irland angesiedelt haben, stößt die französische Regulierungsgewalt hier an geografischen Grenzen. Ein Gesetz, das nur in Frankreich ansässige Unternehmen binden würde, liefe in der Praxis in die Leere: Die relevanten Plattformen unterstehen hier gar nicht der französischen Gerichtsbarkeit.
Um diese Hürde zu umgehen, setzt Frankreich auf einen juristischen Kniff, den Stephan Dreyer vom Hans-Bredow-Institut als „indirekte Regelung“ beschreibt. Statt den Plattformen ein direktes medienrechtliches Verbot aufzuerlegen, sollen Verträge mit zu jungen Nutzern zivilrechtlich für nichtig erklärt werden. Ziel: Bei den Anbietern das Haftungsrisiko bei der Datenverarbeitung so hoch zu treiben, dass sie „freiwillig“ Altersprüfungen einführen. Ob dieser Umweg trägt, müsste gegebenenfalls der Europäische Gerichtshof entscheiden.
Risiken für den Jugendschutz und digitale Ausweichmanöver
Kritiker wie Dreyer geben zudem zu bedenken, dass starre Altersgrenzen sogar kontraproduktiv sein könnten. Wenn Jugendliche offiziell von den großen Plattformen verbannt werden, würden die Betreiber ihre mühsam aufgebauten Jugendschutzfunktionen und Awareness-Teams wohl zurückfahren. Schließlich dürften dort laut Gesetz gar keine Minderjährigen mehr sein.
Ferner besteht die Gefahr, dass Jugendliche auf weniger kontrollierte Nischenangebote ausweichen oder technische Krücken wie Virtual Private Networks (VPN) nutzen, um die geografischen Sperren zu umgehen. Ein flächendeckendes System zur Altersverifikation würde zudem nicht nur Kinder, sondern alle Internetnutzer betreffen. Das wirft erhebliche verfassungsrechtliche Fragen rund um Verhältnismäßigkeit und Datenschutz auf. Denn für den Zugang zu Informations- und Kommunikationsplattformen müssten plötzlich sensible Ausweisdaten oder biometrische Merkmale von Millionen Bürgern verarbeitet werden.
Trotz der massiven juristischen Einwände könnte der französische Vorstoß stilbildend wirken. Ähnliche Forderungen nach einem Social-Media-Verbot werden weltweit laut, von Australien bis Großbritannien. Auch innerhalb der EU wächst der Druck: Das EU-Parlament hat sich bereits im November für ein Mindestalter von 16 Jahren ausgesprochen. Je mehr Mitgliedstaaten nationale Alleingänge wagen, desto wahrscheinlicher wird es, dass die EU-Kommission den DSA hier nachjustiert.
(mid)
Künstliche Intelligenz
Glasfaserausbau und DSL-Abschaltung | c’t uplink
„Schließen Sie jetzt schnell einen Glasfaservertrag ab, Ihr DSL wird demnächst abgeschaltet!“ – laut Verbraucherschützern bringen windige Vertriebler im Haustürverkauf mitunter dieses Argument vor, um von potenziellen Kunden möglichst schnell Vertragsunterschriften einzusammeln. Das Argument ist kurzfristig natürlich völliger Quatsch. Es fußt aber auf der Tatsache, dass die alte DSL-Technik im Grunde längst ausgedient hat und mittel- bis langfristig – in einigen Jahren – sukzessive abgeschaltet werden soll.
Weiterlesen nach der Anzeige

Den wöchentlichen c’t-Podcast c’t uplink gibt es …
In dieser Folge des c’t uplink fragen wir, warum das so ist und klären eine Reihe weiterer Fragen. Zum Beispiel: Für wen wird ein Glasfaseranschluss teurer als der bisherige DSL-Zugang? Braucht man einen neuen Router? Welche Stolperfallen lauern beim Umstieg? Sollte man einen kostenlosen Hausanschluss machen lassen, wenn der Provider ihn anbietet? Und: Was ist überhaupt das Problem mit DSL?
Zu Gast im Studio: Urs Mansmann, Andrijan Möcker, Christian Wölbert
Host: Jan Schüßler
Produktion: Tobias Reimer
► Unsere Artikel zum Glasfaser-Umstieg lesen Sie bei heise+ (€)
► sowie in c’t 3/2026 (€).
In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.
Weiterlesen nach der Anzeige
► c’t Magazin
► c’t auf Mastodon
► c’t auf Instagram
► c’t auf Facebook
► c’t auf Bluesky
► c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!
(jss)
Künstliche Intelligenz
Milliarden-Übernahme: Q.AI gehört jetzt Apple
Apple übernimmt nur selten andere Unternehmen für Milliardenbeträge. Umso stärker beachtet wird nun, dass der iPhone-Konzern offenbar zwei Milliarden US-Dollar in die Hand genommen hat, um Q.AI zu kaufen, ein geheimnisvolles KI-Unternehmen. Die Firma mit Sitz in Tel Aviv, die 2022 gegründet worden ist, teilt auf ihrer Website kaum etwas über ihr Geschäftsmodell mit. Dort heißt es nur (siehe Screenshot): „In einer Welt voller Lärm schaffen wir eine neue Art von Ruhe.“
Weiterlesen nach der Anzeige
Sprache ohne Worte für ein neues Interface
Allerdings pfeifen es die KI-Spatzen von den Dächern, was das ist: Q.AI, das von den KI- und Bilderkennungsexperten Aviad Maizels, Yonatan Wexler und Avi Barliya gestartet wurde, kümmert sich um die Erkennung sogenannter „silent speech“, also Sprache ohne Worte. Praktisch heißt das: Q.AI hat eine Technik entwickelt, so seine Patentanträge, mit der es möglich ist, aus dem Gesichtsausdruck abzulesen, was ein Nutzer zumindest ungefähr denkt.
Die Bestätigung der Übernahme kam zunächst nicht von Apple selbst, sondern von Q.AI-Investore GV, vormals Google Ventures. In dessen Blog hieß es, die Übernahme von Q.AI sei die zweitgrößte in Apples Geschichte. Heißt: Nur Beats hatte sich Apple mehr kosten lassen. GV spart nicht mit hehren Worten: Der Aufkauf sei „etwas wirklich generationenübergreifendes“. Apple sei schließlich schon immer der Meister der „unsichtbaren Schnittstellen“ gewesen. Der iPhone-Unternehmer kaufe Firmen nicht nur für Funktionen, sondern kaufe ganze Teams, „die neu definieren können, wie Milliarden Menschen mit der Welt und anderen interagieren“. Q.AI-Chef Aviad Maizels hatte zuvor schon mit Apple zu tun: Er war Mitbegründer von PrimeSense, die Firma hinter der Xbox-Steuerung Kinect, die Apple bereits 2013 übernommen hatte.
Technik passt für Vision Pro und „echte“ Computerbrillen
Q.AI soll vor allem deshalb übernommen worden sein, um Apple zu helfen, im Rennen um KI-Wearables vorn dabei zu bleiben. So hat die Vision Pro schon jetzt ein beeindruckendes Interface, nutzt Augen- und Fingertracking nahezu perfekt. Das Erkennen von Gesichtsausdrücken könnte eine solche Schnittstelle – auch wenn es sich zunächst merkwürdig anfühlen dürfte – noch intuitiver machen. Q.AI hat dazu eine Technik entwickelt, die Patenten zufolge über Kopfhörer und Brillen „Mikrobewegungen der Gesichtshaut“ erfassen kann – für eine Kommunikation ohne Sprache. Neben der simplen Gefühlsermittlung soll auch komplette Sprache auf diese Art erkannt werden, man würde also mit seiner Brille sprechen, ohne dass das die Außenwelt mitbekommt. „Private, non-verbale Diskussionen“ wären so möglich, schreibt die Financial Times.
Meta hatte zuletzt für seine Display-Brille mit einem Armband gearbeitet, das Fingergesten erkennen kann. Die Q.AI-Technik kommt jedoch ohne zusätzliche Hardware außerhalb einer Brille oder eines Kopfhörers aus, so zumindest der Plan. Apples Chipboss Johny Srouji, der selbst aus Israel stammt, sagte in einem Statement, Q.AI sei eine „bemerkenswerte Firma“. Sie habe neue und kreative Wege gefunden, Bilderkennung und Maschinelles Lernen einzusetzen. Wie üblich dürfte es nun ruhig (beziehungsweise noch ruhiger) um Q.AI werden, während Apple Team und Technik integriert. Wann das praktische Auswirkungen hat, ist unklar, es könnte noch Jahre dauern.
Weiterlesen nach der Anzeige
(bsc)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
