Datenschutz & Sicherheit

Statt Bilderrätsel: Google führt QR-Code-Challenge gegen KI-Bots ein


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Google baut reCAPTCHA zu einer breiteren Plattform gegen Betrug und Missbrauch im Web aus. Auf seiner Cloud-Konferenz Next ’26 stellte der Konzern „Google Cloud Fraud Defense“ vor. Die Plattform soll nicht mehr nur menschliche Nutzer von klassischen Bots unterscheiden, sondern auch KI-Agenten erfassen. Google nennt das Angebot die „nächste Evolution“ von reCAPTCHA und positioniert es als Vertrauensplattform für ein „agentic web“ – also für Anwendungen, in denen autonome Software-Agenten Aufgaben für ihre Nutzer erledigen.

Weiterlesen nach der Anzeige

reCAPTCHA war ursprünglich vor allem als CAPTCHA und Bot-Abwehr bekannt. In den vergangenen Jahren hat Google das Produkt jedoch deutlich breiter aufgestellt und vermarktet es inzwischen als Risiko- und Betrugsschutz, etwa für Logins, Kontoanlagen oder Bezahlvorgänge. Fraud Defense baut darauf auf. Bestandskunden müssen laut Google weder migrieren noch ihre Site Keys, Integrationen oder Verträge anpassen.

Im Mittelpunkt der Ankündigung steht die Annahme, dass Web-Traffic künftig nicht mehr primär aus Menschen und einfachen Skripten besteht. Google rechnet mit deutlich mehr Aktivität durch KI-Agenten, die eigenständig Informationen abrufen, Entscheidungen vorbereiten und ganze Abläufe anstoßen. Ein Beispiel sind Shopping-Assistenten, die Produkte vergleichen, Warenkörbe füllen und Käufe im Namen ihrer Nutzer einleiten. Solche Systeme können erwünscht sein, eröffnen aus Sicht der Sicherheit aber neue Angriffsflächen.

Eine der wichtigsten Neuerungen ist deshalb ein Dashboard zur Messung agentischer Aktivität. Betreiber sollen darüber sehen, welche KI-Agenten und sonstigen automatisierten Systeme ihre Websites ansteuern. Google will diesen Traffic identifizieren, klassifizieren und analysieren und die Identitäten von Agenten und Nutzern miteinander verknüpfen, um Risiken besser einzuschätzen. Technisch interessant ist daran vor allem der Ansatz, automatisierte Zugriffe nicht mehr pauschal als Bot-Verkehr zu behandeln, sondern nach Vertrauenswürdigkeit, Typ und Identität zu unterscheiden.

Dafür setzt Google auch auf neue Protokolle und entstehende Standards. Die Ankündigung nennt unter anderem Web Bot Auth sowie SPIFFE (Secure Production Identity Framework for Everyone). Die Idee dahinter: Legitime Agenten sollen ihre Herkunft und Identität nicht mehr nur über leicht fälschbare Merkmale wie User-Agent-Strings oder IP-Adressen behaupten, sondern kryptografisch nachweisen. Ein verifizierter Einkaufsagent ließe sich dann anders behandeln als ein Scraper, der sich lediglich als gewöhnlicher Browser tarnt.

Als zweites zentrales Element führt Google eine Richtlinien-Engine ein. Damit sollen Unternehmen Regeln für unterschiedliche Phasen einer Sitzung festlegen – von der Registrierung über das Login bis zu Zahlung und Bestellabschluss. Die Entscheidungen orientieren sich unter anderem an Risikowerten, Automatisierungstypen und der Identität eines Agenten. In der Praxis könnte ein verifizierter KI-Agent so Produktdaten und Verfügbarkeiten abfragen dürfen, beim Zugriff auf ein Kundenkonto oder beim Auslösen einer Zahlung aber strengeren Regeln unterliegen.

Weiterlesen nach der Anzeige

Hinzu kommt eine sogenannte „AI-resistant challenge“. Dahinter steckt ein Prüfmechanismus per QR-Code, der bei verdächtigen Vorgängen eine menschliche Bestätigung verlangt. Anders als klassische Bilder- oder Texträtsel soll diese Challenge automatisierte Angriffe wirtschaftlich unattraktiv machen. Denkbar ist etwa, dass eine Anwendung bei einem riskanten Bestellvorgang einen QR-Code einblendet, den der Nutzer mit dem Smartphone scannen muss, um seine Anwesenheit nachzuweisen.

Google begründet den Umbau mit einer veränderten Bedrohungslage. Die Risiken verschöben sich von klassischer Bot-Automatisierung und ungültigem Traffic hin zu komplexeren Angriffen, etwa der Übernahme von Agentenidentitäten oder großflächigem Betrug mit synthetischen Identitäten. Mit synthetischen Identitäten meint Google Konten oder Profile, die teils aus echten, teils aus erfundenen Merkmalen bestehen und dadurch auf den ersten Blick legitim wirken.

Der Konzern verbindet die Ankündigung mit weitreichenden Leistungsversprechen. Fraud Defense nutze dieselben weltweiten Bedrohungsdaten, die auch Googles eigenes Ökosystem absichern. Das zugrunde liegende Netzwerk schütze nach Unternehmensangaben die Hälfte der Fortune-100-Konzerne und mehr als 14 Millionen Domains. Zudem spricht Google davon, Kontoübernahmen im Schnitt um 51 Prozent zu reduzieren, wenn Betreiber Risiken über die gesamte Sitzung hinweg korrelieren.

Weitere Informationen zu Google Cloud Fraud Defense und reCAPTCHA finden sich im Blogbeitrag.

Lesen Sie auch


(fo)



Source link

Beliebt

Die mobile Version verlassen