Connect with us

Künstliche Intelligenz

ChatGPT-Prompts tauchten offenbar in der Google Search Console auf


Technikanalysten haben Einträge in der Google Search Console einer Webseite entdeckt, die stark nach ChatGPT-Prompts aussehen. Offenbar leitet OpenAI diese ungeschützt an die Google-Suche weiter. Der KI-Hersteller bestätigte das Problem nicht direkt, erklärte aber, ein entsprechender „Fehler“ sei nun behoben.

Weiterlesen nach der Anzeige

Entdeckt wurde das Problem von den beiden Tech-Beratern Jason Packer und Slobodan Manić, vergangenen Monat informierte Packer in einem Blogpost darüber. Packer hatte über die Einträge in der Google Search Console (GSC) einer Webseite gestutzt. Hier werden den Seitenbetreibern Google-Suchanfragen angezeigt, bei denen die eigene Seite in den Ergebnissen auftauchte. In Packers Fall bestanden diese Einträge aber nicht wie üblich aus wenigen Worten, sondern waren kleine Texte. Und es waren solche, die sehr stark an LLM-Prompts erinnerten. Insgesamt 200 solcher Einträge zählte er, teils mit sehr persönlichem Inhalt. Auffällig dabei: Alle hatten am Anfang eine ChatGPT-URL.

Außerdem entdeckten sie nach genauerer Suche einen Bug in einem ChatGPT-Prompt-Eingabefeld, welcher offenbar dafür sorgte, dass das Modell zu jedem Prompt auch eine Websuche durchführte und dafür eine ChatGPT-URL am Anfang des Prompts hinzufügte. Hier griff ChatGPT dann wohl auch auf Google zurück, allerdings nicht über eine API oder eine private Verbindung – sonst würden die Prompts nicht in der GSC auftauchen, führt der Autor aus. Auftauchen können die Prompts in der GSC von jeder Webseite, welche Googles Suchalgorithmus als relevant für die ChatGPT-URL erachtet. Packer gibt in seinem Beitrag zu bedenken, dass so verarbeitete ChatGPT-Prompts definitiv nicht privat sind – sie würden sowohl bei Google, in den GSCs diverser Website-Betreiber und womöglich auch bei einer Stelle landen, welche die Google-Suchen für ChatGPT-Prompts übernimmt.

Gegenüber der Nachrichtenagentur Ars Technica wollte OpenAI das nicht bestätigen, gab aber an, sich dem Problem mit der GSC bewusst zu sein. Zudem sprach OpenAI davon, einen Fehler behoben zu haben, der „vorübergehend“ bestanden und „eine sehr kleine Zahl von Suchanfragen betroffen habe“ und sich auf die Weiterleitung von Suchanfragen ausgewirkt habe. Packer geht nach der OpenAI-Stellungnahme davon aus, dass der Fehler in der Schicht von ChatGPT bestanden hat, der für die Umwandlung von Prompts in Suchanfragen verantwortlich ist. Statt wie vorgesehen einen Prompt in wenige relevante Suchbegriffe herunterzubrechen, wurde einfach der gesamte Prompt für die Suchanfrage genutzt.

Die These, dass es sich hier wirklich um ChatGPT-Prompts handelt, stützt Packer zum einen auf frühere Berichte, dass OpenAI Scraping bei der Google-Suche betreibt. Der Inhalt der GSC-Einträge an sich, und dass sich am Anfang stets eine ChatGPT-URL befindet, sieht er als weitere starke Hinweise. Von einer hundertprozentigen Sicherheit möchte er aber auch nicht sprechen.

Weiterlesen nach der Anzeige

Es ist nicht das erste Mal, dass privat geglaubte ChatGPT-Prompts öffentlich werden. Im Sommer machte eine falsch verstandene Funktion sehr private Chats öffentlich auffindbar – im Zweifel samt Namen.

Lesen Sie auch


(nen)



Source link

Künstliche Intelligenz

Projekt Salsa: Wie schnell muss ein Fahrer im autonomen Auto aufwachen?


Wer heute in einem hochautomatisierten Fahrzeug der Stufe SAE 3 im Stau steht, darf theoretisch die Hände vom Lenkrad nehmen und den Blick vom Asphalt abwenden. Das Auto übernimmt das Bremsen, Beschleunigen und Lenken, während der Mensch auf dem Fahrersitz die neu gewonnene Freiheit für ein Buch oder den Blick aufs Smartphone nutzen kann. Doch eine Grenze bleibt bisher eisern: Sobald die Augen zufallen, schlägt das System Alarm.

Weiterlesen nach der Anzeige

Das Problem ist dabei weniger die rechtliche Lage, sondern die technische Unfähigkeit der aktuellen Sensorgeneration. Heutige Autos können schlicht nicht verlässlich unterscheiden, ob ein Fahrer nur kurz die müden Augen schließt, um zu entspannen, oder ob er bereits in den Tiefschlaf gleitet.

Die Automobilbranche unterscheidet in diesem Umfeld verschiedene Stufen der Autonomie. Mit SAE-Level 3 (hochautomatisiert) übernimmt das System die Fahraufgabe unter bestimmten Bedingungen völlig, der Mensch muss aber innerhalb einer Vorwarnzeit bereit sein, das Steuer wieder zu übernehmen. Bei der SAE-Stufe 4 (vollautomatisiert) ist das Fahrzeug in spezifischen Szenarien wie etwa auf der Autobahn so weit eigenständig, dass der Mensch theoretisch komplett abschalten und eben auch schlafen könnte: Das Auto bringt das System hier bei Bedarf planmäßig selbstständig in einen sicheren Zustand.

Hier setzt das Forschungsprojekt Salsa an („Smarte, adaptive und lernbare Systeme für Alle“). Dahinter steht ein Verbund aus Automobilherstellern, Zulieferern und Wissenschaftlern, den unter anderem die Uni Stuttgart und das Fraunhofer-Institut für Optronik, Systemtechnik und Bildauswertung (IOSB) vorantreiben. Dessen Experten in Karlsruhe arbeiten daran, das technisch möglich zu machen, was der Gesetzgeber für Level-3-Systeme eigentlich schon erlaubt: das Relaxen mit geschlossenen Augen.

In umfangreichen Nutzerstudien haben die IOSB-Forscher daher Daten erhoben, um eine Künstliche Intelligenz (KI) zu trainieren. Diese soll dadurch weit mehr ausmachen können als nur geschlossene Lider. Es geht um Nuancen in der Körperhaltung und minimale Bewegungen, die von Innenraumkameras erfasst und in Echtzeit analysiert werden.

Der Clou bei den Versuchen im realitätsnahen Fahrsimulator des Instituts ist die Kombination verschiedener Messmethoden. Während Sensoren, wie sie bereits in Serienfahrzeugen verbaut sind, die Körperhaltung des Fahrers tracken, überwachen die Wissenschaftler parallel dazu die Hirnströme mithilfe der Elektroenzephalographie (EEG). Dabei messen Elektroden auf der Kopfhaut die elektrische Aktivität des Zerebrums. Die damit gewonnenen Daten dienen als Referenz, um der KI beizubringen, den tatsächlichen Zustand eines Menschen möglichst präzise einzuschätzen. So soll das System lernen, ob eine Person lediglich regeneriert oder bereits in Morpheus‘ Arme gesunken ist. Das ist entscheidend, da sich die Anforderungen an die Rücknahme der Fahraufgabe je nach Zustand deutlich unterscheiden.

Weiterlesen nach der Anzeige

Ein zentraler Aspekt der Forschung ist die sogenannte „Sleep Inertia“, also die Phase der Benommenheit direkt nach dem Aufwachen. Die Studien des IOSB belegen laut ersten Veröffentlichungen, dass die physische und psychische Leistungsfähigkeit nach einem echten Schlaf deutlich herabgesetzt ist. Ein entspannter Fahrer mit geschlossenen Augen ist demnach bereits nach etwa zehn Sekunden wieder voll einsatzbereit. Ein schlafender Mensch benötigt im Fall einer notwendigen Übernahme der Fahrzeugsteuerung auf Level-4-Niveau dagegen mindestens zwei Minuten, bis er wieder sicher agieren kann. Diese zeitliche Diskrepanz muss die Fahrzeug-KI zwingend einplanen, um gefährliche Situationen beim Übergang von der Autonomie zur manuellen Fahrt zu vermeiden.

Damit dieser Wechsel am Steuer nicht nur sicher, sondern auch komfortabel gelingt, hat das Projektteam auch untersucht, wie ein „sanftes Wecken“ durch das Fahrzeug aussehen könnte. Ein bloßes schrilles Warnsignal reicht oft nicht aus oder führt zu Schreckreaktionen. Die Forscher identifizierten stattdessen eine Kombination aus Vibrationen im Sitz und gezielten Sound-Elementen als optimalen Weg, um den Fahrer zurück in das Hier und Jetzt zu holen. Einen entsprechenden Prototyp testeten die Wissenschaftler nach eigenen Angaben bereits erfolgreich.

Die Ergebnisse dieser Arbeit sind mehr als graue Theorie. Sie könnten die Basis bilden für eine neue Generation von Fahrerzustandsmodellen, die künftig in Serienfahrzeugen für mehr Sicherheit und Akzeptanz sorgen. Wer sich ein Bild vom aktuellen Stand der Technik machen will, kann dies am 12. Februar in der Schwabenlandhalle in Fellbach tun. Dort präsentiert das Projektkonsortium, das vom Bundeswirtschaftsministerium eine Finanzspritze von rund 10 Millionen Euro erhalten hat, seine Zwischenbilanz. Der Weg zum entspannten Nickerchen hinter dem Steuer scheint auch damit zwar noch weit, doch die technologischen Leitplanken werden gerade in Karlsruhe und Stuttgart eingeschlagen.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Claude Code: Neuer „Fast Mode“ beschleunigt KI-Modell Opus 4.6


Wie der Anbieter Anthropic in seiner offiziellen Dokumentation mitteilt, richtet sich der neue „Fast Mode“ an Abonnenten sowie an Nutzer der Claude Console. Die Abrechnung erfolgt dabei als zusätzliche Nutzung.

Weiterlesen nach der Anzeige

Die Aktivierung des „Fast Mode“ erfolgt wahlweise über den Befehl /fast in der Kommandozeile von Claude Code oder direkt in der zugehörigen VS-Code-Erweiterung. Alternativ lässt sich der Modus durch den Eintrag "fastMode": true in der Benutzer-Einstellungsdatei permanent aktivieren, beschreibt Anthropic.

Eine Bestätigungsnachricht – „Fast mode ON“ – sowie ein Blitz-Symbol (↯) neben der Eingabeaufforderung signalisieren den aktiven Zustand. Sollte ein anderes KI-Modell in Verwendung sein, wechselt Claude Code automatisch zu Opus 4.6. Mit einer erneuten Eingabe von /fast lässt sich der Status jederzeit überprüfen.

Preislich startet der „Fast Mode“ für Opus 4.6 laut Dokumentation bei 30 US-Dollar pro 150 Millionen Token. Zum Start der Funktion wird bis zum 16. Februar ein Einführungsrabatt von 50 Prozent auf alle Pläne gewährt. Die Kosten werden als Zusatzleistung abgerechnet und belasten nicht die in den Abonnements inkludierten Ratenbegrenzungen.

Verfügbar ist der Modus für alle Nutzer mit einem Pro-, Max-, Team- oder Enterprise-Abonnement sowie für Kunden der Claude Console API. Auf Cloud-Plattformen von Drittanbietern wie Amazon Bedrock, Google Vertex AI oder Microsoft Azure ist der schnelle Modus hingegen nicht erhältlich.

Voraussetzung für die Nutzung ist die Aktivierung der Option für zusätzliche Kosten (“additional usage“), die eine Abrechnung über das im Plan enthaltene Kontingent hinaus ermöglicht. Während Inhaber von Einzelkonten diese Einstellung selbst in den Abrechnungsoptionen der Konsole vornehmen können, muss bei Team- und Enterprise-Konten ein Administrator die Funktion für die gesamte Organisation freischalten.

Weiterlesen nach der Anzeige

Standardmäßig ist der „Fast Mode“ für Organisationen mit Team- und Enterprise-Plänen deaktiviert und muss vom Administrator explizit aktiviert werden. Die entsprechende Konfiguration findet sich für API-Kunden in den Claude-Code-Präferenzen der Konsole und für Team- sowie Enterprise-Kunden in den Administratoreinstellungen unter dem Punkt „Claude Code“.

Der Anbieter empfiehlt den Einsatz des „Fast Mode“ insbesondere für Anwendungsfälle, bei denen Geschwindigkeit entscheidend ist. Dazu zählen die schnelle Iteration bei Code-Änderungen, Live-Debugging-Sitzungen sowie zeitkritische Projekte mit engen Deadlines.

Weniger geeignet ist der Modus hingegen für langlaufende, autonome Aufgaben, bei denen die Ausführungsgeschwindigkeit eine untergeordnete Rolle spielt. Auch für die Stapelverarbeitung, den Einsatz in CI/CD-Pipelines, eine Methode, mit der die Softwarebereitstellung während des Softwareentwicklungs-Lifecycles durch Automatisierung verbessert werden soll oder für besonders kostensensible Workloads wird von einer Nutzung abgeraten.

Sollten Nutzer die Ratenbegrenzungen ihres Plans erreichen, wechselt der „Fast Mode“ automatisch zur Standardgeschwindigkeit von Opus 4.6. Ein ausgegrautes Blitz-Symbol (↯) signalisiert diese temporäre Abkühlphase (Cooldown). Die Arbeit kann dann zu den regulären Preisen fortgesetzt werden, bis sich der schnelle Modus nach Ablauf der Frist selbstständig reaktiviert.

Der Anbieter kennzeichnet die Funktion als „Research Preview“. Dies impliziert, dass sich das Feature basierend auf dem Feedback der Nutzer noch ändern kann. Auch die Verfügbarkeit, die Preisgestaltung und die zugrunde liegende API-Konfiguration sind nicht final und können sich zukünftig ändern.


(tho)



Source link

Weiterlesen

Künstliche Intelligenz

Schluss mit Datensammelwut: Google macht reCAPTCHA DSGVO-konformer


Lange Zeit war der Einsatz von Googles reCAPTCHA für europäische Webseitenbetreiber ein datenschutzrechtlicher Drahtseilakt. Der Dienst soll gegen Bots und Spam schützen. Doch die Art der Datenverarbeitung sorgte regelmäßig für Kopfschmerzen in Rechtsabteilungen. Bisher agierte Google bei der Analyse von Nutzerverhalten weitgehend als eigenständiger „Datenverantwortlicher“. Das bedeutete, dass der US-Konzern selbst entschied, wie und zu welchen Zwecken die im Hintergrund gesammelten Informationen verarbeitet wurden – oft unter Verweis auf die allgemeinen Google-Datenschutzbestimmungen. Diese Ära der Unverbindlichkeit geht nun zu Ende.

Weiterlesen nach der Anzeige

Wie Google angekündigt hat, steht ein Richtungswechsel bevor. Zum 2. April 2026 stellt der Tech-Riese das Betriebsmodell von reCAPTCHA weltweit um. Der Dienst wandelt sich von einem Angebot mit eigener Datenhoheit hin zu einer klassischen Auftragsverarbeitung.

Damit gliedert sich der Bot-Schutz in die Riege der professionellen Google Cloud Services ein und folgt künftig denselben Compliance-Vorgaben, die Kunden bereits von der Cloud-Plattform des Hyperscalers kennen. Der Schritt geht über eine formale Anpassung der Allgemeinen Geschäftsbedingungen hinaus: er verschiebt das Machtgefüge in der Datenverarbeitung zugunsten der Betreiber.

In der Praxis bedeutet die Transformation, dass vom Frühjahr an die Webseitenbetreiber selbst in die Rolle des „Data Controllers“ schlüpfen. Sie bestimmen damit Zweck und Mittel der Datenverarbeitung, während Google lediglich als „Data Processor“ agiert. Google verarbeitet die auf den Kunden-Webseiten erhobenen Daten also nur noch nach strengen Anweisungen der jeweiligen Betreiber.

Damit reagiert das Unternehmen auf anhaltende Kritik von Datenschützern. Sie monierten, dass Nutzerdaten aus Sicherheitsabfragen unbemerkt in die riesigen Profiling-Töpfe des Werbekonzerns fließen könnten. Mit der neuen Struktur wird eine klare Trennwand eingezogen: Die erhobenen Informationen dürfen fortan nur noch für die Bereitstellung, Wartung und Sicherheit des reCAPTCHA-Dienstes selbst verwendet werden.

Besonders deutlich dürfte die Änderung für die Anwender sein. Wer eine Webseite aufruft, die durch reCAPTCHA geschützt ist, sieht im kleinen Logo-Badge oft noch den Hinweis auf die Google-Datenschutzerklärung und die Nutzungsbedingungen des Konzerns. Diese Verweise werden ab dem Stichtag verschwinden. Da die Nutzer nicht mehr den allgemeinen Google-Bedingungen unterworfen sind, entfällt die direkte rechtliche Verknüpfung im Widget. Google fordert seine Kunden proaktiv dazu auf, bestehende manuelle Hinweise auf die Google-Privacy-Policy im Zusammenhang mit reCAPTCHA von ihren Präsenzen zu entfernen, um der neuen Rechtslage gerecht zu werden.

Weiterlesen nach der Anzeige

Technisch gesehen soll der Übergang für Admins weitgehend geräuschlos erfolgen. Google versichert, dass es keine Unterbrechungen im Service geben werde. Bestehende Site-Keys behielten ihre Gültigkeit. Auch die Funktionsweise von Sicherheitsfunktionen wie Account Defense oder SMS-Schutz bleibe unangetastet. Interessant ist indes die strategische Einbettung: Da alle Classic-Keys bereits in die Cloud-Plattform migriert wurden, erfolgt die Verarbeitung nun einheitlich im Rahmen des sogenannten Cloud Data Processing Addendum. Dieser Zusatz soll Firmen die benötigte Rechtssicherheit geben, da die Datenverarbeitung nun zweckgebunden auf die Bedrohungserkennung und Betrugsprävention limitiert ist.

Der Wandel kommt zu einem kritischen Zeitpunkt. In einer Ära, in der KI nicht nur zur Abwehr, sondern auch zur Erstellung immer raffinierterer Bots genutzt wird, steigt der Bedarf an verlässlichen Verifizierungswerkzeugen. Webseitenbetreiber können prinzipiell künftig mit deutlich weniger Bedenken argumentieren, dass der Einsatz des Tools zur Wahrung berechtigter Interessen nach der Datenschutz-Grundverordnung (DSGVO) erfolgt. Denn die Gefahr, Nutzerrechte durch unkontrolliertes Tracking zu verletzen, ist erst einmal vom Tisch.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Beliebt