Künstliche Intelligenz
ChatGPT-Prompts tauchten offenbar in der Google Search Console auf
Technikanalysten haben Einträge in der Google Search Console einer Webseite entdeckt, die stark nach ChatGPT-Prompts aussehen. Offenbar leitet OpenAI diese ungeschützt an die Google-Suche weiter. Der KI-Hersteller bestätigte das Problem nicht direkt, erklärte aber, ein entsprechender „Fehler“ sei nun behoben.
Weiterlesen nach der Anzeige
Entdeckt wurde das Problem von den beiden Tech-Beratern Jason Packer und Slobodan Manić, vergangenen Monat informierte Packer in einem Blogpost darüber. Packer hatte über die Einträge in der Google Search Console (GSC) einer Webseite gestutzt. Hier werden den Seitenbetreibern Google-Suchanfragen angezeigt, bei denen die eigene Seite in den Ergebnissen auftauchte. In Packers Fall bestanden diese Einträge aber nicht wie üblich aus wenigen Worten, sondern waren kleine Texte. Und es waren solche, die sehr stark an LLM-Prompts erinnerten. Insgesamt 200 solcher Einträge zählte er, teils mit sehr persönlichem Inhalt. Auffällig dabei: Alle hatten am Anfang eine ChatGPT-URL.
OpenAI: „Temporärer Fehler“
Außerdem entdeckten sie nach genauerer Suche einen Bug in einem ChatGPT-Prompt-Eingabefeld, welcher offenbar dafür sorgte, dass das Modell zu jedem Prompt auch eine Websuche durchführte und dafür eine ChatGPT-URL am Anfang des Prompts hinzufügte. Hier griff ChatGPT dann wohl auch auf Google zurück, allerdings nicht über eine API oder eine private Verbindung – sonst würden die Prompts nicht in der GSC auftauchen, führt der Autor aus. Auftauchen können die Prompts in der GSC von jeder Webseite, welche Googles Suchalgorithmus als relevant für die ChatGPT-URL erachtet. Packer gibt in seinem Beitrag zu bedenken, dass so verarbeitete ChatGPT-Prompts definitiv nicht privat sind – sie würden sowohl bei Google, in den GSCs diverser Website-Betreiber und womöglich auch bei einer Stelle landen, welche die Google-Suchen für ChatGPT-Prompts übernimmt.
Gegenüber der Nachrichtenagentur Ars Technica wollte OpenAI das nicht bestätigen, gab aber an, sich dem Problem mit der GSC bewusst zu sein. Zudem sprach OpenAI davon, einen Fehler behoben zu haben, der „vorübergehend“ bestanden und „eine sehr kleine Zahl von Suchanfragen betroffen habe“ und sich auf die Weiterleitung von Suchanfragen ausgewirkt habe. Packer geht nach der OpenAI-Stellungnahme davon aus, dass der Fehler in der Schicht von ChatGPT bestanden hat, der für die Umwandlung von Prompts in Suchanfragen verantwortlich ist. Statt wie vorgesehen einen Prompt in wenige relevante Suchbegriffe herunterzubrechen, wurde einfach der gesamte Prompt für die Suchanfrage genutzt.
Packer: Starke Hinweise
Die These, dass es sich hier wirklich um ChatGPT-Prompts handelt, stützt Packer zum einen auf frühere Berichte, dass OpenAI Scraping bei der Google-Suche betreibt. Der Inhalt der GSC-Einträge an sich, und dass sich am Anfang stets eine ChatGPT-URL befindet, sieht er als weitere starke Hinweise. Von einer hundertprozentigen Sicherheit möchte er aber auch nicht sprechen.
Weiterlesen nach der Anzeige
Es ist nicht das erste Mal, dass privat geglaubte ChatGPT-Prompts öffentlich werden. Im Sommer machte eine falsch verstandene Funktion sehr private Chats öffentlich auffindbar – im Zweifel samt Namen.
Lesen Sie auch
(nen)
Künstliche Intelligenz
OpenAI: Prompt Injections für KI-Browser bleiben ein Problem
Prompt Injections werden laut OpenAI ein dauerhaftes Problem für KI-Browser und die darin enthaltenen Agenten sein. Aussichten auf echte Sicherheit gibt es offenbar nicht. Stattdessen vergleicht das Unternehmen den Angriff damit, dass auch Menschen auf Scam hereinfallen, und es bisher keine Möglichkeit gäbe, sie zu schützen.
Weiterlesen nach der Anzeige
Dennoch versichert OpenAI in einem Blogbeitrag, dass sie ihren KI-Browser Atlas erneut zumindest sicherer gegen Prompt Injections gemacht haben. Nur eben nicht vollständig sicher. Intern würden vom sogenannten Red-Teaming immer neue Angriffsmöglichkeiten entdeckt, gegen die der Browser – beziehungsweise das KI-Modell dahinter – abgesichert wird. Abgesichert heißt, dem Modell wird ein konkretes Beispiel mitgegeben und dazugehörige Handlungsweisen festgeschrieben. Dafür nutzt OpenAI unter anderem einen LLM-basierten Angreifer, der Agenten trainieren soll.
KI-Agenten: Vertrauen, aber keine Kontrolle
Das heißt auch, es handelt sich um eine Art Katz-und-Maus-Spiel, das Angreifer und KI-Unternehmen spielen. Jede Seite denkt sich kontinuierlich neue Angriffe aus. OpenAI schreibt, man gehe davon aus, dass Angriffe dadurch zumindest immer schwerer und teurer würden. „Letztendlich ist es unser Ziel, dass Sie einem ChatGPT-Agenten bei der Nutzung Ihres Browsers genauso vertrauen können wie einem hochkompetenten, sicherheitsbewussten Kollegen oder Freund.“
Wie weit solches Vertrauen reicht, ist wohl von Mensch zu Mensch unterschiedlich. Es zeigt aber auch, es gibt keine endgültige Sicherheit oder Kontrolle.
Bei Prompt Injections wird dem Agenten im Browser oder auch einem KI-Modell ganz grundsätzlich untergejubelt, das Modell solle sich in einer bestimmten Art verhalten oder im Falle eines Agenten auch umsetzen, also handeln. Ganz simpel kann es reichen, wenn auf einer Webseite Anweisungen wie ein Prompt für den Agenten untergebracht sind. Das geht beispielsweise mit weißer Schrift auf weißem Untergrund, sodass es für den Menschen nicht sichtbar ist, für den Agenten jedoch schon.
OpenAI nennt im Blogbeitrag das Beispiel, ein Angreifer könne eine bösartige E-Mail schreiben, die einen Agenten dazu verleitet, sensible Daten, etwa Steuerunterlagen, an eine vom Angreifer kontrollierte E-Mail-Adresse weiterzuleiten. Dabei ist es ein typisches Agenten-Szenario, dass ein solcher E-Mails automatisiert bearbeitet und zusammenfasst.
Weiterlesen nach der Anzeige
Auch Sam Altman hatte schon vor potenziellen Gefahren durch Prompt Injections für den KI-Browser Atlas und den ChatGPT Agenten gewarnt. Kurz darauf kam heraus, dass es bereits einen Angriff gegeben hatte. ChatGPT verriet dabei Angreifern persönliche Daten aus E-Mails.
(emw)
Künstliche Intelligenz
iX-Workshop: Schritt für Schritt – VMware zu Proxmox VE
Ehemals zufriedene VMware-Kunden müssen seit der Übernahme durch Broadcom auf eine andere Virtualisierungslösung umsteigen, weil sie die neuen Preise nicht mehr bezahlen können. Proxmox ist eine gut funktionierende und praxiserprobte Alternative. Wie der Umstieg von einer VMware-basierten Virtualisierungsinfrastruktur auf Proxmox VE mit geringem Aufwand gelingt, erfahren IT-Administratoren im Workshop Hands-on: Migration von VMware zu Proxmox.
Weiterlesen nach der Anzeige
Sie lernen die Architektur von Proxmox VE kennen und verstehen die Unterschiede zu VMware vSphere. Ein zentraler Punkt ist die Planung eines Migrationsprojekts, um den Übergang möglichst reibungslos zu gestalten. Dabei erhalten Sie wertvolle Ansatzpunkte und Strategien, um typische Fallstricke zu vermeiden. Sie erfahren auch, wie verschiedene Storage Backends wie ZFS, Ceph, iSCI oder NFS in Proxmox VE eingebunden werden.
Praxisorientiertes Lernen im Labor
In einer eingerichteten Laborumgebung führen Sie eine beispielhafte Migration durch. Dabei arbeiten Sie parallel zum Trainer und setzen folgende Schritte direkt um: Einrichten des Proxmox VE Hosts, Überprüfen von Quell- (VMware ESXi) und Zielsystem, Aufsetzen und Validieren einer Testmaschine, Anbinden der Systeme und das tatsächliche Durchführen der Migration.
|
Januar 14.01.2026 |
Online-Workshop, 09:00 – 16:00 Uhr |
|
April 23.04.2026 |
Online-Workshop, 09:00 – 16:00 Uhr 10 % Frühbucher-Rabatt bis zum 26. Mrz. 2026 |
|
August 11.08.2026 |
Online-Workshop, 09:00 – 16:00 Uhr 10 % Frühbucher-Rabatt bis zum 14. Jul. 2026 |
|
Dezember 02.12.2026 |
Online-Workshop, 09:00 – 16:00 Uhr 10 % Frühbucher-Rabatt bis zum 04. Nov. 2026 |
Dieser Workshop richtet sich gezielt an erfahrene IT-Administratoren, deren aktuelle IT-Infrastruktur auf VMware-Virtualisierung basiert und die einen Umstieg auf Proxmox VE planen oder in Erwägung ziehen.
Ihr Trainer Frank Bartkewitz ist als zertifizierter Proxmox VE Trainer bei der croit GmbH tätig. Zu seinen Schwerpunkten zählen Systemadministration und Netzwerktechnik, insbesondere Virtualisierungslösungen wie Proxmox VE.

(ilk)
Künstliche Intelligenz
Roboterhersteller Kuka verzichtet auf betriebsbedingte Kündigungen
Der Roboterhersteller Kuka will auf betriebsbedingte Kündigungen am Stammsitz in Augsburg verzichten – dafür müssen Mitarbeiter Einschnitte hinnehmen. Darauf einigte sich das Unternehmen nach eigenen Angaben mit dem Betriebsrat.
Weiterlesen nach der Anzeige
„Einzelne tarifliche Gehaltserhöhungen sowie Sonderzahlungen“ sollen verschoben oder ausgesetzt werden, teilte Kuka mit. Dafür soll es bis Juli 2029 keine betriebsbedingten Kündigungen geben. So sollen dann auch nötige Investitionen möglich werden.
Einschnitte für die Beschäftigten
„Uns ist bewusst, dass die Einschnitte für die Beschäftigten durch die Verschiebung und den Wegfall tariflicher Leistungen spürbar sind“, sagte Carola Leitmeir, die die Verhandlungen für den KUKA Betriebsrat geleitet hat. „Dennoch ist diese Vereinbarung ein starkes Signal für die Zukunftsfähigkeit des Standorts Augsburg. Es ist uns damit gelungen, den Personalabbau zu begrenzen.“
Im November hatte das Unternehmen mitgeteilt, mehr Jobs abzubauen als geplant und insgesamt 560 statt 400 Vollzeitstellen streichen zu wollen.
Ein Unternehmenssprecher begründete den Schritt damals mit einer weiterhin verschärften Marktlage im Bereich der Industrieroboter. In diesem Jahr fehlten Kuka neue Aufträge im Wert von mehr als 100 Millionen Euro. Kuka ist zu einem großen Teil von Bestellungen aus der Automobilindustrie abhängig. Insgesamt hat Kuka etwa 3.000 Mitarbeiterinnen und Mitarbeiter in Augsburg.
(olb)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
