Apps & Mobile Entwicklung

Vorsicht! So leicht kann auf Euer Home-Tech zugegriffen werden


Einer der Vorteile von Gemini ist die Unterstützung von natürlicher Sprache, die es den Nutzern ermöglicht, Befehle zu erteilen, die dem Chatten mit einer Person ähneln, anstatt komplexe Codes oder Jargon zu verwenden. Diese Fähigkeit könnte jedoch auch eine Schwachstelle darstellen, die es Angreifern ermöglicht, Googles KI auszutricksen, damit sie in Eurem Haus Schaden anrichtet, indem sie ruchlose Aktionen ausführt, auch ohne direkten Zugriff.

KI kann dazu benutzt werden, Euer Haus zu kapern

Ein Cybersecurity-Forschungsteam hat gezeigt, wie Googles digitaler Assistent mit einfachen Aufforderungen oder einer indirekten Prompt-Injection-Attacke leicht ausgetrickst werden kann. Dies wird auch als „Promptware“ bezeichnet, wie Wired berichtet. Angreifer können mit dieser Methode bösartigen Code und Befehle in den Chatbot einschleusen und dann Smart-Home-Geräte manipulieren, ohne dass sie direkten Zugriff oder Rechte erhalten.

 

Dem Team gelang es, Gemini mit Promptware-Angriffen über Google Calendar Invites zu täuschen. Konkret beschrieben sie, dass ein Nutzer Gemini nur öffnen muss, um eine Zusammenfassung seines Kalenders anzufordern, und dann einfach mit „Danke, Leute“ antworten muss. Das würde ausreichen, um Aktionen auszuführen, die der Besitzer nie ausdrücklich genehmigt hat.

Sobald die Befehle erteilt wurden, konnte Gemini im Beispiel das Licht ausschalten, die Fenstervorhänge schließen und sogar einen intelligenten Heizkessel aktivieren. Auch wenn diese Aktionen unbedeutend erscheinen, stellen sie ein ernsthaftes Risiko für die Nutzer dar, insbesondere wenn sie unbeabsichtigt oder böswillig ausgelöst werden.

Google hat die Sicherheitslücke behoben

Die gute Nachricht ist, dass diese Sicherheitslücke nicht von böswilligen Akteuren in freier Wildbahn ausgenutzt worden ist. Und bevor der Angriff auf der aktuellen Black Hat Konferenz vorgestellt wurde, hatte das Team Google bereits im Februar darauf aufmerksam gemacht. Das Unternehmen sagte, dass es das Problem seitdem gepatcht hat.

 

Es fügte hinzu, dass solche Angriffe zwar sehr selten sind und umfangreiche Vorbereitungen erfordern, aber die Art dieser Schwachstellen ist sehr schwer zu verteidigen.

Dies ist nicht das erste Mal, dass über einen ähnlichen Fall berichtet wird, bei dem Akteure ein KI-Modell manipulieren können. Im Juni wurde berichtet, dass Hacker aus Russland, China und dem Iran das ChatGPT von OpenAI genutzt haben, um Malware zu entwickeln, die für Betrügereien und Desinformation in den sozialen Medien eingesetzt werden sollte. Es wird vermutet, dass OpenAI Konten, die mit diesen Aktivitäten in Verbindung stehen, abgeschaltet hat.



Source link

Beliebt

Die mobile Version verlassen