Künstliche Intelligenz

Vivaldi will keine KI-Agenten im Browser


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Alle gängigen Browseranbieter stellen KI-Agenten zur Verfügung. Manche KI-Unternehmen entwickeln Browser, die auf den KI-Agenten basieren. Nur Vivaldi nicht. Das norwegische Unternehmen, das den gleichnamigen Browser entwickelt, stellt sich gegen diesen Trend.

„Wir wollen nicht, dass du auf einen passiven Zuschauer reduziert wirst“, heißt es in einem verschickten Statement von CEO Jon von Tetzchner. Darin erklärt der, dass Browsen den Menschen helfen solle, etwas zu entdecken, Ideen auszutüfteln und eigene Entscheidungen zu treffen. Sobald jedoch KI-Assistenten zwischen Nutzer und Web sitzen, entscheiden die Anbieter – in der Regel Big Tech –, was man sieht und was nicht. „Deine Entscheidung wird ausgelagert.“

Vivaldi meint, KI im Browser sei ein Hype. Man entscheide sich für Menschen statt für Hype. Das Internet werde deutlich weniger spannend, wenn es keine Entdeckungen mehr gibt. Und Vivaldi betont immer wieder, man kämpfe für ein besseres Web.

Schon vor einem Jahr hatte Vivaldi erklärt, keine Large Language Models in den Browser integrieren zu wollen – quasi die Vorgänger der KI-Agenten. Damals war von Plagiarismus, Urheberrechtsverletzungen und Verletzungen der Privatsphäre von Menschen die Rede und davon, dass LLMs nicht geeignet seien als Gesprächspartner. LLMs generieren plausibel klingende Lügen, schrieb Vivaldi. Seither hat sich der Output zahlreicher KI-Modelle deutlich verbessert, dennoch bleibt es freilich dabei, dass ganze Antworten oder Teile von Antworten eines KI-Chatbots oder Agenten auch schlicht falsch sein können.

In der Tat hatte etwa auch OpenAIs CEO Sam Altman kürzlich gesagt, man solle den ChatGPT Agent nur bedingt nutzen – denn er mache Fehler, für die es bislang auch keine Lösung gäbe. Es sei nur eine Chance, die Zukunft auszuprobieren, aber offenbar noch nicht fertig. Konkret warnt Altman allerdings nicht vor Halluzinationen, also falschen Informationen, sondern davor, dass böswillige Akteure versuchen könnten, den KI-Agenten auszutricksen – und damit beispielsweise an Informationen bis hin zu Mails, Kontodaten und mehr gelangen.

Von potenziellen Angriffen etwa mittels Prompt Injections sind alle KI-Dienste betroffen. Anthropic hat zudem gerade erst einen Bericht herausgegeben, wie Cyberkriminelle den KI-Chatbot Claude missbrauchen.

Lesen Sie auch


(emw)



Source link

Beliebt

Die mobile Version verlassen