Künstliche Intelligenz
Durchaus beeindruckend: ChatGPT Agent im Test
KI-Agenten hypen zurzeit – kein Wunder, schließlich simulieren sie das Handeln echter Menschen. ChatGPT Agent, wohl das bislang meist beachtete Agenten-Produkt, erschien Mitte Juli. c’t 3003 hat die Software ausführlich getestet.
Transkript des Videos
(Hinweis: Dieses Transkript ist für Menschen gedacht, die das Video oben nicht schauen können oder wollen. Der Text gibt nicht alle Informationen der Bildspur wieder.)
Guck mal hier, ich tippe hier ein: Ey, ich brauche Merch für unseren YouTube-Kanal. Hier hast du unser Logo. Hol mal Preise ein für 500 T-Shirts. Gerne so Fairtrade und Bio-Baumwolle und so. Und wenn ich das bestätigt habe, einfach direkt zum Verlag in die Karl-Wiechert-Allee 10 in Hannover bestellen.
Ja, das ist krass, denn das macht der dann wirklich, der ChatGPT Agent. Okay, der hat natürlich keinen Zugriff auf meine Konten. Das heißt, er kann nicht selbst bezahlen, aber die ganze Vorrecherche hat er übernommen und auch den Großteil des Bestellprozesses. Ich muss dann hier nur noch meine Bezahldaten angeben und kann selbst auf „Bestellen“ klicken.
Ist das hier schon wieder die große KI-Revolution, die alles verändern wird? Nein, so einfach ist das nicht, denn Agents und vor allem der ChatGPT Agent, die haben aktuell noch große Probleme.
Das hier ist zum Beispiel der Ballermann-Hit „Serverparty in Palma“, den der Agent für mich geschrieben hat.
In diesem Video zeige ich euch, was schon geht – und das ist auch wirklich beeindruckend –, was noch nicht geht und wo auch unklar ist, ob es jemals gehen wird. Bleibt dran.
Liebe Hackerinnen, liebe Internet-Surfer, herzlich willkommen hier bei …
Was ist überhaupt ein KI-Agent?
Ja, also ChatGPT Agent. Aber lass uns erst mal definieren, was überhaupt so ein Agent ist. Denn der Begriff ist ja, sag ich mal, ziemlich unkonkret. Aber man hört zurzeit immer häufiger davon. Gerade neulich bei der Meldung, dass der Softbank-Manager Masayoshi Son gesagt hat, seine Firma werde Billionen von KI-Agenten einstellen, um echte Menschen rauswerfen zu können. Und Softbank ist laut Forbes immerhin die 130. größte Firma der Welt.
Ja, aber Agenten – ja, was ist das? Also man kann erst mal sagen, dass KI-Agenten Software sind, die mit vorhandenen großen Sprachmodellen arbeiten. Also z. B. der ChatGPT Agent mit GPT-4o. GPT-4o ist einfach das, was voreingestellt ist, wenn ihr ganz normal ChatGPT verwendet.
Und ihr kennt das ja wahrscheinlich, dass sich ChatGPT oder auch Claude oder Grok oder DeepSeek oder LLaMA sich weigern, Dinge wirklich durchzuziehen, also konkrete Dinge zu tun, z. B. irgendwie eine direkte, ausführbare Datei von eurem Programmierprojekt zu erstellen. Die sagen dann immer nur: „Ich kann dir Tipps geben, wie du das hinbekommst.“ Aber das war’s dann halt auch.
Mit Agenten ist das nun anders. Die sollen nämlich einmal die Autonomie von LLMs steigern – also dass die Sachen selbstständig machen und entscheiden können –, aber auch die Fähigkeiten ganz konkret verbessern.
Und wenn ihr jetzt sagt: „Ja, wieso, ChatGPT kann aber doch jetzt schon Python-Code ausführen oder auch Bildgenerierung anschmeißen, wenn ChatGPT das für sinnvoll hält?“ Ja, das stimmt. Das ist auch tatsächlich schon agentenähnliches Verhalten – also dass ChatGPT sich selbst überlegt, was es für Tools verwenden kann. Aber ein richtiger Agent ist nochmal autonomer unterwegs, und vor allem geht das dann auch über mehrere Schritte.
Also, wenn ich zu einem KI-Agenten sage: „Plan mir mal meinen Urlaub, dann und dann, da und da“, dann fängt der an zu überlegen: Wie kommt man denn da jetzt überhaupt hin? Muss ich da irgendwie einen Flug buchen oder einen Zug, Hotels buchen und so weiter? Und Stichwort „buchen“ – der bucht das dann auch wirklich. Zumindest Stand heute: anfangen, die Websites aufzurufen und da meine Daten einzutragen.
Wenn ich im normalen ChatGPT sage: „Plan mir mal meinen Urlaub“, dann gibt er mir halt einfach nur so eine Tagesablaufliste raus, was ich so machen kann. Ums Buchen muss ich mich dann selbst kümmern.
Zusammengefasst: Ein KI-Agent – und in dem Fall ganz konkret ChatGPT Agent – versucht, sich wie ein Mensch zu verhalten. Also eine Person, die mitdenkt und versucht, Entscheidungen in meinem Sinne selbst zu treffen.
Die etwas technischere Erklärung
Also, das war jetzt die nicht-technische Erklärung. Ich als Nerd finde das oft ein bisschen anschaulicher, wenn man das nochmal technisch erklärt. Der ChatGPT Agent hat Zugriff auf seinen eigenen Linux-Rechner. Also, ist natürlich ein virtueller Rechner, klar, aber darauf kann er halt Dinge tun. Also zum Beispiel ein Terminal oder einen Browser ausführen oder einfach ein Bildanzeige-Programm. Er kann dann einfach direkt mit Dateien arbeiten, die ich ihm schicke, oder er kann Dateien generieren, die er mir schickt.
Aber vor allem der Browser macht das Ding natürlich supermächtig, weil ja sehr vieles in einem Browser gemacht werden kann – zum Beispiel T-Shirts bestellen, also ein Beispiel vom Anfang.
Praxisbeispiel 1: Coding
Ja, das war jetzt die Theorie. Kommen wir jetzt endlich zur Praxis. Erst mal mit dem Positivbeispiel, was ich wirklich extrem beeindruckend fand. Ich habe nämlich einfach gesagt: Ich möchte ein Spiel programmiert haben, was richtig doll Spaß macht, aber auch beeindruckend gut aussieht. Bitte frag mich nichts, denk dir einfach irgendwas aus. Ich möchte gleich einfach ein wirklich tolles Spiel spielen. Okay, lass dir so lange Zeit, wie du willst.
Ja, und dann hat es vier Minuten gedauert, und ich habe eine ZIP-Datei bekommen. Und die habe ich ausgepackt und das gestartet, und das lief auf Anhieb. Und ich habe ja schon viel mit Vibe-Coding und irgendwelchen Coding-Tools rumhantiert, aber so ein One-Shot – also dass das wirklich alles auf Anhieb funktioniert, auch wirklich alles, ohne irgendwelche Fehler oder so –, das habe ich, glaube ich, wirklich noch nie gehabt.
Also ich musste immer erst mal: funktioniert nicht, bisschen hin und her. Aber so, zack – das habe ich wirklich noch nicht gesehen. Das Spiel war halt nur ein bisschen langweilig. Ich habe dann gesagt: Kannst du noch ein bisschen Sound und vielleicht so Extra-Waffen dazu bauen oder so? Bisschen simpel alles gerade. Das hat dann nochmal neun Minuten gedauert – also war offenbar schwieriger, als das Grundspiel zu bauen. Aber das hat dann auch auf Anhieb funktioniert, und das hatte dann Sound und es hatte Extra-Waffen und hatte aufsammelbare Extras, und Spaß hat das vielleicht für eine Minute gemacht. Aber immerhin: hat Spaß gemacht für eine Minute.
Aber gerade bei solchen Extrawünschen, nachdem das Ganze fertig ist, da haben laut meiner Erfahrung bisherige Coding-Tools immer gerne zusätzliche Fehler eingebaut. Hier halt nicht.
Und dann dachte ich mir: War das jetzt einfach Glück? Und dann habe ich mir noch einen Minesweeper-Klon mit c’t-3003-Grafik rausgelassen. Vielleicht erinnert sich noch jemand: Minesweeper war bei fast allen Windows bis Windows 8 vorinstalliert. Ja, und hier hat der erste Versuch dann zu einer Fehlermeldung geführt. Ich habe dann einfach die Fehlermeldung weitergegeben – also Screenshot gemacht, hingeschickt, „hier, Fehlermeldung“ – und kurz darauf hat es dann geklappt. Das Titelbild war ein bisschen kaputt, aber das Spiel hat funktioniert. Und ich sag mal: Die Sound-Effekt-Auswahl, die ist … interessant.
Ja, ich habe zwar gesagt, die Soundeffekte dürfen ruhig lustig sein – also so „oh nein, ein Bombe“ –, aber das Sample, was er da ausgesucht hat, ist dann doch unangenehm.
Praxisbeispiel 2: Manipulieren von Dateien
Und dann wollte ich mal gucken, wie der Agent so mit Dateien umgehen kann, zum Beispiel mit Bildern. Weil ich habe das schon ziemlich oft gehabt, dass ich ganz viele falsch gedrehte Bilder richtig drehen musste. Und das war dann immer ziemlich frickelig und ein großer manueller Aufwand. Deshalb habe ich jetzt einfach mal ein paar unterschiedlich gedrehte Bilder in eine ZIP-Datei geschmissen und gesagt: „Dreh mir die mal korrekt hin und benenne mir die direkt irgendwie sinnvoll.“ Und das Benennen hat gut funktioniert, aber das Drehen nur bei vier von sechs Bildern. Und genau diese kleinen Fehler, die sind ein großes Problem.
Praxisbeispiel 3: Übertragen von Informationen aus einem Video in eine Tabelle
Guck mal hier: Ich habe den Agenten zum Beispiel gebeten, die Linux-Gaming-Benchmark-Ergebnisse aus diesem YouTube-Video hier in eine Tabelle reinzuschreiben – einfach, weil ich das Video interessant finde und alle Ergebnisse gerne mal an einem Ort sehen wollte, statt mich so durch das Video skippen zu müssen.
Ja, und das hat auch erst mal funktioniert – also nachdem der Agent erst mal daran gescheitert ist, das Video auf YouTube überhaupt aufzurufen und dann Dinge gemacht hat, die ziemlich sicher gegen die YouTube-Nutzungsbedingungen verstoßen, was ich auch deshalb hier nicht im Detail zeigen will, weil mir YouTube sonst womöglich das Video sperrt. Das sollen OpenAI und Google mal schön unter sich ausmachen. Da habe ich nichts mit zu tun.
Am Ende hat der Agent es jedenfalls irgendwie hinbekommen, die Benchmark-Daten aus dem Video zu extrahieren. Aber da waren dann einfach stumpf Fehler drin. Ich vermute, dass der da intern mit einer zu geringen Auflösung gearbeitet hat und deshalb die Texterkennung hier einmal 8 als 3 erkannt hat. Dass ich das gemerkt habe bei den ganzen Zahlen in der Tabelle, die größtenteils richtig waren – das war eher so Glückssache.
Aber sowas kann natürlich doll ins Auge gehen, wenn man sich darauf verlässt und das für wichtige Dinge verwendet.
Beim anderen YouTube-Video mit Zahlen drin hat der Agent einfach den größten Teil ausgelassen, ohne mir das von sich aus mitzuteilen. Also er hat zwar gesagt, dass einige Zahlen schwer zu lesen waren – was nicht stimmt, also zumindest meine Mensch-Augen konnten die sehr gut lesen –, aber er hat halt einfach einen Großteil überhaupt ausgelassen der Informationen.
Und darauf habe ich dann den Agent angesprochen, und er hat dann so ein bisschen wie ein Schüler reagiert, der die Hausaufgaben nicht gemacht hat. Ja, nee, da war halt irgendwie so viel. Also O-Ton, was der Agent geantwortet hat: „Für eine vollständige Tabelle müssten alle Benchmark-Screenshots manuell und in Ruhe ausgewertet werden, was in dieser Umgebung leider nicht machbar ist.“ Also so irgendwie zu laut oder so. Ich weiß nicht, hat mich nicht überzeugt. Die Ausrede auf jeden Fall.
Praxisbeispiel 4: Recherche und Präsentation
Vielleicht klappt es ja besser mit Business-Sachen. Ich habe dann gesagt: „Mach mir mal eine Präsentation, womit ich die heise-Geschäftsführung beeindrucken kann, wie doll c’t 3003 ist.“ Ja, und was da dann rauskam – das ist halt wirklich, kann’s nicht anders sagen: Das ist so total generische KI-Plörre. Also etwas, was die meisten Leute, die schon mal mit KI gearbeitet haben, auch als KI-generiert erkennen würden.
Also schon dieses hässliche Bild hier. Da hätte man ja auch einfach das Logo nehmen können. Das findet man ja im Netz.
Dann hier die Kurve mit dem Abo-Wachstum. Ja, okay, die Zahlen stimmen. Aber die Legende hier rechts, das ist schon ziemlich Larifari. Und es sind da halt auch Fehler drin. Also pro Video bis zu 200K. Ich habe gerade mal geguckt, wir hatten schon 37 Videos, die deutlich über 200K lagen. Das ging hoch bis 800.000 oder so.
Und wenn ich sage, ich will mit einer Präsentation Leute beeindrucken, dann sollte man solche Sachen vielleicht richtig machen. Also gerade, wenn es um hohe Zahlen geht. Und dann halt so random Zeug wie: 67 % wollen Hintergründe verstehen. Ja klar, wollt ihr da draußen Hintergründe verstehen. Für mich jetzt nicht so eine interessante Information. Und 82 % waren gestern schon auf YouTube. Okay, ja, ist das wichtig in dieser Präsentation?
Ja, und dieses Balkendiagramm hier ergibt irgendwie gar keinen Sinn. Da sind dann auch nochmal richtige Fehler drin. Denn c’t 3003 hat keinen WhatsApp-Kanal. Und auch hier steht wieder die völlig weirde Info, dass 82 % der Leute, die c’t 3003 gucken, auch schon gestern auf YouTube waren.
Ja, und dann zum Schluss so stumpf: Unterstützt c’t 3003. Und dann aber auch am Ende nochmal viel zu doll in die Superlativ-Kiste gegriffen. Wir sind sicherlich nicht Europas führender Tech-Channel. Das wäre auch ziemlich peinlich, wenn ich das sagen würde zu irgendwem.
Also ich kann aus dieser Präsentation, weiß nicht, vielleicht 20 % verwenden, wenn ich die wirklich vor Leuten halten würde. Der Rest ist Schund. Und ganz ehrlich: Wenn mir so eine Präsentation gezeigt werden würde, mit diesen Quatschfolien und den offensichtlichen Fehlern, und wo man auch deutlich erkennen kann, dass das KI-generiert ist – also diese Person würde bei mir jetzt nicht unbedingt Pluspunkte sammeln.
Praxisbeispiel 5: Einen Hit produzieren
Und als Letztes wollte ich nochmal wissen, wie der Agent eigentlich Websites bedient, die ein Login brauchen – wie so gut wie alle Musikgenerierungsdienste.
Ich habe also den Agenten gefragt, dass er mir drei Ballermann-Party-Songs mit Technikthemen machen soll. Was mit UDIO oder ZUNO – hatten wir schon mal ein Video dazu gemacht – und wie die alle heißen, ziemlich unproblematisch klappt. Hat der Agent aber nicht gemacht, sondern irgendwelche anderen komischen Dienste verwendet.
Und ja, dann kamen dann die drei Songs: „Techno auf Mallorca“, „Serverparty in Palma“, „Schaltkreis im Strand“ und darunter dann: „Dieses Lied erzählt von einem Schaltkreis, der am Strand zwischen Liegestühlen zur Partydeko wird.“ Das ist schon ziemlich schlimm, aber das klingt noch viel schlimmer. Möchte ich eigentlich gar nichts zu sagen.
Ja, ich habe dann aber auf jeden Fall zum Agenten gesagt, er soll ZUNO oder UDIO verwenden. Ja, und dann hat er gesagt: Ja, ich habe ja keinen Account. Ich übergebe dir mal das Browser-Fenster und du kannst dich einloggen. Und da steht auch: OpenAI kann nicht mitlesen, wenn du hier Logins eingibst und so.
Ich rate euch aber ganz deutlich davon ab, irgendwelche wichtigen Logins oder womöglich sogar Geldsachen in dieses ChatGPT Agent-Browser-Fenster einzugeben, das auf irgendeiner virtuellen Maschine sonst wo läuft und niemand so richtig weiß, was damit eigentlich passiert. Also das nur kurz als Warnung.
Ich habe das mit einem wertlosen Test-Account versucht, der keinerlei persönliche Daten verknüpft hat. Aber das ging auch gar nicht, weil Google beim Login direkt sagt: Dieser Browser ist nicht sicher. Das könnte noch ein größeres Problem für den ChatGPT Agent werden, wenn nämlich Webdienste ihn erkennen und direkt ausschließen.
Wie kommt man an den ChatGPT Agent?
Ja, und ganz wichtig natürlich noch: Wie kommt man denn überhaupt an den ChatGPT Agent? Ja, dafür braucht man bislang einen der kostenpflichtigen ChatGPT-Tarife, also Plus, Pro oder Team. Ich habe es mit einem Plus-Account getestet und hatte damit 40 Agent-Benutzungen drin – wurde mir zumindest angezeigt. Letztendlich war mein Kontingent aber schon nach weniger als der Hälfte der Benutzung leer. Das ist also ziemlich intransparent und womöglich auch buggy.
Ich hatte das nämlich im Test mehrfach, dass der Agent sich in einer Aufgabe deaktiviert hat und er dann mit dem normalen ChatGPT-Modus weitergemacht hat. Also da ist auf jeden Fall noch Verbesserungspotenzial.
Fazit
Also ihr werdet jetzt nicht von mir hören: KI-Agenten werden alles verändern! Rette sich, wer kann! Milliarden Menschen werden arbeitslos! Auf jeden Fall werden mit dieser Version des ChatGPT Agent wenig bis gar keine Menschen arbeitslos, weil es dafür noch nicht gut genug funktioniert.
Also ich fand einige Dinge beeindruckend, wie gesagt – also diese One-Shot-Programmiersachen oder auch, dass so Bestell-Websites schon ganz gut bedient werden konnten. Man sieht aber deutlich, wenn man dem Agent da so zuguckt, was er so macht: Das ist alles sehr, sehr umständlich und sehr, sehr Brute-Force-mäßig. Und der Agent auch einfach oft daneben klickt und überhaupt nicht richtig versteht, was er da tut.
Mich hat das ein bisschen an diese Infinite-Monkey-Theorie erinnert, also dass ein Affe, der irgendwas auf einer Tastatur tippt, irgendwann jeden beliebigen Text geschrieben haben wird. Also so schlimm ist es natürlich nicht, aber es ist halt nicht elegant, sagen wir mal so, sondern sehr Trial-and-Error. Aber das wird mit der Zeit sicherlich besser werden, da bin ich mir einigermaßen sicher.
Aber das große Problem mit den Fehlern – also den Halluzinationen, die halt bei LLMs immer auftreten –, das kann wohl niemand Seriöses voraussehen, wann und vor allem, ob dieses Problem behoben wird. Stand heute tauchen jedenfalls beim ChatGPT Agent bei meinen Tests regelmäßig solche Fehler auf – also falsch erkannte Zahlen oder dass c’t 3000 ein WhatsApp-Kanal hat und alles so einfach halluzinierte Dinge.
Und das habe ich dann davon, wenn ich die Ergebnisse dann fummelig und mühselig selbst überprüfen muss. Da habe ich dann nicht wirklich viel Zeit gespart.
Also ich werde jetzt auch nicht den KI-Super-Pessimisten spielen, denn da ist schon ein großes Potenzial zu spüren. Es ist auch wirklich deutlich besser als die Agenten, die ich bisher gesehen habe. Aber es wäre unseriös zu sagen: Das wird sich so und so entwickeln und bis dahin sind die und die Probleme gelöst.
Und ich weiß halt auch nicht, was passieren würde, wenn die Probleme gelöst werden und KI-Agenten tatsächlich einen Großteil der berufstätigen Menschen ersetzen, wenn diese Agenten fehlerfrei arbeiten würden und das alles noch ein bisschen besser hinbekommen würden. Dann ist da auf jeden Fall das Potenzial, viele Stellen zu ersetzen.
Was ich auf jeden Fall sicher weiß: Dass der ChatGPT Agent aktuell oft mit sehr hohem Energieeinsatz, sprich Serverlast, irgendwelche Dinge versucht, mit Gewalt zu lösen – also viel Energie reinsteckt, um einen Mausklick oder so hinzubekommen. Also Dinge, die Menschen mit deutlich weniger Energie bewerkstelligen können.
Ja, was meint ihr? Wie geht das weiter mit den KI-Agenten? Gerne in die Kommentare schreiben. Ich lese wirklich alles und beantworte auch eure Fragen, zumindest an den ersten Tagen nach der Veröffentlichung. Tschüss!
c’t 3003 ist der YouTube-Channel von c’t. Die Videos auf c’t 3003 sind eigenständige Inhalte und unabhängig von den Artikeln im c’t Magazin. Die Redakteure Jan-Keno Janssen, Lukas Rumpler, Sahin Erengil und Pascal Schewe veröffentlichen jede Woche ein Video.
(jkj)
Künstliche Intelligenz
Faltbare Smartphones – nützliche Technik oder teure Spielerei? | c’t uplink
Faltbare Smartphones sind gekommen um zu bleiben: Sie erweitern entweder mit einem Handgriff die nutzbare Bildschirmfläche auf die Größe eines kleinen Tablets oder verschwinden zusammengeklappt selbst in der kleinsten Hosentasche. Möglich machen das ihre biegsamen OLED-Displays. Für Modelle früherer Generationen musste man sehr tief in die Tasche greifen und sich mit so mancher Eigenart arrangieren.
Den wöchentlichen c’t-Podcast c’t uplink gibt es …
In dieser Ausgabe von c’t uplink werfen wir einen Blick auf die neueste Generation der faltbaren Smartphones und klären, ob sie nur etwas für Technikfreaks sind oder einen echten Mehrwert bieten. Zu den technischen Highlights der neuen Foldables zählt, dass sie mittlerweile genauso dünn sind wie herkömmliche Smartphones und mit technischen Leckerbissen wie alltagstauglichen Außendisplays und guten Kameras aufwarten. Wir beleuchten die Technik und Mechanik von Faltphones, sprechen über deren Preis und Haltbarkeit und klären, ob ihr Mehrwert den Aufpreis rechtfertigt und ob man weiterhin an anderer Stelle Abstriche in Kauf nehmen muss.
Zu Gast im Studio: Steffen Herget
Host: Stefan Porteck
Produktion: Ralf Taschke
► Die c’t-Artikel zum Thema (Paywall):
In unserem WhatsApp-Kanal sortieren Torsten und Jan aus der Chefredaktion das Geschehen in der IT-Welt, fassen das Wichtigste zusammen und werfen einen Blick auf das, was unsere Kollegen gerade so vorbereiten.
► c’t Magazin
► c’t auf Mastodon
► c’t auf Instagram
► c’t auf Facebook
► c’t auf Bluesky
► c’t auf Threads
► c’t auf Papier: überall, wo es Zeitschriften gibt!
(spo)
Künstliche Intelligenz
Belgisches Gericht ordnet Sperre der Open Library des Internet Archive an
Das Handelsgericht in Brüssel hat eine umfassende Sperranordnung erlassen, die den Zugang zu sogenannten Schattenbibliotheken wie Anna’s Archive, Libgen, Z-Library und OceanofPDF erschweren soll. Ziel solcher Plattformen ist es, Forschungsergebnisse allgemein leichter zugänglich zu machen und wissenschaftliche Aufsätze hinter Bezahlschranken hervorzuholen. Auffällig ist, dass diese Verfügung auch die Open Library des Internet Archive einschließt. Dabei handelt es sich um ein Projekt einer gemeinnützigen Organisation in Kalifornien nach US-amerikanischen Recht.
Ungewöhnlich an der Anordnung von Mitte Juli, die das Portal Torrentfreak veröffentlicht hat, ist zudem: Bisher wurden bei solchen Sperren hauptsächlich Internetprovider zur Blockade von Webseiten verdonnert. Der neue Beschluss aus Belgien geht viel weiter. Er richtet sich nicht nur an Zugangsanbieter wie Telenet, Proximus, Mobile Vikings, Orange sowie Elon Musks Satellitendienst Starlink, sondern auch an viele weitere Unternehmen, die bei der Verbreitung von Webseiten eine Rolle spielen.
Dazu gehören Suchmaschinen wie Google und Bing, DNS-Anbieter, Betreiber von Content Delivery Networks (CDNs) und Resolver wie Cloudflare, die für die Übersetzung von Domänennamen in IP-Adressen zuständig sind, Host-Provider wie Amazon Web Services, Hostinger und GoDaddy sowie Werbetreibende. Erfasst sind sogar Zahlungsdienstleister wie PayPal, Cash App und Alipay. Die einbezogenen Firmen werden dazu verpflichtet, die betroffenen Websites aus den Suchergebnissen zu entfernen, das Hosting einzustellen und die Domainnamen zu deaktivieren.
Fair-Use-Doktrin greift nicht
Die Open Library leiht Bücher nach dem Prinzip „ein Buch, ein Nutzer“ aus – ähnlich wie eine traditionelle Bibliothek. Im Gegensatz zu kommerziellen Anbietern erstellt der Betreiber eigene digitale Kopien der Bücher, anstatt Lizenzen zu kaufen. Verlage und Autoren halten dagegen, dass das Digitalisieren und Verleihen geschützter Inhalte ohne ihre Genehmigung illegal ist. Sie beziehen sich dabei auf einen aufsehenerregenden US-Rechtsstreit, den das Internet Archive verloren hat.
Der Betreiber argumentierte hier, dass sein „kontrolliertes digitales Leihprogramm“ eine rechtmäßige Nutzung auf Basis der „Fair Use“-Doktrin der USA darstelle. Damit konnte er sich aber nicht durchsetzen und musste schon zwischenzeitlich aufgrund der Copyright-Klage großer Verlage rund 500.000 Bücher aus seinem Sortiment nehmen.
Die Rechteinhaber beschreiben die Open Library in dem belgischen Rechtsstreit als ein öffentliches Portal, auf der registrierte Nutzer einfach auf ihre Bücher zugreifen und sie herunterladen können. Dazu gehören etwa 1542 Werke des Verlags Dupuis und über 5000 Bände von Casterman. Den Herausgebern zufolge sind die Betreiber der Online-Bibliothek nicht leicht zu identifizieren, obwohl das Internet Archive und dessen Macher wie der Internetpionier Brewster Kahle weithin bekannt sind. Es fehlen angeblich gesetzlich vorgeschriebene Informationen auf der Webseite. Die Rechteinhaber werten das als Hinweis darauf, dass die Plattform illegal betrieben wird.
Das Internet Archive wurde nicht gehört
Das Brüsseler Gericht schloss sich nun der Ansicht der Antragsteller und der US-Kollegen an und machte eine „eindeutige und erhebliche Rechtsverletzung“ aus. Die Sperranordnung erließen die belgischen Richter, ohne Vertreter des Internet Archive anzuhören: Die Verfügung erging „ex parte“, also ohne Information und Einbezug der zweiten Partei.
Momentan ist die Open Library anscheinend auch aus Belgien noch erreichbar und nicht aktiv gesperrt. Ein Vertreter des Internet Archive erklärte gegenüber Torrentfreak, dass ihm keine Störungen bekannt seien. Mehrere Domains der vier Schattenbibliotheken sind bereits auf der offiziellen Sperrliste der zuständigen belgischen Behörde aufgeführt, die Webadresse der Open Library aber noch nicht. Angesichts der weitreichenden Anordnung ist damit zu rechnen, dass einige der eingeschlossenen Internetvermittler Rechtsmittel dagegen einlegen werden.
DNS-Resolver zunehmend im Visier
Traditionelle Maßnahmen für DNS-Sperren verpflichten lokale Internetanbieter dazu, den Zugriff ihrer Kunden auf rechtswidrige Seiten zu erschweren. Solche Mittel sind weltweit verbreitet, gelten aber als leicht zu umgehen. In jüngster Zeit richten sich die Sperranträge daher verstärkt auch gegen andere Vermittler wie DNS-Resolver. Entsprechende, heftig umstrittene Erlasse sind etwa aus Deutschland, Frankreich und Italien bekannt. Der in Zürich ansässige DNS-Dienst Quad9 etwa sah sich 2023 gezwungen, eine globale Sperre gegen das Portal Canna.to und eine Zweitdomain einzurichten. Grund: Das Landgericht Hamburg drohte dem DNS-Resolver im Streit über die Zugangsermöglichung zu den Download-Seiten mit urheberrechtlich geschützten Songs von Sony Music ein Ordnungsgeld in Höhe von 10.000 Euro an. Das Oberlandesgericht Dresden stufte Quad9 wenig später aber nicht als Täter ein.
Seit einigen Monaten ergehen einschlägige Anordnungen gegen Zugangsanbieter und DNS-Resolver auch in Belgien. Dies löste erheblichen Widerstand aus. So stellte etwa Cisco seinen OpenDNS-Dienst in dem Land ein. Schattenbibliotheken sind auch hierzulande Rechteverwertern ein Dorn im Auge: Vodafone, Telekom, 1&1 sowie Telefónica erschweren den Zugang ihrer Kunden zu Sci-Hub seit 2024 mit DNS-Sperren. Den Maßnahmen zugrunde liegt eine Empfehlung der privaten Clearingstelle Urheberrecht im Internet (CUII), die sich jüngst neu ausrichtete.
(nen)
Künstliche Intelligenz
US-Geschworenengericht: Tesla trägt Mitschuld an tödlichem Unfall mit Autopilot
Tesla soll wegen eines tödlichen Unfalls, der sich 2019 ereignete, Schadenersatz von insgesamt mehreren hundert Millionen US-Dollar zahlen. Dazu haben Geschworene den kalifornischen E-Autobauer in einem bahnbrechenden Prozess vor dem US-Bundesgericht für den südlichen Bezirk von Florida in Miami verdonnert. Es ist das erste Mal, dass eine Jury den Konzern von Elon Musk im Zusammenhang mit dem umstrittenen Fahrerassistenzsystem Autopilot wegen widerrechtlicher Tötung mitverantwortlich gemacht hat. Alle bisherigen Fälle wiesen Gerichte ab oder beide Seiten schlossen außergerichtlich Vergleiche.
Bei dem Unfall in Key Largo raste ein Tesla des Typs Model S laut Berichten mit aktiviertem Autopilot-System in ein stehendes Fahrzeug. Der Wagen überfuhr mit 100 Kilometern pro Stunde ein Stoppschild und erfasste dabei zwei Personen, die am Straßenrand neben ihrem abgestellten Auto auf dem Seitenstreifen in die Sterne schauten. Ein Opfer starb bei dem Crash, das zweite erlitt schwere Kopfverletzungen.
Der Tesla-Fahrer gab an, er habe sich darauf verlassen, dass der Autopilot Fehler oder Unaufmerksamkeiten von ihm ausgleichen würde. Dabei sei ihm während voller Fahrt sein Handy entglitten. Er habe daher den Blick zu Boden gerichtet, um das Mobiltelefon aufzuheben. Die entsprechende Wahrnehmung des Assistenzsystems haben Tesla und sein CEO Musk immer wieder maßgeblich gefördert. Der Konzernchef orchestrierte laut belastendem Material in einer anderen gerichtlichen Auseinandersetzung persönlich ein Werbevideo von 2016, in dem das Unternehmen Fähigkeiten von Autopilot übertrieben bis falsch darstellte und von autonomen Fahren sprach. Tesla argumentierte dagegen, der Fahrer trage die alleinige Verantwortung.
Tesla haftet zu einem Drittel
Die Geschworenen entschieden nun am Freitag, dass die Schuld geteilt wird: Der Fahrer ist ihnen zufolge zu zwei Dritteln (67 Prozent) verantwortlich. Da er nicht angeklagt war, muss er seinen Anteil aber nicht bezahlen.
Tesla haftet dem Beschluss zufolge zu 33 Prozent. Die Jury sprach der Familie der verstorbenen Frau und dem schwer verletzten Freund 129 Millionen US-Dollar Schadenersatz zu, wovon der Autofabrikant seinen Drittelanteil zahlen soll. Zusätzlich legten sie einen sogenannten Strafschadenersatz in Höhe von 200 Millionen US-Dollar fest, den Tesla allein begleichen müsste. Ein solcher Zusatz kann laut anglo-amerikanischen Recht im Zivilprozess einem Kläger über den tatsächlich erlittenen Schaden hinaus zuerkannt werden. Die Hinterbliebenen und der verletzte Partner der Verstorbenen hatten 345 Millionen US-Dollar Wiedergutmachung gefordert.
Tesla will Berufung einlegen
Die Geschworenen befanden, dass Tesla ein Auto mit einem „Mangel“ verkauft habe, der zum Unfall beitrug. Der Anwalt der Kläger hob hervor, dass das Unternehmen den Autopiloten nur für Autobahn-ähnliche Straßen konzipiert habe. Trotzdem verhindere es nicht, dass das System auch in anderen, mehr Aufmerksamkeit erfordernden Verkehrsbereichen genutzt werde. Musk habe ferner behauptet, Autopilot sei besser als menschliche Fahrer, was falsche Hoffnungen weckte. Der CEO habe den Billionenwert der Firma „mit dem Hype um autonomes Fahren auf Kosten von Menschenleben gestützt“.
Ein Sprecher von Tesla bezeichnete das Geschworenenurteil als gespickt mit „erheblichen Rechtsfehlern“ und kündigte an, in Berufung zu gehen. Dem Konzern zufolge ist allein der Fahrer schuld, da er zu schnell gefahren sei, Gas gegeben und so den Autopiloten deaktiviert sowie nach seinem heruntergefallenen Telefon gesucht habe, statt auf den Verkehr zu achten. Das Assistenzsystem sei gar nicht die Ursache für den Unfall gewesen. Kein Auto im Jahr 2019 und keines heute hätte diesen Unfall verhindert. Die Entscheidung gefährde so auch die Entwicklung neuer Sicherheitstechnologien.
(nen)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 1 Monat
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Social Mediavor 2 Monaten
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten