Künstliche Intelligenz
KI-Branche fürchtet größte jemals zugelassene US-Sammelklage zum Copyright
KI-Branchenverbände fordern das US-Berufungsgericht für das Nördliche Kalifornien auf, eine Sammelklage wegen Copyright-Verletzungen gegen das KI-Unternehmen Anthropic zu blockieren. Sie monieren, dass dieses juristische Verfahren, dem sich potenziell bis zu sieben Millionen Kläger anschließen könnten, die gesamte US-amerikanische Industrie für Künstliche Intelligenz finanziell ruinieren und die technologische Wettbewerbsfähigkeit der USA gefährden könnte.
Die ursprüngliche Klage reichten die drei Buchautoren Andrea Bartz, Charles Graeber und Kirk Wallace Johnson voriges Jahr ein. Sie behaupten, Anthropic habe ihre geschützten Werke zum Training seiner KI-Modelle wie Claude verwendet. Nachdem ein Bundesbezirksgericht die Eingabe als Sammelklage im Juni zumindest teilweise zuließ, legte Anthropic vor Kurzem Berufung ein. Das Unternehmen argumentiert, der federführende, schon seit rund 50 Jahren im Silicon Valley Recht sprechende Richter William Alsup, habe bei seiner Entscheidung keine gründliche Analyse durchgeführt und die potenziellen Risiken des Falls unterschätzt.
Sollte die Sammelklage zugelassen werden, befürchtet Anthropic Forderungen in Höhe von Hunderten Milliarden US-Dollar an Schadensersatz binnen weniger Monate. Angesichts dieses existenziellen Risikos könnte das Unternehmen gezwungen sein, sich auf einen Vergleich einzulassen, argumentiert es. Dabei habe die Firma prinzipiell das Recht, die Vorwürfe zu bestreiten. Der Claude-Betreiber warnt: Eine kostspielige außergerichtliche Einigung würde einen beunruhigenden Präzedenzfall für die ganze Branche der generativen KI schaffen.
Herausforderung der Rechteklärung
IT-Verbände wie die Consumer Technology Association (CTA) und die Computer and Communications Industry Association (CCIA) unterstützen Anthropic in einer am Donnerstag eingereichten Stellungnahme an das Gericht. Auch sie zeigen sich alarmiert, dass „die fehlerhafte Sammelklage“ des Bezirksgerichts immensen Schaden „nicht nur für ein einzelnes KI-Unternehmen“ schaffen würde. Generell gälten Copyright-Auseinandersetzungen als ungeeignet für Sammelklagen, da jeder einzelne Autor das Eigentum an seinen Werken nachweisen müsse.
Sogar Autorenvertretungen und Bürgerrechtsorganisationen wie die Authors Alliance, die American Library Association, die Association of Research Libraries, die Electronic Frontier Foundation (EFF) und Public Knowledge unterstützen die Berufung von Anthropic. Sie weisen darauf hin, der Fall Google Books habe gezeigt, dass der Nachweis des Eigentums an Nutzungs- und Verwertungsrechten alles andere als einfach sei.
Die Fürsprecher der Kreativwirtschaft kritisieren, dass Richter Alsup die Identifizierung von bis zu sieben Millionen Rechteinhabern als zu einfach angesehen habe. In Wahrheit sei es extrem kompliziert, die Eigentumsverhältnisse bei so vielen Werken zu klären, da Verlage nicht mehr existieren könnten, Rechte an einzelne Personen vererbt worden seien oder es sich potenziell um „verwaiste Werke“ ohne klare Rechteinhaber handele.
Falscher Ansatz Sammelklage
Laut der entsprechenden Eingabe gibt es „keinen realistischen Weg“, diese Probleme auf kollektive Weise zu lösen. Ein unzulängliches Benachrichtigungssystem für potenzielle Kläger und die immense Komplexität der Rechteklärung würden das Verfahren unkontrollierbar machen. Die Organisationen warnen, dass eine Fortführung der Klage die Unsicherheit über KI-Training mit urheberrechtlich geschütztem Material nur weiter verstärken würde. Zudem könnten einige Autoren nie erfahren, dass die Klage überhaupt geführt wird. Dies würde verhindern, dass sie den ihnen zustehenden Schadenersatz geltend machen. Es wäre daher besser, das Verfahren zu stoppen.
Laut dem Urteil der ersten Instanz ist die Nutzung von Buchkopien zum KI-Training zulässig, der Download elektronischer Bücher von „Piratenseiten“ aber illegal. Bevor Anthropic mit dem Scannen legal gekaufter Druckausgaben begann, lud die Firma mehr als sieben Millionen E-Books aus dem Internet, ohne sich um Lizenzen zu kümmern. In den USA sind Dutzende weitere Klagen mit dem Vorwurf von Copyright-Verstößen durch KI-Betreiber anhängig.
(nie)
Künstliche Intelligenz
GPT-5 zu unfreundlich: OpenAI setzt wieder auf 4o als Standardmodell
GPT-5 trifft aus Sicht einiger Nutzer nicht den richtigen Ton. Das große Update des Large Language Models (LLM) von OpenAI agiert manchem Anwender nicht freundlich genug, ist in Forenbeiträgen zu lesen. Dieser und weitere Punkte haben OpenAI jetzt offenbar dazu bewogen, das Standardmodell für zahlende Kunden vorerst wieder auf GPT-4o umzustellen. OpenAI-Chef Sam Altman verkündete die Änderung bei X. Sie ist auch in den Release Notes nachzulesen.
Zusammen mit dieser Änderung können Nutzer von GPT-5 jetzt auch manuell zwischen den Modi „Auto“, „Fast“ und „Thinking“ umschalten. Auch dies ist wohl eine Reaktion auf Kritik, weil der automatische Umschalter bei einigen nicht richtig funktionierte. Dieser sollte die Verwendung des Chatbots eigentlich erleichtern, wenn Anwender sich mit weniger Einstellmöglichkeiten auseinandersetzen müssen. Und OpenAI hat neue Konnektoren eingeführt, mit denen Nutzer die KI mit Diensten wie Google Docs verbinden können – allerdings vorerst nicht in Europa.
Zugriff auf ältere Modelle
„Die meisten Anwender werden Auto wählen, aber die zusätzliche Auswahlmöglichkeit wird für einige Leute nützlich sein“, erläuterte Altman die Änderung beim Routing von GPT-5. Er gab in diesem Zusammenhang auch Begrenzungen des vor einer Woche vorgestellten Modells preis. So sei der Denken-Modus (Thinking) auf aktuell 3000 Nachrichten pro Woche begrenzt. Wer dies überschreitet, bekomme noch weitere Nachrichten über GPT-5 Thinking mini. Das Context Limit liege bei 196.000 Tokens. Je nach Nutzung müsse OpenAI bei OpenAI die Begrenzungen nochmal anpassen, so Altmann.
Neben 4o haben zahlende Nutzer jetzt auch über die Weboberfläche schnellen Zugriff auf weitere Modelle. Dort sind unter anderem o3, 4.1 und GPT-5 Thinking mini zu finden. Damit diese im Menü erscheinen, mussten wir beim Test aber in den Einstellungen erst „Show additional models“ aktivieren. 4.5 sei indessen nur für Pro-Nutzer, die den teureren Tarif zahlen, verfügbar, da es sehr viel Hardware-Leistung benötige.
Zahlende Kunden von OpenAI können jetzt über die Weboberfläche leicht auf ältere Modelle von GPT wechseln.
(Bild: ho)
Persönlichkeit wird überarbeitet
Im Zusammenhang mit der Kritik an der „Persönlichkeit“ von GPT-5 erklärte Altman, dass OpenAI an einem Update arbeite, das das neue Modell „wärmer“ erscheinen lasse. Allerdings solle es auch nicht so „nervig“ werden wie GPT-4o. Eine Lehre, die man bei OpenAI aus der Kritik ziehe, sei, dass man in Zukunft die Persönlichkeit des Modells stärker durch den Nutzer anpassbar machen wolle, erklärte der OpenAI-Chef.
OpenAI verkündete außerdem neue Konnektoren für ChatGPT. Allerdings stehen diese vorerst nicht in Europa zur Verfügung. Plus-Nutzer können die Dienste Canva, Dropbox, HubSpot, Notion, Microsoft SharePoint und Microsoft Teams mit der KI verbinden. Pro-Nutzer zusätzlich GitHub. Die sogenannten Connectors seien noch in der Beta-Phase und über die Einstellungen aktivierbar. Sie erlauben es der KI, Zugriff auf die Nutzerdaten bei den jeweiligen Diensten zu nehmen, sodass Transfers per Hand entfallen. Konnektoren für Gmail, Google Calendar und Google Contacts sollen folgen.
(mki)
Künstliche Intelligenz
KI-Update: Wahn, Abhören, BND, Reddit und Crawler, KI am BER, Gold für OpenAI
KI-Psychose: Warum Chatbots wahnhafte Ideen bestärken können
Chatbots können Menschen in wahnhafte Gedankenspiralen ziehen. Das Wall Street Journal analysierte zehntausende öffentlich geteilte Chat-Protokolle und fand mehrere Dutzend Fälle, in denen ChatGPT seinen Gesprächspartnern versicherte, sie stünden wirklich in Kontakt mit Außerirdischen oder könnten eine biblische Apokalypse vorhersagen. Oftmals bestätigte der Chatbot dabei, die Nutzer seien nicht „verrückt“, sondern stünden vor einem großen Fortschritt.
Die Ursache liegt im Design der Systeme: Chatbots sind darauf trainiert, übermäßig zustimmend und schmeichelhaft zu sein. Sie werden so zu einer gefährlichen Echokammer, die abwegige Theorien nicht hinterfragt, sondern bestätigt und verstärkt. OpenAI, ein KI-Modellhersteller, teilte mit, es handele sich um seltene Fälle. Das Unternehmen entwickle bereits Werkzeuge, um psychischen Stress besser zu erkennen. Anthropic, ein weiterer KI-Anbieter, will die Anweisungen für seinen Chatbot Claude angepasst haben.
Abhören von Mobiltelefonen mit Radartechnik und KI möglich
Informatiker der Penn State University können Mobiltelefone aus sechs Metern Entfernung abhören. Sie nutzen ein Millimeterradar, das winzige Vibrationen an der Oberfläche des Telefons misst, die durch den Hörer-Lautsprecher entstehen. Die stark verrauschten Daten interpretiert eine künstliche Intelligenz.
Die Forscher modifizierten das Open Source KI-Spracherkennungsmodell WISPR mit einer Low-Rank Adaption-Technik. So konnten sie WISPR die Interpretation der Radardaten antrainieren, ohne das Sprachmodell neu zu erstellen. Die Genauigkeit liegt bei 60 Prozent – höher als beim Lippenlesen mit 30 bis 40 Prozent. Der Wortschatz ist allerdings auf 10.000 Wörter beschränkt.
BND-Dilemma: Geheimdienst kann keine KI-Übersetzer nutzen
Der Bundesnachrichtendienst sammelt täglich riesige Mengen fremdsprachigen Materials aus Abhörstationen und Agentenberichten. KI-gestützte Übersetzungsprogramme wie ChatGPT oder DeepL würden sich anbieten, doch deren Server stehen oft im Ausland. Ein Abfluss sensibler Daten droht.
Deshalb nutzt der BND weiterhin überwiegend menschliche Übersetzer und eigene Übersetzungstools. Der Sprachdienst umfasst eine dreistellige Zahl von Festangestellten und freien Kräften. Längere Texte können Wochen in der Bearbeitung beanspruchen. Die Übersetzungstools dienen meist nur der groben inhaltlichen Orientierung. Besonders kritisch ist die „Vorbewertung“, mit der Übersetzer die Relevanz der Inhalte einschätzen. Ohne vollständige Übersetzung könnten wichtige Informationen übersehen werden.
Von KI-Crawlern genutzt: Reddit sperrt die Wayback Machine weitestgehend aus
Reddit, eines der größten Internetforen, hat die Wayback-Machine des Internet-Archives von der Seite fast komplett ausgesperrt. Der Grund: KI-Unternehmen nutzen das Archiv als Umweg, um an Reddit-Daten zu kommen, ohne dafür zu bezahlen. Reddit schließt mit KI-Firmen Lizenzabkommen ab und sperrt Unternehmen aus, die nicht zahlen.
Der Vorwurf lautet, dass Unternehmen die Wayback-Machine nutzen, um das Verbot zu umgehen. Statt direkt auf Reddit zuzugreifen, holen sie sich die Trainingsdaten über das Internetarchiv. Reddit könnte den Zugang wieder genehmigen, wenn das Internet-Archive ebenfalls KI-Crawler aussperrt. Ein Reddit-Sprecher fordert zudem, dass die Wayback-Machine Nutzerrechte besser respektiert – gelöschte Reddit-Inhalte bleiben dort oft weiter einsehbar.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Per KI-Säule zum Ticket: DB erprobt in Berlin „Kiana“
Seit Mai können Reisende am Berliner Flughafen BER ihre nächste Zugverbindung bei einer künstlichen Intelligenz erfragen. „Kiana“ heißt die digitale Helferin in einer interaktiven Säule auf der Zwischenebene von Terminal 1. Das System besteht aus Touchscreen, Lautsprecher und Mikrofon und beherrscht neun Sprachen.
Die Praxis zeigt Probleme: Die KI versteht oft erst beim dritten Anlauf, was gewünscht wird. Der Flughafen ist zu laut, die permanente Geräuschkulisse erschwert das Verstehen. Auch Kianas Sprachantworten sind nicht immer klar. Tickets verkaufen kann sie nicht – Reisende bekommen nur einen QR-Code zur DB-Navigator-App. Über 1000 Gespräche hat Kiana seit Mai geführt, etwa die Hälfte auf Englisch. Das Experiment läuft bis Oktober.
OpenAI-KI erreicht Goldmedaille bei Informatik-Olympiade
Ein KI-System von OpenAI hat bei der Internationalen Informatik-Olympiade 2025 eine Goldmedaille erzielt. Nur fünf der 330 menschlichen Teilnehmer schnitten besser ab – das bedeutet Platz sechs im Gesamtfeld. Das System hielt sich an dieselben Regeln: fünf Stunden Zeit und maximal 50 Einreichungen.
Der Schlüssel zum Erfolg war einfach: OpenAI trainierte kein spezielles Modell, sondern nutzte ein Ensemble aus allgemeinen Logikmodellen. Das Kernmodell war dasselbe, das kürzlich auch bei der Internationalen Mathematik-Olympiade Gold gewann. Letztes Jahr verpasste OpenAI noch knapp Bronze mit einer aufwändigen, handgefertigten Strategie.
Anthropic erweitert Claude-Kontextfenster auf eine Million Token
Anthropic hat das Kontextfensters seines Modells Claude Sonnet 4 stark erweitert. Statt 200.000 Token kann das System jetzt eine Million Token verarbeiten. Entwickler können nun ganze Codebasen oder umfangreiche Dokumentensammlungen in einem einzigen Schritt analysieren lassen.
Die Funktion ist in der öffentlichen Betaphase verfügbar, allerdings nur für Kunden mit höheren API-Limits. Der erweiterte Kontext hat seinen Preis: Für Eingaben über 200.000 Token verlangt Anthropic das Doppelte – sechs statt drei Dollar pro Million Token. „Prompt Caching“ und „Batch Processing“ können laut Anbieter bis zu 50 Prozent der Kosten sparen.
Nvidia präsentiert „Physische KI“ mit neuer Blackwell-Hardware
Nvidia, ein Chiphersteller, hat auf der Computergrafik-Konferenz SIGGRAPH seine Vision der „Physischen KI“ vorgestellt. Das Konzept verbindet künstliche Intelligenz mit Computergrafik, um Systeme zu schaffen, die in der realen Welt agieren können – von Robotern bis zu autonomen Fahrzeugen. Das Herzstück bildet neue Hardware auf Basis der Blackwell-Architektur.
Nvidia erstellt hochrealistische digitale Zwillinge, in denen KI-Systeme sicher lernen können, bevor sie in der echten Welt eingesetzt werden. Amazon, ein Onlinehändler, lädt beispielsweise CAD-Modelle neuer Produkte in das Nvidia-System und generiert über 50.000 synthetische Bilder. Diese trainieren KI-Modelle, die Roboterarme für Qualitätsprüfungen steuern.
(mali)
Künstliche Intelligenz
Azure App Testing: Zentrale Plattform für Last- und Funktionstests in der Cloud
Microsoft führt das Azure App Testing ein. Der Cloud-Dienst soll die Validierung von Web- und App-Anwendungen vereinfachen und beschleunigen. Er bündelt erstmals Lasttests und End-to-End-Webtests zentral im Azure Portal. Nutzer können sowohl funktionale als auch Performance-Tests in großem Maßstab durchführen, ohne eine eigene Testinfrastruktur aufbauen zu müssen. Azure App Testing kombiniert die Funktionen von Azure Load Testing und Playwright Testing in einer einheitlichen Testumgebung; Bereitstellung, Zugriffssteuerung und Abrechnung erfolgen jetzt über eine Plattform.
Lesen Sie auch
Entwicklungs- und QA-Teams können mit Frameworks wie Playwright, JMeter oder Locust Testläufe konfigurieren und ausführen. Mit an Bord sind ebenfalls KI-Features, die sowohl bei der Erstellung als auch bei der Auswertung von Tests helfen sollen. Hierzu gehören unter anderem eine automatische Fehlererkennung und konkrete Handlungsempfehlungen. Azure App Testing skaliert automatisch, damit sich auch realistische Traffic-Lasten aus verschiedenen Regionen simulieren lassen. Zudem führt der Cloud-Dienst plattform- und browserübergreifende Tests aus. Die Provisionierung und Wartung der Testumgebungen übernimmt Microsoft.
Nutzer von Azure Load Testing können ihre bestehenden Tests direkt weiter verwenden, während Nutzer von Playwright Testing laut Microsoft auf die neuen Playwright Workspaces migrieren sollten. Diese unterstützen für Tests Windows und Linux sowie Browser auf Chromium-, Firefox- und WebKit-Basis. Azure App Testing ist ab sofort im Azure-Portal verfügbar. Einen Überblick des Diensts und eine Anleitung zum ersten Start finden sich bei Microsoft in der Tech Community. Die Preise richten sich nach den verbrauchten Virtual User Hours (VUH).
(fo)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen