Connect with us

Künstliche Intelligenz

GEMA-ChatGPT-Urteil: Das kann kein Zufall sein!


Wer dem Laien erklärt, wie KI-Modelle funktionieren, erntet oft ungläubiges Staunen: Dass der Trick hinter der KI einfach nur Statistik sein soll, dass dem keine Seele, kein Sinn und Verstand innewohnt, ist vielen schier unbegreiflich. Wie kann dieses Ding denn dann in zusammenhängenden Sätzen zu einem sprechen? Oder sogar sinnvolle, gar inspirierende Dinge von sich geben?

Weiterlesen nach der Anzeige

Über allem thront gar eine Frage, die für den Menschen als Spezies ziemlich unangenehm klingt: Sind wir vielleicht in weiten Teilen so berechenbar, dass ein Computer unsere Sprache, unser Wissen und unsere Werke einfach mal eben so in Sekundenschnelle nachbilden kann?


Eine Analyse von Malte Kirchner

Eine Analyse von Malte Kirchner

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.

Das Landgericht München verneinte jetzt in einem Urteil den statistischen Zufall. Zumindest im Falle von neun bekannten Liedern kam es zu dem Ergebnis, dass die KI nicht rein zufällig genauso wie die Künstler auf die nahezu identischen Texte gekommen sein kann. So hatte es OpenAI als Herausgeber von ChatGPT und Beklagte behauptet. Die Texte müssten offenbar „memorisiert“ sein, sagt hingegen das Gericht und folgt damit der deutschen Verwertungsgesellschaft GEMA als Klägerin.

Vor allzu dramatischen Folgenabschätzungen sollte man sich im Moment noch hüten: Das Urteil ist nicht rechtskräftig, und es ist eines von diversen Verfahren, die derzeit in verschiedenen Teilen der Welt gegen die KI-Anbieter angestrengt werden. Vermutlich werden wir in einigen Jahren Grundsatzurteile sehen, vielleicht auch neue Gesetzgebungen. Fest steht aber: Den von der KI-Branche erhofften Durchmarsch durch die Gerichte als Sieger wird es nicht geben.

Weiterlesen nach der Anzeige

Und dieser Zwischenschritt ist für die KI-Branche sehr wohl einschneidend. Das Münchener Urteil rüttelt an deren Selbstverständnis, dass KI grundsätzlich etwas Gutes für die Menschheit ist. Etwas, gegen das die Allgemeinheit – hier vertreten durch die Gerichte – doch nichts haben kann, weil es die Gesellschaften weiterbringt. Gerade bei OpenAI liegt dieser Gedanke in der DNA: Als gemeinnützige Organisation geschaffen, nahm sich OpenAI vor, die künstliche Intelligenz zum Wohle der Menschheit zu entwickeln.

In diesem Bewusstsein wurde das Wissen der Menschheit bedenkenlos aufgesogen, um es allen zur Verfügung zu stellen. Dafür zu bezahlen, kam den Machern zunächst nicht in den Sinn. Zumal die KI bis heute mit Training und Rechenleistung immens viel mehr Geld kostet, als sie erwirtschaftet. Nur durch große Mengen Wagniskapital und Investitionen aus der IT-Branche ist sie lebensfähig und zu dem geworden, was sie heute ist.

Aber wie in vorausgegangenen digitalen Räuschen, die durch neue Technologie ausgelöst wurden, sind es einmal mehr die Urheberrechte, die die digitalen Überflieger vom Himmel geholt haben. Immer wieder hat es in den vergangenen Jahren und Jahrzehnten die Fälle gegeben, dass Technik das, was andere Menschen schaffen, freier zugänglich macht. Diese digitale Entfesselung aus den vorher begrenzten analogen Möglichkeiten ist zweifellos ein Fortschritt. Doch am Ende wollen und müssen die Menschen, die etwas erschaffen, auch weiterhin von etwas leben. Die Freude über die neuen Möglichkeiten und über die größere Reichweite sind für sie nicht auskömmlich. Da nun die KI-Anbieter etwas mit ihren Werken erschaffen, erscheint es erstmal legitim, dass sie von ihnen einen Lohn wollen. Genauso legitim ist es allerdings, zu fragen, was Urteile wie das Münchener mit der KI machen.

Erste Experten argwöhnen schon, es könnte gar die Löschung ganzer Modelle im Raum stehen, wenn es den KI-Anbietern nicht gelingt, das beanstandete Wissen irgendwie herauszufiltern oder zu -schneiden. Zu diesem Schlimmstfall muss es aber gar nicht kommen. Es könnte schon genügen, dass sich die KI künftig viel wortkarger, viel restriktiver und ergebnisloser präsentiert, sodass Sinn und Zweck einer ganzen Branche infrage gestellt werden.

Dann lizenziert doch einfach die Inhalte, möchte man der Branche zurufen. Das findet teilweise heute auch schon statt. Aber in einer Branche, die massiv Geld verbrennt, in der vagen Hoffnung, irgendwann als erste die Allgemeine Künstliche Intelligenz, also die wirkliche KI, zu erfinden, ist das wohl eher ein Spiel auf Zeit als eine nachhaltige Lösung.

Es könnte natürlich auch sein, dass Europa mal wieder einen Sonderweg beschreitet. Die Urteile könnten, wenn sie hier anders als im Rest der Welt gefällt werden, in die technische Isolation führen. Wenn aber US-amerikanische Gerichte und solche in Ländern außerhalb der EU nicht grundsätzlich anders urteilen, werden sich OpenAI und Co. einige grundlegende Zukunftsgedanken machen müssen.

Technische Lösungswege versprechen auf den ersten Blick nur halbwegs Abhilfe: Da gibt es zum Beispiel die „Differential Privacy“, eine Technik, die sicherstellt, dass einzelne Trainingsdaten nicht mehr aus dem Modell extrahiert werden können. Das funktioniert prinzipiell, führt aber häufig zu schlechteren Modellergebnissen. Bei der „Constitutional AI“ kann sich ein Modell selbst maßregeln. Auch hier sind Wenn und Aber buchstäblich vorprogrammiert. Und „Machine Unlearning“ wäre zwar ein Weg, urheberrechtlich Geschütztes zu löschen. Aber wenn es nicht bei neun Liedern von Herbert Grönemeyer und Helene Fischer bleibt, fragt sich früher oder später: zu welchem Preis?

Die Urheber, vertreten durch die GEMA, gehen für den Moment erstmal mit dem guten Gefühl aus dem Gerichtssaal, dass ihre Belange überhaupt in der KI-Welt eine Rolle spielen. Und die KI-Anbieter wie OpenAI, Google, Anthropic, xAI und DeepSeek werden daran erinnert, dass wichtige Grundsatzfragen nicht einfach durch disruptives Mit-dem-Kopf-durch-die-Wand-gehen aus der Welt geschafft werden können.

Am Ende steht ein fundamentales Dilemma zwischen moralischem Rechthaben (Urheber) und drohender ökonomischer Überforderung (KI-Branche). Und bezeichnenderweise kann die von uns befragte KI auch keinen Ausweg aufzeigen, wie beides in Einklang gebracht werden soll. Das kann kein Zufall sein.


(mki)



Source link

Künstliche Intelligenz

Verfassungsrechtler und Politiker fordern Klarnamenpflicht im Internet


Der Verfassungsrechtler Andreas Voßkuhle hat eine Debatte über eine Klarnamenpflicht im Internet angestoßen. Voßkuhle, von 2010 bis 2020 auch Präsident des Bundesverfassungsgerichts, hatte der Berliner Tageszeitung „Tagesspiegel“ am Donnerstag gesagt, die Umsetzung einer Klarnamenpflicht sei zwar nicht ganz einfach, aber „verfassungsrechtlich zulässig“. So könnten öffentliche Diskussionen im Netz entgiftet werden, erklärte Voßkuhle in dem Interview, das am Samstag (27.12.) erscheint. Die „Verrohung im Netz“ halte die Gesellschaft „auf Dauer nicht aus“.

Weiterlesen nach der Anzeige

Am heutigen Freitag legte der Tagesspiegel mit weiteren Stimmen nach: Eine Klarnamenpflicht in den sozialen Medien könne die Diskurskultur im Netz zivilisieren, sagte der Zeitung zufolge der bayerische Digitalminister Fabian Mehring (Freie Wähler). „Das Recht auf freie Meinungsäußerung beinhaltet schließlich keinen Anspruch auf Anonymität – man muss schon zu seinen Äußerungen stehen; analog wie digital“, so Mehring.

Was am Stammtisch kriminell sei, müsse auch im Netz sanktioniert werden können, betonte Mehring. „Wer beleidigt, bedroht oder Volksverhetzung betreibt, muss auch im Digitalen dingfest gemacht werden können.“ Und wer wisse, dass sein Handeln nicht folgenlos bleibe, verhalte sich verantwortungsvoller. Dies könne öffentliche Debatten spürbar entgiften. Dabei gehe es Mehring zufolge nicht um das Einschränken von Meinungen, sondern um einen wehrhaften Rechtsstaat, der auch im digitalen Raum funktioniere.

Berlins Justizsenatorin Felor Badenberg (CDU) verlange eine „ergebnisoffene, aber zielgerichtete Debatte über eine Klarnamenpflicht im digitalen Raum“, berichtet der Tagesspiegel. Der Staat müsse befähigt werden, „seiner Schutzfunktion besser gerecht zu werden“, verlangte Badenberg demnach. Ermittlungsbehörden bräuchten laut Badenberg in klar definierten Fällen „eine verlässliche und praktikable Möglichkeit, Tatverdächtige schnell zu identifizieren. Zugleich sind die Plattformen stärker in die Verantwortung zu nehmen, ihren Beitrag zur Durchsetzung unserer Rechtsordnung zu leisten.“


(hob)



Source link

Weiterlesen

Künstliche Intelligenz

Letterboxd: Datenverwertung bedroht den Hort der digitalen Filmkultur


Samstagabend, 20:30 auf der Couch. Süßigkeiten wurden schon bereitgestellt und für den perfekten Heimkinoabend fehlt nur noch eines: der Film. Lieber Blockbuster, Arthouse oder Klassiker? Politthriller, Drama oder Komödie? Netflix, Disney+ oder doch Mubi? Eine gefühlte halbe Stunde zerrinnt im ziellosen Blättern durch das Filmangebot der Streaminganbieter. Die Entscheidung für einen Film rückt dabei immer weiter außer Sichtweite. Zu groß ist das Filmbuffet, zu unterschiedlich sind die Optionen – und dann noch die Meinungsflut im Netz.

Wie schön wäre eine Online-Gemeinschaft, an die man sich vertrauensvoll wenden könnte? Ein Ort, an dem Filmbewertungen noch sinnhaft erscheinen, weil Anerkennung nicht allzu großzügig verteilt wird. Ein Ort des gepflegten Austauschs über Filme, weit weg von der Polemik, die in den Kommentarbereichen etlicher sozialer Netzwerke schon lange zum netzkulturellen Alltag gehört. Was wie ein Traum ewig-gestriger Internetidealisten klingt, das ist Letterboxd für etliche Millionen vor allem junger Filmbegeisterter.

Wieso die Filmplattform gerade die Gen Z so anzieht, was die Pandemie damit zu tun hat und weshalb Letterboxd Gefahr läuft, die eigens geschaffene Filmkultur zu untergraben, erklären wir auf den folgenden Seiten.


Das war die Leseprobe unseres heise-Plus-Artikels „Letterboxd: Datenverwertung bedroht den Hort der digitalen Filmkultur“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Bundesdigitalminister ist für Social-Media-Sperre für Kinder


Bundesdigitalminister Karsten Wildberger (CDU) zeigt sich offen für ein Social-Media-Verbot für Kinder, wie in Australien. „Ich kann dem eine Menge abgewinnen. Ich halte die Frage nach einer Altersbeschränkung für mehr als berechtigt“, sagte er der Deutschen Presse-Agentur (dpa).

Weiterlesen nach der Anzeige

Aus Studien, Schilderungen und Beobachtungen wisse man, wie tiefgreifend soziale Medien in die Entwicklung junger Menschen eingriffen. „Da ist jetzt mal die Frage zu stellen: Wie ermöglichen wir ihnen eine gesunde Entwicklung, so wie sie frühere Generationen ohne soziale Medien auch hatten. Was das richtige Alter ist, muss gut diskutiert werden“, fügte er hinzu und verwies auf eine von der Bundesregierung eingesetzte Expertenkommission für „Kinder- und Jugendschutz in der digitalen Welt“.

Das Gremium aus Wissenschaftlern und Praktikern etwa aus Medizin und Jugendschutz hatte im Herbst seine Arbeit aufgenommen und soll bis zum Sommer Empfehlungen erarbeiten. Dabei geht es unter anderem um mögliche Altersgrenzen und auch um das viel diskutierte Thema Handyverbot an Schulen.



Bundesdigitalminister Karsten Wildberger: „Ich halte die Frage nach einer Altersbeschränkung für mehr als berechtigt.“

(Bild: BMDS / Woithe)

Auch hier ist der Bundesdigitalminister für einen eher strikten Kurs: „Dass man sich mal ein, zwei Stunden hinsetzt, aufmerksam ist und nicht durch Dinge abgelenkt ist, ist eine Grundvoraussetzung für die Entwicklung. Insofern finde ich, ist das nicht nur zumutbar, sondern wir schulden das den Kindern auch, dass sie diese Möglichkeit haben“, so Wildberger. Auszeit gehöre dazu. Bei solchen Debatten sei es wichtig, auf diejenigen zu hören, die damit täglich zu tun hätten, und das seien die Lehrer.

Mit seinen Äußerungen gegenüber dpa geht der Bundesdigitalminister nun weiter, als er es noch im September im Interview mit c’t formuliert hatte. Er persönlich befürworte zwar prinzipiell eine Altersgrenze, hatte Wildberger damals betont. Das Thema sei jedoch zu wichtig und betreffe zu viele Menschen, um damit verbundene Grundsatzfragen außer Acht zu lassen. Für ihn gehe es „mehr um Schutz als um Verbote“.


(hob)



Source link

Weiterlesen

Beliebt