Connect with us

Künstliche Intelligenz

GEMA-ChatGPT-Urteil: Das kann kein Zufall sein!


Wer dem Laien erklärt, wie KI-Modelle funktionieren, erntet oft ungläubiges Staunen: Dass der Trick hinter der KI einfach nur Statistik sein soll, dass dem keine Seele, kein Sinn und Verstand innewohnt, ist vielen schier unbegreiflich. Wie kann dieses Ding denn dann in zusammenhängenden Sätzen zu einem sprechen? Oder sogar sinnvolle, gar inspirierende Dinge von sich geben?

Weiterlesen nach der Anzeige

Über allem thront gar eine Frage, die für den Menschen als Spezies ziemlich unangenehm klingt: Sind wir vielleicht in weiten Teilen so berechenbar, dass ein Computer unsere Sprache, unser Wissen und unsere Werke einfach mal eben so in Sekundenschnelle nachbilden kann?


Eine Analyse von Malte Kirchner

Eine Analyse von Malte Kirchner

Malte Kirchner ist seit 2022 Redakteur bei heise online. Neben der Technik selbst beschäftigt ihn die Frage, wie diese die Gesellschaft verändert. Sein besonderes Augenmerk gilt Neuigkeiten aus dem Hause Apple. Daneben befasst er sich mit Entwicklung und Podcasten.

Das Landgericht München verneinte jetzt in einem Urteil den statistischen Zufall. Zumindest im Falle von neun bekannten Liedern kam es zu dem Ergebnis, dass die KI nicht rein zufällig genauso wie die Künstler auf die nahezu identischen Texte gekommen sein kann. So hatte es OpenAI als Herausgeber von ChatGPT und Beklagte behauptet. Die Texte müssten offenbar „memorisiert“ sein, sagt hingegen das Gericht und folgt damit der deutschen Verwertungsgesellschaft GEMA als Klägerin.

Vor allzu dramatischen Folgenabschätzungen sollte man sich im Moment noch hüten: Das Urteil ist nicht rechtskräftig, und es ist eines von diversen Verfahren, die derzeit in verschiedenen Teilen der Welt gegen die KI-Anbieter angestrengt werden. Vermutlich werden wir in einigen Jahren Grundsatzurteile sehen, vielleicht auch neue Gesetzgebungen. Fest steht aber: Den von der KI-Branche erhofften Durchmarsch durch die Gerichte als Sieger wird es nicht geben.

Weiterlesen nach der Anzeige

Und dieser Zwischenschritt ist für die KI-Branche sehr wohl einschneidend. Das Münchener Urteil rüttelt an deren Selbstverständnis, dass KI grundsätzlich etwas Gutes für die Menschheit ist. Etwas, gegen das die Allgemeinheit – hier vertreten durch die Gerichte – doch nichts haben kann, weil es die Gesellschaften weiterbringt. Gerade bei OpenAI liegt dieser Gedanke in der DNA: Als gemeinnützige Organisation geschaffen, nahm sich OpenAI vor, die künstliche Intelligenz zum Wohle der Menschheit zu entwickeln.

In diesem Bewusstsein wurde das Wissen der Menschheit bedenkenlos aufgesogen, um es allen zur Verfügung zu stellen. Dafür zu bezahlen, kam den Machern zunächst nicht in den Sinn. Zumal die KI bis heute mit Training und Rechenleistung immens viel mehr Geld kostet, als sie erwirtschaftet. Nur durch große Mengen Wagniskapital und Investitionen aus der IT-Branche ist sie lebensfähig und zu dem geworden, was sie heute ist.

Aber wie in vorausgegangenen digitalen Räuschen, die durch neue Technologie ausgelöst wurden, sind es einmal mehr die Urheberrechte, die die digitalen Überflieger vom Himmel geholt haben. Immer wieder hat es in den vergangenen Jahren und Jahrzehnten die Fälle gegeben, dass Technik das, was andere Menschen schaffen, freier zugänglich macht. Diese digitale Entfesselung aus den vorher begrenzten analogen Möglichkeiten ist zweifellos ein Fortschritt. Doch am Ende wollen und müssen die Menschen, die etwas erschaffen, auch weiterhin von etwas leben. Die Freude über die neuen Möglichkeiten und über die größere Reichweite sind für sie nicht auskömmlich. Da nun die KI-Anbieter etwas mit ihren Werken erschaffen, erscheint es erstmal legitim, dass sie von ihnen einen Lohn wollen. Genauso legitim ist es allerdings, zu fragen, was Urteile wie das Münchener mit der KI machen.

Erste Experten argwöhnen schon, es könnte gar die Löschung ganzer Modelle im Raum stehen, wenn es den KI-Anbietern nicht gelingt, das beanstandete Wissen irgendwie herauszufiltern oder zu -schneiden. Zu diesem Schlimmstfall muss es aber gar nicht kommen. Es könnte schon genügen, dass sich die KI künftig viel wortkarger, viel restriktiver und ergebnisloser präsentiert, sodass Sinn und Zweck einer ganzen Branche infrage gestellt werden.

Dann lizenziert doch einfach die Inhalte, möchte man der Branche zurufen. Das findet teilweise heute auch schon statt. Aber in einer Branche, die massiv Geld verbrennt, in der vagen Hoffnung, irgendwann als erste die Allgemeine Künstliche Intelligenz, also die wirkliche KI, zu erfinden, ist das wohl eher ein Spiel auf Zeit als eine nachhaltige Lösung.

Es könnte natürlich auch sein, dass Europa mal wieder einen Sonderweg beschreitet. Die Urteile könnten, wenn sie hier anders als im Rest der Welt gefällt werden, in die technische Isolation führen. Wenn aber US-amerikanische Gerichte und solche in Ländern außerhalb der EU nicht grundsätzlich anders urteilen, werden sich OpenAI und Co. einige grundlegende Zukunftsgedanken machen müssen.

Technische Lösungswege versprechen auf den ersten Blick nur halbwegs Abhilfe: Da gibt es zum Beispiel die „Differential Privacy“, eine Technik, die sicherstellt, dass einzelne Trainingsdaten nicht mehr aus dem Modell extrahiert werden können. Das funktioniert prinzipiell, führt aber häufig zu schlechteren Modellergebnissen. Bei der „Constitutional AI“ kann sich ein Modell selbst maßregeln. Auch hier sind Wenn und Aber buchstäblich vorprogrammiert. Und „Machine Unlearning“ wäre zwar ein Weg, urheberrechtlich Geschütztes zu löschen. Aber wenn es nicht bei neun Liedern von Herbert Grönemeyer und Helene Fischer bleibt, fragt sich früher oder später: zu welchem Preis?

Die Urheber, vertreten durch die GEMA, gehen für den Moment erstmal mit dem guten Gefühl aus dem Gerichtssaal, dass ihre Belange überhaupt in der KI-Welt eine Rolle spielen. Und die KI-Anbieter wie OpenAI, Google, Anthropic, xAI und DeepSeek werden daran erinnert, dass wichtige Grundsatzfragen nicht einfach durch disruptives Mit-dem-Kopf-durch-die-Wand-gehen aus der Welt geschafft werden können.

Am Ende steht ein fundamentales Dilemma zwischen moralischem Rechthaben (Urheber) und drohender ökonomischer Überforderung (KI-Branche). Und bezeichnenderweise kann die von uns befragte KI auch keinen Ausweg aufzeigen, wie beides in Einklang gebracht werden soll. Das kann kein Zufall sein.


(mki)



Source link

Künstliche Intelligenz

iPhone, Mac, iPad: So geht KI auch „for free“


Die Nutzung von Künstlicher Intelligenz kann erstaunlich teuer sein: Abopakete beginnen oft erst bei 20 Euro im Monat und man kann, etwa wenn man mit KI-Systemen programmieren oder Videos generieren will, auch durchaus 200 Euro und mehr alle vier Wochen investieren.

Doch das muss nicht sein: Mit kostenlos verfügbaren Bordmitteln auf iPhone, Mac oder iPad, sowie zahlreichen Tools und Apps können Sie die spannende Technik auch gratis nutzen. 18 Tipps, wie Sie damit loslegen.

Installieren Sie alle verfügbaren Updates auf iPhone, iPad und Mac, um Apples neueste KI-Modelle und -Funktionen zu verwenden. Der Hersteller dokumentiert Änderungen seiner Sprachmodelle leider nicht im Detail, verspricht aber grundlegende Verbesserungen mit Version 26. Zum Start von Apple Intelligence mit iOS 18 lieferten die Werkzeuge oft durchwachsene bis schlechte Ergebnisse. Das hat sich inzwischen aber spürbar gebessert – besonders bei der Text-, aber auch bei der Bildgenerierung.


Das war die Leseprobe unseres heise-Plus-Artikels „iPhone, Mac, iPad: So geht KI auch „for free““.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Sicherheit im Auto: Euro NCAP verschärfte Bewertungskriterien


Neue Autos werden seit Jahrzehnten vom europäischen Verbraucherschutzprogramm für Fahrzeugtechnik (Euro NCAP) auf ihre Sicherheit hin überprüft. Dabei geht es nicht um die Folgen des Crashs, sondern auch um eine Unfallvermeidung. Die Kriterien für eine gute Bewertung wurden über die Jahre immer wieder verschärft. In diesem Jahr wurden die Anforderungen so stark verändert wie seit 2009 nicht mehr, schreibt der ADAC. Im Kern geht es dabei um vier neue Punkte:

Weiterlesen nach der Anzeige

  • eine ablenkungsarme Bedienung
  • Wie Assistenten eingreifen
  • Unfallschutz bei niedrigen Geschwindigkeiten
  • einfache Bergung nach einem Unfallfolgen

Es gibt in modernen Autos inzwischen viel mehr zu bedienen als vor ein paar Jahrzehnten. Hersteller gehen bei der Bewältigung sehr unterschiedliche Wege, wie wir auch in Testwagen immer wieder feststellen. Will ein Hersteller die vollen fünf Sterne in der Bewertung des Euro NCAP erreichen, müssen einige Funktionen direkt, also ohne Umwege über Untermenüs, zu erreichen sein. Das gilt für Blinker, Warnblinker, Hupe, Scheibenwischer und eCall. Andere Funktionen müssen in maximal zwei Schritten im Untermenü verfügbar sein.

Zur Vermeidung von Unfällen schreibt der Gesetzgeber inzwischen einige Systeme vor. Dazu zählen beispielsweise der Spurhalteassistent und die automatische Notbremsung. Künftig müssen solche Systeme in zusätzlichen Szenarien funktionieren. Der ADAC nennt verschiedene Auftreffwinkel, schlechtes Wetter und unterschiedliche Geschwindigkeiten, die künftig bei Tests berücksichtigt werden. Außerdem werde mit überprüft, wie sanft etwa ein Spurhaltehelfer eingreift. In diesem Bereich gibt es tatsächlich große Unterschiede.

Neu eingeführt wird auch ein zusätzlicher Crashtest mit 35 km/h. Der ADAC argumentiert, dass Hersteller Karosserie und Gurtstraffung für höhere Geschwindigkeiten auslegen. Das führe dazu, dass unter Umständen bei einem Unfall mit 35 km/h höhere Kräfte wirken könnten als bei 50 km/h. Dies habe man bei der Untersuchung mit einem MG3 (Fahrbericht) im vergangenen Jahr herausgefunden. Mit adaptiven Systemen, die sich auf Tempo und Gewicht der Personen einstellen können, sinkt die Belastung bei einem Unfall. Zusätzlich sollen Dummies, die unterschiedlich groß und schwer sind, auf verschiedenen Positionen im Fahrzeug gesetzt werden, um die Anforderungen weiter zu erhöhen. Computersimulierte Crashs mit digitalen Modellen sollen die Tests mit Dummies ergänzen.

Weiterlesen nach der Anzeige

China hat gerade bekannt gegeben, dass neu homologierte Autos ab 2027 keine motorisierten, versenkbaren Griffe mehr haben dürfen. Auch wir haben das in zahlreichen Testwagen immer wieder kritisiert. Ein Verbot ist in der EU noch nicht in Sicht, zumindest werden aber die Bewertungskriterien beim Euro NCAP auch in diesem Punkt verschärft, wobei das eigentlich selbstverständlich sein sollte: Elektrische Türgriffe und Kofferraumklappen müssen nach einem Aufprall noch funktionieren. Volvo hat im EX60 nach eigenem Bekunden für die Türöffnung mehrere voneinander unabhängige Stromkreise gelegt.

Wie ein Helfer nach einem Unfall bei manch einem Modell eine Tür über einen Griff aufbekommen soll, der schon unbeschädigt schlecht zu bedienen ist, fließt übrigens seit Jahren in die Bewertungen mit ein. Für eine volle Punktzahl, und auch das fließt erst ab sofort beim Euro NCAP mit ein, werden unter anderem die Verfügbarkeit von Rettungskarten und die Funktion des eCall-Systems mit bewertet. Elektroautos müssen zusätzlich die Traktionsbatterie isolieren und über einen Widerstand gegen eine Überhitzung des Akkus verfügen.

Die vier neuen, zusätzlichen Bewertungskriterien machen es einerseits für die Hersteller deutlich schwieriger, die maximal erreichbaren fünf Sterne zu erhalten. Auf der anderen Seite erhöht das Verbraucherschutzprogramm für Fahrzeugtechnik den Aufwand beträchtlich. Ein Teil der Tests wird künftig über Simulationen abgewickelt werden, doch für vieles bleibt nur der reale Versuch am Kandidaten. Für Verbraucher ist es ein gutes Zeichen, wenn sich die Ersteller von solchen Bewertungskriterien beispielsweise darum sorgen, dass ein zu harsches Eingreifen von Spurhalteassistenten die Akzeptanz beim Fahrer senken.

Mehr zu Assistenzsystemen im Auto


(mfz)



Source link

Weiterlesen

Künstliche Intelligenz

Software Testing: Software-Engineering von morgen


In dieser Episode sprechen Richard Seidl und Ina Schieferdecker über Next-Gen Software Engineering und Qualität im KI-Zeitalter. Schieferdecker plädiert für Shift-left und klare Testspezifikationen. Das Duo diskutiert, wie Low-Code und No-Code das modellbasierte Arbeiten stärken. Ina Schieferdecker warnt vor durchgewunkenem Code und stellt die Idee eines Model-Bus vor, der Anforderungen, Architektur, Tests und Ausführung über Werkzeuge synchron hält.

Weiterlesen nach der Anzeige

Prof. Dr.-Ing. Ina Schieferdecker ist unabhängige Forscherin und Honorarprofessorin für Softwarebasierte Innovationen an der Technischen Universität Berlin. Sie ist Mitglied der Deutschen Akademie der Technikwissenschaften (acatech) und Ehrenmitglied des German Testing Board e.  V. (GTB) sowie aktiv im International Software Testing Qualifications Board. Darüber hinaus ist sie Präsidiumsmitglied der Gesellschaft für Informatik sowie Vorstandsmitglied von Informatics Europe. Ihre Forschungsinteressen umfassen Software Quality Engineering, offene Datenplattformen und die Twin-Transformation von Digitalisierung und Nachhaltigkeit. Sie ist u.a. Preisträgerin des Deutschen Preises für Software-Qualität des ASQF, der GI-TAV und des GTB.


GenAI Summit 2026, Linien

GenAI Summit 2026, Linien

(Bild: TechSolution)

Der betterCode() GenAI Summit zeigt alle Aspekte der KI-gestützten Softwareentwicklung von geeigneten Tools über praktische Anwendungen bis zu den Auswirkungen auf Entwicklungsteams.

Das Programm des betterCode() GenAI Summit behandelt aktuelle Tools, Best Practices und Möglichkeiten, aber auch die Risiken und rechtlichen Rahmenbedingungen KI-gestützter Softwareentwicklung. Unter anderem gibt es Vorträge zu folgenden Themen:

  • Coding Agents im Praxiseinsatz: Auswahl und Orchestrierung
  • KI in der Praxis: Strategien zur Modernisierung komplexer Legacy-Systeme
  • Spec-Driven Development: Das Ende des Vibe Coding
  • Sicherheitsnetze für den sicheren Einsatz von Coding-Agenten
  • KI-generierter Code zwischen Effizienzgewinn und Rechtsrisiko
  • Design Patterns für das Zeitalter der Agenten

Bis zum 21. April sind die Tickets zum vergünstigten Frühbuchertarif von 999 Euro (zzgl. 19 % MwSt.) verfügbar.

Bei diesem Podcast dreht sich alles um Softwarequalität: Ob Testautomatisierung, Qualität in agilen Projekten, Testdaten oder Testteams – Richard Seidl und seine Gäste schauen sich Dinge an, die mehr Qualität in die Softwareentwicklung bringen.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Software-Engineering von morgen – Ina Schieferdecker“ und steht auf YouTube bereit.

Weiterlesen nach der Anzeige


(mdo)



Source link

Weiterlesen

Beliebt