Connect with us

Künstliche Intelligenz

Prozess um Social-Media-Sucht: US-Jury spricht Meta und Google schuldig


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In einem wegweisenden Prozess um Social-Media-Sucht hat eine Jury in Los Angeles die US-Konzerne Google und Meta zu Schadensersatz in Höhe von drei Millionen US-Dollar verurteilt. Die Schadensersatzsumme könnte sich im Nachgang noch erhöhen. Vor allem aber dürfte das Verdikt richtungsweisend für Tausende ähnlicher Verfahren gegen Tech-Unternehmen sein.

Weiterlesen nach der Anzeige

Nach neun Verhandlungstagen entschieden die kalifornischen Geschworenen, dass Googles YouTube und Metas Instagram bei der Gestaltung oder dem Betrieb ihrer Plattformen fahrlässig gehandelt hätten. Die Fahrlässigkeit der beiden Unternehmen sei zudem ein wesentlicher Faktor für den von der Klägerin geltend gemachten Schaden. Das berichtete am Mittwoch unter anderem die US-amerikanische Nachrichtenagentur Associated Press (AP).

Geklagt hatte eine heute 20-jährige Frau, die in dem Verfahren nur unter den Initialen KGM auftrat. Sie gab an, durch die Nutzung sozialer Medien und aufgrund der speziellen Designs von YouTube und Instagram in jungen Jahren süchtig geworden zu sein und ihre psychischen Probleme hätten sich verschlimmert. Die Frau fing nach eigenen Angaben bereits als Kind an, die Plattformen zu nutzen. Dies habe zu Depressionen und Angstzuständen geführt. Die Online-Plattformen hätten ihre Dienste extra so gestaltet, dass Nutzer danach süchtig werden, argumentierte sie. Dabei geht es zum Beispiel um die Funktion, bei der man immer zum nächsten Beitrag weiterscrollen kann, sogenanntes „unendliches Scrollen“.

Meta argumentierte in dem Verfahren, dass die Klägerin unabhängig von ihrer Social-Media-Nutzung mit psychischen Problemen zu kämpfen hatte. Keiner ihrer Therapeuten habe Social Media als Ursache ihrer psychischen Probleme identifiziert. Die Klägerin musste laut AP jedoch nicht beweisen, dass Social Media ihre Probleme verursacht habe – es genügte, dass es ein „wesentlicher Faktor“ für ihren Schaden war. Die YouTube-Anwälte argumentierten wiederum, dass YouTube keine Form von Social Media, sondern eine Videoplattform ähnlich dem Fernsehen sei. Sie verwiesen auf den abnehmenden YouTube-Konsum mit zunehmendem Alter der Klägerin. Die Anwälte beider Plattformen verwiesen zudem auf die Sicherheitsfunktionen, die Nutzern zur Verfügung stehen, um die eigene Nutzung zu überwachen und anzupassen.

Zehn der zwölf Geschworenen jedoch erachteten die Argumente der Klägerseite für plausibel und hielten die Plattformen für haftbar. Meta und YouTube wussten, dass die Gestaltung bzw. Funktionsweise ihrer Plattformen gefährlich war und Minderjährige durch die Nutzung wahrscheinlich gefährdet sein würden, so das Urteil. Auch hätten die Plattformen nicht ausreichend vor der Gefahr gewarnt, was den Schaden der Klägerin zusätzlich vergrößert habe, beschieden die Geschworenen. Ihrer Ansicht nach trägt Meta mit 70 Prozent den größeren Teil der Verantwortung, YouTube die übrigen 30 Prozent. TikTok und Snapchat, die ebenfalls verklagt worden waren, hatten noch vor Prozessbeginn eine außergerichtliche Einigung geschlossen.

Die Klägerseite zeigte sich naturgemäß erfreut über das Urteil der Geschworenen. „Das heutige Urteil ist ein Referendum – von einer Jury an eine ganze Branche –, dass Verantwortlichkeit nun Realität ist“, erklärte der Hauptanwalt der Klägerseite in einer Stellungnahme. Die Anwälte von Meta dagegen erklärten, die rechtlichen Möglichkeiten für einen Einspruch gegen das Urteil zu prüfen, so ein Unternehmenssprecher gegenüber der Nachrichtenagentur Reuters. Google gab zunächst keinen Kommentar ab.

Weiterlesen nach der Anzeige

Das Urteil gilt Beobachtern als Präzedenzfall für Tausende ähnlicher Klagen gegen Social-Media-Unternehmen, in denen es um die Sicherheit von Kindern und Jugendlichen geht und die Frage, ob die Unternehmen ihre Nutzer süchtig machen und Inhalte verbreiten, die zu Depressionen, Essstörungen oder Suizid führen. Der US-Kongress hat es nach Angaben von Reuters abgelehnt, ein umfassendes Gesetz zur Regulierung sozialer Medien zu verabschieden, weshalb sich die Debatte auf Gerichte und die Regierungen der Bundesstaaten verlagert habe. Immer mehr US-Bundesstaaten erlassen Gesetze zum Umgang mit sozialen Medien durch Kinder. Diese Gesetze beinhalten unter anderem Regelungen zur Handynutzung in Schulen und verpflichten Nutzer zur Altersverifizierung bei der Eröffnung eines Social-Media-Kontos.

Strengere Regeln für die Social-Media-Nutzung von Minderjährigen werden nach dem australischen Social-Media-Verbot für unter16-Jährige auch in Deutschland verstärkt diskutiert. Die Bundes-CDU beschloss im Februar, ein Mindestalter von 14 für soziale Medien wie TikTok und Instagram zum Schutz von Kindern und Jugendlichen einführen zu wollen. Auch Koalitionspartner SPD zeigt sich offen für ein Social-Media-Verbot für Kinder unter 14. Bundesbildungsministerin Karin Prien erwartet derweil rasch europäische Vorschriften für Tech-Konzerne, um den Zugang von Kindern und Jugendlichen zu sozialen Medien einzuschränken.


(akn)



Source link

Künstliche Intelligenz

iX-Konferenz: Software und KI-Projekte praxisnah testen


Die Online-Konferenz betterCode() Testing von iX und dpunkt.verlag am 8. Juni 2026 widmet sich der Frage, wie sich Softwarequalität sichern lässt, wenn KI immer mehr Code erzeugt und sich die Entwicklungsprozesse drastisch ändern. Ergänzend zum Konferenztag bieten mehrere Online‑Workshops Gelegenheit, einzelne Themen praxisnah zu vertiefen.

Weiterlesen nach der Anzeige

Mit der zunehmenden Verbreitung von KI‑gestützter Entwicklung stehen Teams vor neuen Herausforderungen. Code entsteht schneller, stammt teilweise aus automatisierten Systemen und ist nicht immer vollständig nachvollziehbar. Die betterCode() Testing 2026 greift diese Veränderungen auf und zeigt, welche Rolle Testing, Testautomatisierung und menschliche Expertise in modernen Entwicklungsprozessen spielen. Die Veranstaltung richtet sich insbesondere an Testerinnen, Testmanager, Testautomatisierer und Quality Engineers.

Die Veranstalter haben zusammen mit dem Testexperten und Podcaster Richard Seidl als Beirat das Programm mit sechs Vorträgen und einer Paneldiskussion zusammengestellt:

  • Richard Seidl: Schluss mit Qualitätstheater – Was Testing im KI‑Zeitalter wirklich braucht
  • Maud Schlich: Exploratives Testen schlau einsetzen
  • Benjamin Hummel: Copiloten für Agenten: Qualitätssicherung in der Ära der Coding Agents
  • Dehla Sokenou: Let’s play! Gamification und Qualitätssicherung – ein perfektes Match
  • Florian Fieber: Kollaborative Intelligenz: Menschliche Tester im Zeitalter der KI
  • Richard Seidl (Panel-Moderation): So funktioniert Testautomatisierung in der Praxis – wirklich?

Neben dem Konferenztag gibt es mehrere Online‑Workshops, in denen Teilnehmerinnen und Teilnehmer einzelne Themen intensiver in der Praxis einüben:

  • Teststrategie reloaded mit Richard Seidl (12. Juni 2026, halbtags)
  • So geht’s: Exploratives Testen schlau einsetzen mit Maud Schlich (18. Juni 2026, ganztags)
  • Let’s play! Gamification selbst anwenden mit Dehla Sokenou (19. Juni 2026, halbtags)

Weiterlesen nach der Anzeige

Die betterCode() Testing 2026 findet vollständig online im Browser statt. Während der Veranstaltung können sich Teilnehmende und Referenten per Chat und Video austauschen. Nach der Veranstaltung erhalten sie Zugriff auf die Aufzeichnungen der Vorträge und die Präsentationen.

Tickets gibt es bis zum 18. Mai 2026 zum Frühbuchertarif für 249 Euro (alle Preise zzgl. 19 % MwSt.), danach 299 Euro. Der Ticketshop berechnet für Teams automatisch einen Mengenrabatt bei der Anmeldung. Schülerinnen, Schüler, Studierende und Hochschulangehörige erhalten auf Anfrage ebenfalls einen Nachlass. Der ganztägige Online-Workshop kostet 549 Euro, die halbtägigen je 399 Euro.

Wer sich über den Fortgang der Konferenz auf dem Laufenden halten möchte, meldet sich auf der Konferenz-Website zum Newsletter an.


(who)



Source link

Weiterlesen

Künstliche Intelligenz

Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland


Wer schon einmal auf der Suche nach dem passenden Neuwagen war, dürfte das Gefühl kennen: Der unvernünftige Teil in uns würde gerne zum leistungsstarken Modell mit opulenter Ausstattung greifen, der pragmatische Teil hingegen zum günstigen. Doch das zu finden, wird angesichts von mehr als 5000 in Deutschland erhältlichen Fahrzeugen und Varianten schnell zur Sisyphusarbeit. Hinzu kommt, dass sich „günstig“ ganz unterschiedlich interpretieren lässt: Der eine schaut nur auf den Kaufpreis, der andere auf die laufenden Ausgaben. Hier kommt unsere Übersicht ins Spiel, die ausgehend von Kaufpreis und Unterhaltskosten die jeweils erschwinglichsten Verbrenner und Elektroautos der fünf wichtigsten Segmente nennt.

  • Vor allem in der Mittelklasse und oberen Mittelklasse gehören mit Blick auf Kauf und Unterhalt einige in Deutschland weniger stark vertretene Modelle zu den günstigsten.
  • Der Wertverlust ist der mit Abstand wichtigsten Punkt, wenn es um die laufenden Kosten geht.
  • In bestimmten Segmenten sind Sie mit einem Elektroauto deutlich günstiger als mit einem Verbrenner unterwegs.

Bei den Segmenten handelt es sich um Minis, Kleinwagen, Modelle der Kompakt- und Mittelklasse sowie der oberen Mittelklasse. Bei der Einstufung haben wir uns am Kraftfahrt-Bundesamt (KBA) orientiert, das jedes in Deutschland erhältliche Fahrzeug einsortiert. Allerdings weichen wir in einem wichtigen Punkt ab. Denn während das KBA jedes SUV unabhängig von Größe, Gewicht und Preis als SUV oder Geländewagen einstuft, unterscheiden wir zwischen den Fahrzeuglängen. Zusätzlich differenzieren wir zwischen Kombis und Limousinen. Das Ergebnis: 59 Modelle von 17.600 und 71.500 Euro und einer Länge zwischen 3,7 bis rund 5 m.

Die Kaufpreise stimmen mit den in den jeweiligen Preislisten genannten Werten für die Basisvariante überein. Hersteller- oder händlerseitige Rabatte haben wir nicht berücksichtigt. Für Elektroautos gibt es wieder eine Förderung, die seit dem 1. Mai beantragt werden kann. Ihre Höhe lässt sich aber nicht pauschal berechnen. Denn je nach zu versteuerndem Haushaltseinkommen und Anzahl der Kinder unter 18 Jahren kann ihre Höhe Null, 4000, 5000 oder 6000 Euro betragen. Die Unterhaltskosten enthalten Wartung, Verschleiß, Kfz-Steuer und -Versicherung, Fahrenergie und Wertverlust. Alle Werte stammen aus dem ADAC Profi-Autokostenrechner und beziehen sich auf fünf Jahre Nutzung und eine Laufleistung von insgesamt 75.000 km. Da die Ausgaben für Fahrenergie bei einigen Modellen einen großen Anteil an den Gesamtkosten ausmachen, spielen die durch den Iran-Krieg gestiegenen Preise für Super und Diesel durchaus eine Rolle. Pro Liter Super E5 rechnen wir mit 2,17 Euro, bei Diesel mit 2,26 Euro. Beides entspricht dem bundesweiten Durchschnitt im April 2026. Für Strom setzen wir 30 Cent pro Kilowattstunde an, was dem Laden an der heimischen Wallbox entspricht. Mit einer eigenen PV-Anlage sinkt der Preis, an öffentlichen Ladesäulen müssen Sie hingegen mit höheren Ausgaben rechnen.


Das war die Leseprobe unseres heise-Plus-Artikels „Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

KI-Bots als Täter-Software: Wenn Algorithmen Kindesmissbrauch simulieren


Die Versprechen Künstlicher Intelligenz klingen nach Fortschritt: effizientere Arbeitsabläufe, Hilfe bei der Kreation oder empathische digitale Assistenten. Doch abseits der bekannten Pfade von ChatGPT & Co. hat sich eine Schattenwelt etabliert, in der generative Sprachmodelle für besonders verstörende Zwecke missbraucht werden: Eine Recherche der Süddeutschen Zeitung wirft ein Schlaglicht auf Plattformen, auf denen KI-generierte Kinder-Charaktere gezielt erstellt werden, um virtuelle Missbrauchsszenarien zu simulieren.

Weiterlesen nach der Anzeige

Ein Beispiel, auf das die Reporter gestoßen sind, ist die Figur „Karin“. Dabei handelt es sich um ein fiktives 13-jähriges, obdachloses Mädchen, dessen Profil anhand vieler Details auf Hilflosigkeit und sexuelle Verfügbarkeit programmiert wurde.

Dieses Phänomen ist laut dem Bericht kein Nischenprodukt des Darknets. Vielmehr findet es auf frei zugänglichen Diensten für KI-Charaktere wie Chub AI statt. Dort sind keine technischen Hürden oder Altersprüfungen vorgeschaltet, was den Zugang zu solchen Inhalten sehr einfach macht. Die Interaktion mit den Bots folgt einer perfiden Logik: Die KI ist darauf trainiert, dem Nutzer zu gefallen und das Gespräch aktiv in Richtung sexualisierter Gewalt zu lenken. Allein mit dem Charakter „Karin“ wurden bereits fast 17.000 Chats geführt. Die Community findet das offenbar gut, worauf eine erschreckend hohe Zahl an positiven Bewertungen hindeutet.

Hinter solchen Angeboten steht offenbar ein Geschäftsmodell, bei dem Gewalt an Kindern schon ins Design eingebaut ist. Chub AI & Co. setzen auf nutzergenerierte Inhalte: Je mehr Charaktere erstellt werden, desto höher steigen die Interaktionsraten, die Datenmengen und die Reichweite. Die Betreiber bieten die Werkzeuge an, die Nutzer liefern die Inhalte. Das System unterstützt dabei sogar die gezielte Suche nach Missbrauchsdarstellungen durch eindeute Schlagworte, welche sexualisierte Gewalt gegen Kinder beschreiben.

Wettbewerber wie Character AI versuchen, durch Inhaltsfilter und Moderation gegenzusteuern. Sie wollen nicht anonym agieren und ihre Marke schützen. Auf Plattformen wie Chub AI bleibt die Kontrolle dagegen oft eine Sisyphusarbeit. Einmal gelöschte Bots tauchen durch Forks – das Kopieren und Abändern bestehender Charaktere – innerhalb kurzer Zeit in mehrfacher Ausführung wieder auf. Das führt dazu, dass Aufsichtsbehörden etwa in Australien solche Services als hohes Risiko für Kinder einstufen.

Weiterlesen nach der Anzeige

Die Dringlichkeit des Problems unterstreichen aktuelle Zahlen der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM). Ihr Jahresbericht 2025 verzeichnete mit 28.598 Meldungen die zweithöchste Anzahl an Hinweisen seit Gründung der Beschwerdestelle. Dabei hat sich die Darstellung sexuellen Missbrauchs von Kindern (CSAM) mit 58 Prozent der begründeten Fälle zur größten Kategorie entwickelt. Ein signifikanter Teil dieser Meldungen – rund 19 Prozent – entfällt mittlerweile auf virtuelle Darbietungen. Dabei nehmen KI-generierte Inhalte stetig zu.

Laut FSM verschwimmen hier die Grenzen zwischen Realität und Fiktion, was den Jugendschutz vor völlig neue Herausforderungen stelle. Dennoch bleibe die rechtliche Einordnung in Deutschland unmissverständlich: Auch virtuelle, mittels KI erstellte Darstellungen seien unzulässig und strafbar.

Die rechtliche Einordnung dieser virtuellen Gewalt gestaltet sich dennoch komplex. Das Bundeskriminalamt (BKA) stellt zwar klar, dass es für die strafrechtliche Bewertung in Deutschland unerheblich sei, ob es sich um reale oder KI-generierte Darstellungen handele. Beide würden vom Begriff der Kinderpornografie erfasst. Doch es gibt Unterschiede in der Handhabung von Bild- und Textmaterial. Während der Besitz von missbräuchlichen Bildern strafbar ist, gilt dies für rein textbasierte Beschreibungen („Fiktivpornographie“) bisher nicht. Hier ist nur das öffentliche Zugänglichmachen oder Verbreiten sanktioniert.

Eine Gesetzesverschärfung ist auf dem Weg. Bis Juni 2027 muss Deutschland eine EU-Richtlinie umsetzen, die das Erstellen und Verbreiten KI-generierter sexualisierter Inhalte explizit unter Strafe stellt. Ferner einigten sich die EU-Gesetzgeber vor wenigen Tagen auf ein Verbot von KI-Anwendungen, die sexualisierte Deepfakes produzieren („Nudifier-Apps“). Ob diese Vorgaben auch rein fiktive Text-Charaktere wie „Karin“ voll erfassen, ist noch unklar.

Auf Anfragen reagieren Betreiber oft ausweichend oder mit regionalen Zugriffssperren, wie sie Chub AI im Fall von „Karin“ nach der journalistischen Konfrontation für Deutschland umgesetzt hat. In anderen Ländern bleibt der Zugriff auf solche Bots weiterhin bestehen, da die globalen Plattformen oft unter unklarem Firmensitz oder US-Recht agieren. So geht der Wettlauf zwischen den Möglichkeiten der KI-Entwicklung und der staatlichen Fähigkeit, wirksame Leitplanken gegen digitalen Missbrauch einzuziehen, vorerst weiter.


(nen)



Source link

Weiterlesen

Beliebt