Connect with us

Künstliche Intelligenz

Prozess um Social-Media-Sucht: US-Jury spricht Meta und Google schuldig


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In einem wegweisenden Prozess um Social-Media-Sucht hat eine Jury in Los Angeles die US-Konzerne Google und Meta zu Schadensersatz in Höhe von drei Millionen US-Dollar verurteilt. Die Schadensersatzsumme könnte sich im Nachgang noch erhöhen. Vor allem aber dürfte das Verdikt richtungsweisend für Tausende ähnlicher Verfahren gegen Tech-Unternehmen sein.

Weiterlesen nach der Anzeige

Nach neun Verhandlungstagen entschieden die kalifornischen Geschworenen, dass Googles YouTube und Metas Instagram bei der Gestaltung oder dem Betrieb ihrer Plattformen fahrlässig gehandelt hätten. Die Fahrlässigkeit der beiden Unternehmen sei zudem ein wesentlicher Faktor für den von der Klägerin geltend gemachten Schaden. Das berichtete am Mittwoch unter anderem die US-amerikanische Nachrichtenagentur Associated Press (AP).

Geklagt hatte eine heute 20-jährige Frau, die in dem Verfahren nur unter den Initialen KGM auftrat. Sie gab an, durch die Nutzung sozialer Medien und aufgrund der speziellen Designs von YouTube und Instagram in jungen Jahren süchtig geworden zu sein und ihre psychischen Probleme hätten sich verschlimmert. Die Frau fing nach eigenen Angaben bereits als Kind an, die Plattformen zu nutzen. Dies habe zu Depressionen und Angstzuständen geführt. Die Online-Plattformen hätten ihre Dienste extra so gestaltet, dass Nutzer danach süchtig werden, argumentierte sie. Dabei geht es zum Beispiel um die Funktion, bei der man immer zum nächsten Beitrag weiterscrollen kann, sogenanntes „unendliches Scrollen“.

Meta argumentierte in dem Verfahren, dass die Klägerin unabhängig von ihrer Social-Media-Nutzung mit psychischen Problemen zu kämpfen hatte. Keiner ihrer Therapeuten habe Social Media als Ursache ihrer psychischen Probleme identifiziert. Die Klägerin musste laut AP jedoch nicht beweisen, dass Social Media ihre Probleme verursacht habe – es genügte, dass es ein „wesentlicher Faktor“ für ihren Schaden war. Die YouTube-Anwälte argumentierten wiederum, dass YouTube keine Form von Social Media, sondern eine Videoplattform ähnlich dem Fernsehen sei. Sie verwiesen auf den abnehmenden YouTube-Konsum mit zunehmendem Alter der Klägerin. Die Anwälte beider Plattformen verwiesen zudem auf die Sicherheitsfunktionen, die Nutzern zur Verfügung stehen, um die eigene Nutzung zu überwachen und anzupassen.

Zehn der zwölf Geschworenen jedoch erachteten die Argumente der Klägerseite für plausibel und hielten die Plattformen für haftbar. Meta und YouTube wussten, dass die Gestaltung bzw. Funktionsweise ihrer Plattformen gefährlich war und Minderjährige durch die Nutzung wahrscheinlich gefährdet sein würden, so das Urteil. Auch hätten die Plattformen nicht ausreichend vor der Gefahr gewarnt, was den Schaden der Klägerin zusätzlich vergrößert habe, beschieden die Geschworenen. Ihrer Ansicht nach trägt Meta mit 70 Prozent den größeren Teil der Verantwortung, YouTube die übrigen 30 Prozent. TikTok und Snapchat, die ebenfalls verklagt worden waren, hatten noch vor Prozessbeginn eine außergerichtliche Einigung geschlossen.

Die Klägerseite zeigte sich naturgemäß erfreut über das Urteil der Geschworenen. „Das heutige Urteil ist ein Referendum – von einer Jury an eine ganze Branche –, dass Verantwortlichkeit nun Realität ist“, erklärte der Hauptanwalt der Klägerseite in einer Stellungnahme. Die Anwälte von Meta dagegen erklärten, die rechtlichen Möglichkeiten für einen Einspruch gegen das Urteil zu prüfen, so ein Unternehmenssprecher gegenüber der Nachrichtenagentur Reuters. Google gab zunächst keinen Kommentar ab.

Weiterlesen nach der Anzeige

Das Urteil gilt Beobachtern als Präzedenzfall für Tausende ähnlicher Klagen gegen Social-Media-Unternehmen, in denen es um die Sicherheit von Kindern und Jugendlichen geht und die Frage, ob die Unternehmen ihre Nutzer süchtig machen und Inhalte verbreiten, die zu Depressionen, Essstörungen oder Suizid führen. Der US-Kongress hat es nach Angaben von Reuters abgelehnt, ein umfassendes Gesetz zur Regulierung sozialer Medien zu verabschieden, weshalb sich die Debatte auf Gerichte und die Regierungen der Bundesstaaten verlagert habe. Immer mehr US-Bundesstaaten erlassen Gesetze zum Umgang mit sozialen Medien durch Kinder. Diese Gesetze beinhalten unter anderem Regelungen zur Handynutzung in Schulen und verpflichten Nutzer zur Altersverifizierung bei der Eröffnung eines Social-Media-Kontos.

Strengere Regeln für die Social-Media-Nutzung von Minderjährigen werden nach dem australischen Social-Media-Verbot für unter16-Jährige auch in Deutschland verstärkt diskutiert. Die Bundes-CDU beschloss im Februar, ein Mindestalter von 14 für soziale Medien wie TikTok und Instagram zum Schutz von Kindern und Jugendlichen einführen zu wollen. Auch Koalitionspartner SPD zeigt sich offen für ein Social-Media-Verbot für Kinder unter 14. Bundesbildungsministerin Karin Prien erwartet derweil rasch europäische Vorschriften für Tech-Konzerne, um den Zugang von Kindern und Jugendlichen zu sozialen Medien einzuschränken.


(akn)



Source link

Künstliche Intelligenz

KI-Bots als Täter-Software: Wenn Algorithmen Kindesmissbrauch simulieren


Die Versprechen Künstlicher Intelligenz klingen nach Fortschritt: effizientere Arbeitsabläufe, Hilfe bei der Kreation oder empathische digitale Assistenten. Doch abseits der bekannten Pfade von ChatGPT & Co. hat sich eine Schattenwelt etabliert, in der generative Sprachmodelle für besonders verstörende Zwecke missbraucht werden: Eine Recherche der Süddeutschen Zeitung wirft ein Schlaglicht auf Plattformen, auf denen KI-generierte Kinder-Charaktere gezielt erstellt werden, um virtuelle Missbrauchsszenarien zu simulieren.

Weiterlesen nach der Anzeige

Ein Beispiel, auf das die Reporter gestoßen sind, ist die Figur „Karin“. Dabei handelt es sich um ein fiktives 13-jähriges, obdachloses Mädchen, dessen Profil anhand vieler Details auf Hilflosigkeit und sexuelle Verfügbarkeit programmiert wurde.

Dieses Phänomen ist laut dem Bericht kein Nischenprodukt des Darknets. Vielmehr findet es auf frei zugänglichen Diensten für KI-Charaktere wie Chub AI statt. Dort sind keine technischen Hürden oder Altersprüfungen vorgeschaltet, was den Zugang zu solchen Inhalten sehr einfach macht. Die Interaktion mit den Bots folgt einer perfiden Logik: Die KI ist darauf trainiert, dem Nutzer zu gefallen und das Gespräch aktiv in Richtung sexualisierter Gewalt zu lenken. Allein mit dem Charakter „Karin“ wurden bereits fast 17.000 Chats geführt. Die Community findet das offenbar gut, worauf eine erschreckend hohe Zahl an positiven Bewertungen hindeutet.

Hinter solchen Angeboten steht offenbar ein Geschäftsmodell, bei dem Gewalt an Kindern schon ins Design eingebaut ist. Chub AI & Co. setzen auf nutzergenerierte Inhalte: Je mehr Charaktere erstellt werden, desto höher steigen die Interaktionsraten, die Datenmengen und die Reichweite. Die Betreiber bieten die Werkzeuge an, die Nutzer liefern die Inhalte. Das System unterstützt dabei sogar die gezielte Suche nach Missbrauchsdarstellungen durch eindeute Schlagworte, welche sexualisierte Gewalt gegen Kinder beschreiben.

Wettbewerber wie Character AI versuchen, durch Inhaltsfilter und Moderation gegenzusteuern. Sie wollen nicht anonym agieren und ihre Marke schützen. Auf Plattformen wie Chub AI bleibt die Kontrolle dagegen oft eine Sisyphusarbeit. Einmal gelöschte Bots tauchen durch Forks – das Kopieren und Abändern bestehender Charaktere – innerhalb kurzer Zeit in mehrfacher Ausführung wieder auf. Das führt dazu, dass Aufsichtsbehörden etwa in Australien solche Services als hohes Risiko für Kinder einstufen.

Weiterlesen nach der Anzeige

Die Dringlichkeit des Problems unterstreichen aktuelle Zahlen der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM). Ihr Jahresbericht 2025 verzeichnete mit 28.598 Meldungen die zweithöchste Anzahl an Hinweisen seit Gründung der Beschwerdestelle. Dabei hat sich die Darstellung sexuellen Missbrauchs von Kindern (CSAM) mit 58 Prozent der begründeten Fälle zur größten Kategorie entwickelt. Ein signifikanter Teil dieser Meldungen – rund 19 Prozent – entfällt mittlerweile auf virtuelle Darbietungen. Dabei nehmen KI-generierte Inhalte stetig zu.

Laut FSM verschwimmen hier die Grenzen zwischen Realität und Fiktion, was den Jugendschutz vor völlig neue Herausforderungen stelle. Dennoch bleibe die rechtliche Einordnung in Deutschland unmissverständlich: Auch virtuelle, mittels KI erstellte Darstellungen seien unzulässig und strafbar.

Die rechtliche Einordnung dieser virtuellen Gewalt gestaltet sich dennoch komplex. Das Bundeskriminalamt (BKA) stellt zwar klar, dass es für die strafrechtliche Bewertung in Deutschland unerheblich sei, ob es sich um reale oder KI-generierte Darstellungen handele. Beide würden vom Begriff der Kinderpornografie erfasst. Doch es gibt Unterschiede in der Handhabung von Bild- und Textmaterial. Während der Besitz von missbräuchlichen Bildern strafbar ist, gilt dies für rein textbasierte Beschreibungen („Fiktivpornographie“) bisher nicht. Hier ist nur das öffentliche Zugänglichmachen oder Verbreiten sanktioniert.

Eine Gesetzesverschärfung ist auf dem Weg. Bis Juni 2027 muss Deutschland eine EU-Richtlinie umsetzen, die das Erstellen und Verbreiten KI-generierter sexualisierter Inhalte explizit unter Strafe stellt. Ferner einigten sich die EU-Gesetzgeber vor wenigen Tagen auf ein Verbot von KI-Anwendungen, die sexualisierte Deepfakes produzieren („Nudifier-Apps“). Ob diese Vorgaben auch rein fiktive Text-Charaktere wie „Karin“ voll erfassen, ist noch unklar.

Auf Anfragen reagieren Betreiber oft ausweichend oder mit regionalen Zugriffssperren, wie sie Chub AI im Fall von „Karin“ nach der journalistischen Konfrontation für Deutschland umgesetzt hat. In anderen Ländern bleibt der Zugriff auf solche Bots weiterhin bestehen, da die globalen Plattformen oft unter unklarem Firmensitz oder US-Recht agieren. So geht der Wettlauf zwischen den Möglichkeiten der KI-Entwicklung und der staatlichen Fähigkeit, wirksame Leitplanken gegen digitalen Missbrauch einzuziehen, vorerst weiter.


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop: Cloud Security Masterclass – Angriff und Verteidigung in AWS


Häufig sind es Fehlkonfigurationen, die Angreifern den Zugriff auf Cloud-Umgebungen wie Amazon Web Services (AWS) erleichtern. Entwicklungsfehler, unzureichende Härtung sowie Standardeinstellungen, die eher auf Funktionalität als auf Sicherheit ausgelegt sind, erhöhen das Risiko, dass Anwendungen, Ressourcen und Identitäten kompromittiert werden.

Weiterlesen nach der Anzeige

In dem Workshop Angriffe auf und Absicherung von Amazon Web Services (AWS) lernen Sie typische Angriffstechniken in Cloud-Umgebungen kennen und verstehen, wie Angreifer vorgehen, um AWS-Identitäten und -Ressourcen zu kompromittieren. Darauf aufbauend erfahren Sie, mit welchen Sicherheitsmaßnahmen Sie Ihre AWS-Umgebung gezielt härten und potenzielle Angriffe frühzeitig erkennen und abwehren können.

Im Fokus stehen dabei reale Angriffsszenarien und passende Gegenmaßnahmen. Sie beschäftigen sich unter anderem mit Methoden zur unautorisierten Informationsbeschaffung, der initialen Kompromittierung von AWS-Identitäten sowie der Privilegieneskalation innerhalb von Cloud-Umgebungen. Zudem lernen Sie, Angriffspfade zwischen lokalen IT-Umgebungen und der AWS-Cloud zu analysieren und sicherheitsrelevante Zusammenhänge zu verstehen.

Beim Aufspüren von Fehlkonfigurationen erfahren Sie, wie Sie diese gezielt beheben und zentrale Sicherheitsfunktionen in AWS aktiv aktivieren und korrekt einsetzen. Sie lernen den praktischen Umgang mit CloudTrail, CloudWatch und GuardDuty, um Sicherheitsereignisse zu analysieren, zu bewerten und auf Vorfälle angemessen zu reagieren.

Sie profitieren von der direkten Anleitung durch Ihren Trainer Frank Ully, erfahrenem Pentester und Principal Consultant Cybersecurity bei der Corporate Trust Business Risk & Crisis Management GmbH in München.

Weiterlesen nach der Anzeige

Er verfügt über umfangreiche Erfahrung aus realen Sicherheitsanalysen und Penetrationstests in Cloud-Umgebungen und zeigt im Workshop, wie Angriffe in AWS tatsächlich ablaufen, welche Fehlkonfigurationen besonders kritisch sind und wie sich diese in der Praxis wirksam absichern lassen.

Der Workshop richtet sich an Administratoren, IT-Sicherheitsverantwortliche und Security-Fachleute, die AWS-Umgebungen sicher betreiben und sich intensiv mit Angriffsszenarien und Schutzmaßnahmen in der Cloud auseinandersetzen möchten.


Upgrade for Skills

Upgrade for Skills


(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Opel entwickelt E-SUV mit chinesischem Hersteller Leapmotor


Opel entwickelt zusammen mit dem chinesischen Autohersteller Leapmotor ein Kompakt-SUV, das ausschließlich mit batterieelektrischem Antrieb auf den Markt kommen soll. Die Entwicklung habe bereits begonnen und soll zu einem Produktionsbeginn im Sommer 2028 führen, heißt es in einer Mitteilung von Opel. Gebaut werden soll das Auto im Stellantis-Werk im spanischen Saragossa, wo bereits seit Jahrzehnten der Opel Corsa vom Band läuft. Laut Medienberichten will Leapmotor dort noch in diesem Sommer die Produktion des eigenen SUV B10 beginnen, der mit einer Länge von 4,52 Metern in derselben Klasse antritt wie der geplante neue Opel.

Weiterlesen nach der Anzeige

„Damit plant Opel einen weiteren wichtigen Schritt bei der Entwicklung hochmoderner und erschwinglicher Elektrofahrzeuge für unsere Kunden“, erklärt Huettl. Die Chinesen seien für den Antrieb, die Batterie sowie für die komplette Elektro- und Digitalarchitektur zuständig. In Rüsselsheim sollen sich die Ingenieure zusätzlich zum Design um sämtliche Autoteile kümmern, mit denen die Kunden direkt in Kontakt kommen. Hier geht es beispielsweise um Fahrwerk, Sitze und Licht.

Aktuelle Opel-SUV im Test

Erst vor wenigen Wochen hatte Stellantis eine weitere Reduzierung der Entwicklungsmannschaft in Rüsselsheim angekündigt. Von derzeit rund 1650 Ingenieuren sollen künftig noch 1000 an der Entwicklung von Opel-Modellen sowie verschiedenen Themenfeldern für den Gesamtkonzern arbeiten. Pläne für eine Batteriezellen-Fabrik am Opel-Standort Kaiserslautern wurden aufgegeben. Bei der Übernahme durch PSA im Jahr 2017 waren bei Opel noch rund 7000 Entwickler beschäftigt. PSA ist dann zusammen mit Fiat-Chrysler im multinationalen Stellantis-Konzern aufgegangen. Zudem gehören heute unter anderem Fiat, Jeep, Peugeot, Citroën und auch Opel.

Stellantis hält einen Minderheitsanteil von 21 Prozent an Leapmotor und hat mit dem chinesischen Elektroautobauer das Vertriebsunternehmen Leapmotor International gegründet. Auch andere chinesische Hersteller drängen nach Europa: SAIC plant den Bau einer Elektroautofabrik in Spanien, um EU-Einfuhrzölle zu umgehen.

Weiterlesen nach der Anzeige

Verantwortlich für die rund 150 Verkaufsstellen von Leapmotor auf dem deutschen Markt ist Huettl, der neben Opel auch die deutsche Stellantis-Landesgesellschaft leitet. Mit der China-Kooperation nimmt Opel im Konzern eine Pionier-Rolle ein. Vorteile könnten sich beispielsweise im Einkauf und beim Tempo der Umsetzung ergeben. Konkrete Kooperationspläne für weitere Modelle auch anderer Stellantis-Marken wurden nicht genannt.

Derzeit versieht Opel seine SUV-Modelle sowohl mit Verbrennungsmotoren als auch mit E-Antrieben. In Mokka, Frontera und Grandland hat der Kunde aktuell die Wahl. Vom Vorhaben, ab 2028 in Europa nur noch batterieelektrische Antriebe zu verkaufen, ist Opel wieder abgerückt. Das neue SUV soll dagegen ausschließlich mit E-Antrieb angeboten werden.

Mehr zur Marke Opel


(mfz)



Source link

Weiterlesen

Beliebt