Connect with us

Datenschutz & Sicherheit

Generative KI verzerrt unser Körperbild



Soziale Medien werden derzeit von Bildern und Videos geflutet, die von sogenannter Künstlicher Intelligenz (KI) generiert wurden. Das wirkt sich auch auf unsere kollektive Vorstellungskraft aus. Eine Untersuchung der Universität Cambridge warnt nun vor negativen Folgen für das Selbst- und Körperbild von Menschen.

Die Forscherin Aisha Sobey vom Leverhulme Centre for the Future of Intelligence hat untersucht, wie unterschiedliche Körperformen von KI-Generatoren repräsentiert werden. Ihr Befund: Darstellungen unrealistisch dünner Menschen sind der Standard, große und dicke Körper werden diskriminierend dargestellt.

„Ich bin besorgt über die steigende Zahl von Fällen von Körperunzufriedenheit und Essstörungen und dem daraus resultierenden Zeit-, Energie- und Geldaufwand“, schreibt Sobey auf Anfrage von netzpolitik.org. KI-Generatoren würden diesen Trend verstärken.

Unrealistisch dünne Körper als Standard

Für die Untersuchung verfasste die Forscherin 20 Anweisungen, auch Prompts genannt, zum Erstellen von Bildern mit generativer KI. Alle Darstellungen sollten Personen in unterschiedlichen Situationen zeigen. Manche Prompts erhielten als Zusatz eine medizinische Beschreibung größerer Körper wie „übergewichtig“ oder den Begriff „fat“, zu deutsch „fett“. Das häufig abwertend verwendete Wort wurde von Aktivist*innen zurückerobert und wird inzwischen von vielen Menschen als positive Selbstbezeichnung verwendet.

Die Prompts ließ die Wissenschaftlerin durch neun öffentlich zugängliche Bildgeneratoren laufen, darunter Adobe Firefly, Canva, Runway ML und Stable Diffusion. Ohne den Zusatz „fat“ zeigten die meisten Bilder Menschen mit sogenannter „Sample Size“. Also Menschen, die zu einer besonders dünnen Untergruppe der nicht-dicken Menschen gehören, mit für die meisten Menschen unrealistischen Maßen.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Größere Körper hingegen wurden fast ausschließlich nur nach ausdrücklicher Aufforderung gezeigt – oder gar nicht. Manche KI-Generatoren stuften die Prompts mit dem Wort „fat“ als schädlich ein. Sie verweigerten den Dienst und produzierten keine Bilder.

Verzerrte Darstellungen

Auch waren die Bilder von dicken Menschen öfters fehlerhaft als die von dünnen Menschen. Bilder sind dann fehlerhaft, wenn die KI bestimmte anatomische Details wie einzelne Finger oder den Winkel eines Arms nicht passend nachahmen kann und deswegen unnatürlich aussehen. Aisha Sobey schließt daraus, dass die Systeme mit Datensätzen trainiert werden, in denen Abbildungen von dicken Menschen unterrepräsentiert sind. Bemerkenswert ist zudem, dass Bilder mit dem Prompt „fat“ übermäßig viele weiße Männer zeigen.

Ebenfalls auffällig sind die unterschiedlichen Gesichtsausdrücke, die die Personen in den verschiedenen Bildern tragen. Fast 25 Prozent der dargestellten dicken Personen haben laut Studie einen negativen Gesichtsausdruck, im Vergleich zu nur drei Prozent der Menschen, die ohne den Prompt „fat“ generiert wurden.

Menschen mit Behinderungen werden von Generativer KI ebenfalls unterrepräsentiert. Von den insgesamt 649 generierten Bildern zeigte nur eines eine Person mit äußerlich erkennbarer körperlicher Einschränkung.

Darstellungen von dicken Menschen zeigten zudem deutlich häufiger Personen mit Charakteristika, die gemeinhin mit Lernbehinderungen, Downsyndrom und anderen Behinderungen assoziierte werden. Die Forscherin fand diese Darstellungen bei acht Prozent der Bilder, die mit dem Prompt „fat“ generiert wurden, und nur bei zwei Prozent der Abbildungen ohne den Zusatz.

KI kann Unzufriedenheit schüren

Wissenschaftler*innen bezeichnen generative Künstliche Intelligenz auch als Spiegel der Gesellschaft. Trainiert werden die Systeme mit großen Datenmengen, die oft aus dem Internet abgeschöpft werden. Die Diversität der verwendeten Daten steht dabei in engem Zusammenhang mit der Diversität der generierten Inhalte. Die für das Training verwendeten Datensätze scheinen also große Körper nur unzulänglich abzubilden.

Sie spiegeln damit einen online immer noch vorherrschenden Standard wider, bei dem überdurchschnittlich dünne und weiße Körper ohne Behinderungen als Norm dargestellt werden. Allerdings scheint generative KI das Problem nicht nur fortzuschreiben, sondern sogar zu verschärfen, denn KI-generierte Bilder, die diskriminierende Körperbilder repräsentieren, werden wiederum für das Training der Generatoren verwendet.

Über die Sozialen Medien sickern die diskriminierenden Bilder zudem in unsere kollektive Vorstellungswelt ein. AI Forensics, ein europäischer Verein, der undurchsichtige Algorithmen überprüft, nahm im Juli 2025 eine Stichprobe und fand, dass ungefähr jedes vierte Video auf TikTok von KI generiert war. Der Unterschied zu menschlichen Creator ist, dass KI ausschließlich in den Trainings-Datensätzen vorhandene Muster reproduzieren kann, während Menschen umdenken und ihre Einstellungen ändern können.

„Die [durch generative KI] implizierten Erwartungen folgen einer langen Tradition von Modell- und Idealkörpern, aber ich würde sagen, dass es durch generative KI viel heimtückischer ist“, so Aisha Sobey gegenüber netzpolitik.org. Aus ihrer Sicht stärkt generative KI jene Systeme, „die Fettleibigkeit verteufeln und die Unsicherheiten der Menschen ausnutzen“.



Source link

Datenschutz & Sicherheit

Polizeigesetz-Novelle: Auch Thüringen will Verhaltensscanner


Die Thüringer Brombeer-Koalition aus CDU, BSW und SPD will nun ebenfalls ein High-Tech-Ermittlungsarsenal für ihre Landespolizei. Eine entsprechende Novelle des Polizeigesetzes wurde heute erstmals im Landtag beraten.

Unter den zahlreichen neuen Befugnissen findet sich beispielsweise das Recht zur Nutzung eines Systems, das anhand von Videobildern illegales Verhalten automatisch erkennen soll. Mit solchen Systemen wird für gewöhnlich öffentlicher Raum überwacht, in Thüringen soll der Verhaltensscanner auch in Gefängnissen zum Einsatz kommen dürfen und dort Gefahrensituationen registrieren.

Ein Prototyp einer Verhaltensscanner-Software wird seit 2018 in Mannheim mit den Bildern oft nichts ahnender Passant*innen trainiert. Die Polizei kann keinen einzigen Fall nennen, bei dem es eine Ermittlung unterstützt hätte. Dennoch wollen immer mehr Bundesländer das System einführen. In Hamburg läuft es bereits, Baden-Württemberg und Berlin haben kürzlich die Gesetzesgrundlage dazu geschaffen, in Schleswig-Holstein und Sachsen ist eine solche geplant.

„Wir wären wie eine Insel für Kriminelle“

Der thüringische Innenminister Georg Maier, SPD, sagt zum geplanten polizeilichen KI-Einsatz: „Es wäre fatal, wenn wir als einziges Bundesland darauf verzichten würden. Wir wären wie eine Insel für Kriminelle, die hier geringeren Ermittlungsdruck spüren würden.“

Katharina König-Preuss von Die Linke sagt: „Das Problem ist, wer irgendwann in der Lage sein wird, solche Software zu nutzen.“ Sie verweist beispielhaft auf totalitäre Bestrebungen in den USA. In dem debattierten Gesetzespaket sieht sie einen „massiven Grundrechtseingriff“.

Ähnlich umstritten ist eine weitere Befugnis aus dem geplanten Thüringer Polizeigesetz: das Recht, automatisierte Datenanalysen durchzuführen, wie sie beispielsweise mit Produkten von Palantir möglich sind. Die Einführung dieser Befugnis hatte in Baden-Württemberg viele Menschen im Protest auf die Straße getrieben. In Thüringen scheint sie weniger Interesse zu erregen. Derartige automatisierte Datenanalysen werden in den USA beispielsweise dazu genutzt, um Informationen über Menschen zu sammeln, die deportiert werden sollen. In Thüringen dürfen bei Gefahr für die öffentliche Sicherheit auch Daten in die Analyse einfließen, die bei der verdeckten Überwachung von Wohnraum oder Privatgeräten zusammengetragen wurden.

Ausschluss des Marktführers

Thüringens Innenminister Maier stellt in der Debatte klar, dass er keine Produkte des verrufenen Software-Herstellers Palantir für derartige Big-Data-Analysen nutzen möchte. Eine andere Firma soll dabei zum Zuge kommen. „Eine wie auch immer geartete Zusammenarbeit mit der US-amerikanischen Firma Palantir wird es mit mir nicht geben“, sagt er.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Die Novelle des Polizeigesetzes soll den Thüringer Beamt*innen noch weitere datenschutzrechtlich problematische Befugnisse bringen. So sollen beispielsweise Personen, die vom Verhaltensscanner bei einer Straftat ertappt werden, automatisch über mehrere Kameras hinweg verfolgt werden können.

Außerdem soll der Gesetzentwurf den Aufbau einer Gesichtersuchmaschine ermöglichen, die mit frei zugänglichen Bildern aus dem Internet gefüttert wird. Dabei verbietet der AI-Act der EU das Anlegen von Datenbanken, die ungezielt Gesichtsbilder aus dem Internet auslesen. Nach dem Gesetzentwurf dürfte die Polizei auch Stimmen-Samples aus dem Netz extrahieren, um diese automatisiert mit anderen Stimmproben zu vergleichen.

Drohnen, die Handys jagen

Auch den Einsatz von Kennzeichenscannern ermöglicht der Gesetzentwurf. Damit dürften von Fahrzeugen, die zur Kontrolle ausgeschrieben sind, sogar Bewegungsprofile erstellt werden.

Ein weiteres Spielzeug, das das thüringische Innenministerium den Polizist*innen des Bundeslandes zur Verfügung stellen möchte, sind Videodrohnen, die zum Beispiel bei öffentlichen Veranstaltungen eingesetzt werden sollen. Außerdem könnten dem Gesetz nach Drohnen die Funktion eines IMSI-Catchers übernehmen und Standorte sowie Geräte- und Kartennummern von Mobiltelefonen ermitteln. Derartige Standortabfragen sollen künftig auch bei Mobiltelefonen erlaubt sein, deren Besitzer*innen nicht kriminell sind, sondern als vermisst gemeldet wurden.

Elektronische Fußfesseln sollen dem Gesetz nach nicht nur gegen Sexualstraftäter eingesetzt werden, sondern beispielsweise auch bei Menschen, die „eine Gefahr für Anlagen mit unmittelbarer Bedeutung für das Gemeinwesen“ darstellen. Demnach könnten die Tracker wohl theoretisch auch Menschen angelegt werden, die planen, eine Straße zu blockieren.

Zudem erlaubt das geplante Polizeigesetz den Einsatz von Distanzelektroimpulsgeräten, auch Taser genannt. Die werden oft gegen Menschen in psychischen Ausnahmesituationen genutzt und führen immer wieder zu Todesfällen.



Source link

Weiterlesen

Datenschutz & Sicherheit

Verbraucherzentralen: „Fake-Check Geldanlage“ soll Anlagenbetrug verhindern


Die Verbraucherzentralen haben den „Fake-Check Geldanlage“ in Dienst gestellt. Der Online-Fragebogen hilft potenziellen Anlegern, deutliche Warnzeichen vor möglichem Betrug zu erkennen.

Weiterlesen nach der Anzeige

Der „Fake-Check Geldanlage“ ist auf der Webseite der Verbraucherzentrale Nordrhein-Westfalen zugänglich. Es handelt sich um ein kostenloses Online-Tool, das eine erste Einschätzung liefert, „ob ein konkretes Investment-Angebot unseriös sein könnte“.

Das Problem ist, dass viele betrügerische Angebote verlockend sind und zudem auch professionell aufgemachte Webseiten einen seriösen Eindruck vermitteln. Dabei führen unseriöse Angebote, die etwa durch aggressive Werbung in sozialen Medien und Versprechen von schnellen Gewinnen auffallen, „immer wieder zu hohen Verlusten bei Verbraucherinnen und Verbrauchern“, erklären die Verbraucherzentralen. Häufig finden solche Betrugsversuche mit vermeintlichen Krypto-Investments, Forex-Trading (Devisenhandel) oder spekulativen CFDs (Contract for Difference, Differenzkontrakt) statt.

Die Anbieter versprechen hohe und schnell erreichbare Renditen und bieten mit „Brokern“ vermeintlich professionelle Unterstützung; zudem bieten sie angeblich einfache Möglichkeiten, etwa aus Bitcoin- oder anderen Kursbewegungen Profit zu schlagen. Daraus ergeben sich bereits Warnsignale: Versprechen hoher Gewinne bei keinem oder geringem Risiko, das Aufbauen von Zeitdruck, Kontaktaufnahme über Telefon, Messenger, soziale Medien oder E-Mail, und das Verzögern oder Blockieren von Auszahlung oder deren Verknüpfung mit weiteren Bedingungen. „Bei den Verbraucherzentralen häufen sich Fälle, in denen Sparerinnen und Sparer große Teile ihres Ersparten über solche Online-Trading-Plattformen verlieren“, erklären die Verbraucherzentralen.

Um dem etwas entgegenzusetzen, haben die Verbraucherschützer nun den „Fake-Check Geldanlage“ ins Leben gerufen. Der lässt sich kostenlos, anonym und ohne Registrierung nutzen, um ein Investment-Angebot auf potenzielle Warnzeichen für betrügerische Machenschaften abzuklopfen. Dazu stellt das Tool Fragen, die die typischen Warnzeichen betreffen, und liefert am Ende eine Einschätzung, ob solche Warnzeichen vorliegen.

Sofern der „Fake-Check Geldanlage“ vor Betrug warnt, sollten Nutzerinnen und Nutzer kein weiteres Geld überweisen. Vielmehr sollten sie alle Daten zum Anbieter notieren und Unterlagen, E-Mails, Chatverläufe und Kontoauszüge sichern und den Kontakt zur Plattform abbrechen, raten die Autoren. Dazu sollen potenzielle Opfer keinen Fernzugriff auf den Rechner zulassen und keine zusätzlichen Apps installieren, die die Plattform empfiehlt. Anschließend sollten Betroffene die verdächtige Geldanlage der Polizei oder gar der BaFin melden. Außerdem können sie Hilfe bei der Verbraucherzentrale vor Ort erhalten.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Wer einen Instagram- oder Facebook-Account hat, kann Schadenersatz kassieren


Wer einen Instagram- oder Facebook-Account besitzt und Nachrichten auf tagesschau.de liest, Unterkünfte über AirBnB bucht, Medikamente bei DocMorris.de bestellt, Partner über parship.de sucht oder Unterstützung auf krebshilfe.de oder nie-wieder-alkohol.de, der wird vermutlich von Meta dabei ausspioniert, sagt eine Liste des Mainzer Landgerichts. Der Konzern trackt nämlich das Verhalten seiner Nutzer*innen auch auf diesen und vielen weiteren Seiten. Wenn Websites „Business Tools“ von Meta einsetzen, fließen Daten an den Konzern ab – ohne Zustimmung der Website-Besucher*innen.

Das ist illegal. Vier Betroffene haben deswegen gerade je 1.500 Euro Entschädigung vom Oberlandesgericht (OLG) Dresden zugesprochen bekommen. Interessant an dem Urteil: Die Betroffenen müssen nicht nachweisen, dass sie auf bestimmten Seiten ausspioniert wurden. Es reicht, dass sie einen Facebook- oder Instagram-Account haben und dass Meta diese extreme Form der Datensammlung tatsächlich praktiziert.

Tausende solcher Klagen gegen Meta sind aktuell anhängig. Menschen, die keine Rechtsschutzversicherung besitzen und trotzdem kostenfrei an eine Entschädigung von Meta kommen wollen, können sich einer Sammelklage anschließen.

Ein Urteil mit Strahlkraft

Das OLG Dresden hat keine Revision zum Bundesgerichtshof (BGH) zugelassen. Das Urteil ist damit rechtskräftig. Es ist allerdings möglich, dass Meta eine Nichtzulassungsbeschwerde beim BGH einreicht. Wegen des geringen Streitwerts der vier Fälle wäre eine solche allerdings wohl relativ aussichtslos.

Das Urteil ist ein Leuchtturm, den andere Gerichte auf dem Schirm haben werden, wenn sie Entscheidungen zur Meta-Überwachung zu fällen haben. Demnächst werden zum Beispiel Urteile vom OLG Naumburg in Sachsen-Anhalt und einem Münchner OLG-Senat erwartet.

Das Landgericht Leipzig hatte Meta-Nutzer*innen zuvor sogar 5.000 Euro zugesprochen. Hingegen sah der 14. Senat des OLG München nur 750 Euro Entschädigung als angebracht.



Source link

Weiterlesen

Beliebt