Connect with us

Datenschutz & Sicherheit

„Es liegt an uns, ob wir KI Macht über uns geben“


Big-Tech-Hersteller bekannter KI-Produkte vermarkten Werkzeuge wie Gemini, DeepSeek, ChatGPT und Co. als Alltagstechnologie. Private Nutzer*innen sollen sie überall und für alle möglichen Zwecke einsetzen können, als Web-Suchmaschine, als Korrekturleserin, als Autorin oder Lern-Assistenz. Ein solches Marketing definiert Menschen als defizitäre Lebewesen, die sich stets optimieren müssen.

Wir haben uns mit Maren Behrensen darüber unterhalten, wie die Werbestrategie der KI-Giganten versucht, unser Menschenbild zu prägen. Behrensen sagt: Wir müssen dem nicht auf den Leim gehen, sondern können als kritisch denkende Personen einen selbstbestimmten, kreativen Umgang mit der Technologie finden. Behrensen lehrt Philosophie an der niederländischen Universität Twente in Enschede und forscht zur technologischen Vermittlung sozialer Realitäten sowie zu Identitätskategorien, Antigenderismus und Populismus.

Portraitfoto von Maren Behrensen
Maren Behrensen lehrt Philosophie an der Universität Twente – Alle Rechte vorbehalten Privat

KI für alle Zwecke

netzpolitik.org: KI ist überall. Was für einen Nutzen verspricht uns die KI-Industrie?

Maren Behrensen: Sie verspricht, dass KI uns im Alltag hilft, uns produktiver macht und wir effizienter arbeiten – oder sie uns sogar heilen kann.

Ein Beispiel sind Therapie-Bots. Die werden auf teils skrupellose Weise vermarktet und geben vor, eine Therapie ersetzen zu können. Realistisch betrachtet sind die meisten dieser Bots nicht nur nutzlos, sondern teils brandgefährlich.

KI soll auch unsere Arbeitswelt revolutionieren, wissenschaftliches Arbeiten unterstützen, menschliche Kommunikation optimieren. Dabei machen sich die Hersteller kaum die Mühe zu zeigen, wie genau sie diese Versprechen einlösen wollen.

Unausweichliche KI

netzpolitik.org: Was hat dieses Marketing für Folgen?

Maren Behrensen: Diese Versprechen rufen eine gesellschaftliche Erwartungshaltung hervor. Das wiederum baut sozialen Druck auf, KI-Produkte zu nutzen und zu kaufen. Denn man will ja nichts versäumen. Dabei geht der Blick dafür verloren, welchen Zweck die Technologie eigentlich erfüllen soll.

Diese Unausweichlichkeitslogik, nach der es alle irgendwie nutzen und sich damit auseinandersetzen müssen, erweitert die Nutzerbasis.

Ein gutes Beispiel sind Universitäten: Dort heißt es, wir könnten gar nicht darum herumkommen, KI in die Lehre oder Forschung zu integrieren. Also werden Taskforces eingerichtet, Fortbildungen angekündigt, Lehrpläne angepasst – obwohl noch gar nicht klar ist, wo und wie genau KI einen echten Nutzen bringt. Das ist weniger eine sachliche Entscheidung als eine durch Marketing erzeugte Dynamik.

netzpolitik.org: Es ist interessant, dass Unternehmer wie OpenAI-Chef Sam Altman es geschafft haben, dass alle über ihr Produkt sprechen, und davon ausgehen, dass Menschen es wie selbstverständlich nutzen. Wissen KI-Unternehmer, wofür Universitäten oder Privatpersonen ihr Produkt einsetzen sollten?

KI für ganz spezifische Zwecke

Maren Behrensen: Ich glaube, das wissen sie häufig nicht. Es gibt natürlich Bereiche, in denen KI einen klaren Nutzen hat – aber das sind meist sehr eng umrissene Felder. Ein Beispiel ist die Astrophysik: Dort gibt es gewaltige Datenmengen – zum Beispiel Millionen Aufnahmen von anderen Galaxien –, die von Menschen unmöglich alle gesichtet werden können. KI kann Muster darin erkennen und Vergleichsarbeit leisten, die Forschung in diesem Umfang überhaupt erst möglich macht.

Ein anderes Beispiel ist die Proteinforschung in der Biologie. KI kann dort Simulationen durchführen, Vorschläge machen und so Prozesse beschleunigen, die sonst Jahre dauern würden. Das ersetzt nicht die Arbeit im Labor, aber es eröffnet neue Kapazitäten.

Muster in großen Datenmengen zu erkennen, das ist ein Anwendungsbereich, in dem KIs dem Menschen klar überlegen sind und für den sie projektspezifisch trainiert werden. Diese Nutzung unterscheidet sich allerdings sehr deutlich davon, wie KI für Privatnutzer vermarktet wird, nämlich als Alltagstechnologie oder Allzwecklösung.

Menschen mit Optimierungsbedarf

netzpolitik.org: Welche Rolle spielt das Nützlichkeitsprinzip in der Vermarktung von KI?

Maren Behrensen: Das Nützlichkeitsprinzip steht im Zentrum der meisten Vermarktungsstrategien. Ein Beispiel ist die Grammarly-Werbung. Sie verspricht: „Wir schreiben dir deine Hausarbeit“ oder „Wir machen deine E-Mails verständlich“. Die Unterstellung ist hier: Der Mensch an sich kann wenig und dann kommt die KI, die aus dem unfähigen Menschen ein optimiertes Wesen macht.

In dieser Logik wird der Mensch wie eine kleine Maschine gesehen, die sich ständig selbst verbessern soll. Sein Wert bemisst sich daran, wie nützlich, effizient oder produktiv er ist.

Das zeigt sich auch besonders bei Tools wie Kalender- oder Gesundheits-Apps, wo es heißt: „Mit KI bringst du endlich Ordnung in dein Leben.“

netzpolitik.org: Was genau ist daran problematisch?

Die Mensch-Maschine

Maren Behrensen: Das ist ein sehr reduziertes Menschenbild. Es blendet vieles aus, was menschliches Leben eigentlich ausmacht – Beziehungen, Kreativität, auch einfach das Recht, einmal nicht effizient zu sein.

Das KI-Marketing versteht Menschen als Maschinen unter anderen Maschinen.

netzpolitik.org: Menschen als Maschinen zu verstehen – gibt es dafür Vorläufer in der Philosophiegeschichte?

Maren Behrensen: Es erinnert an René Descartes, ein französischer Philosoph der frühen Neuzeit, wobei er nicht den Menschen, sondern lediglich Tiere als Maschinen betrachtet hat. Daneben gibt es materialistische Philosophien. Sie brechen den Menschen auf seine Existenz als Körper herunter, der bestimmte Dinge braucht: Nahrungsmittel, Schlaf und so weiter. In der Regel versuchen sie, auch das Gefühlsleben des Menschen – oder das, was man vielleicht theologisch verbrämt Seelenleben nennen würde – auf rein materielle Fragen zu reduzieren.

Dem etwas überspitzten Ausdruck Mensch-Maschine-Denken kommt aber wohl der Behaviorismus in der Psychologie am nächsten. Da gibt es auch unterschiedliche Denkschulen, aber der Grundgedanke ist: Menschliches Verhalten ist auf Input und Output ausgerichtet. Menschliches Verhalten wird durch äußere Reize bestimmt. Die Idee dahinter ist, dass man Menschen quasi programmieren kann, wenn man die richtigen Inputs kennt. Dieses Denken wurde unter anderem auf Kindererziehung angewendet.

Nützlichkeitsprinzip auf die Spitze getrieben

netzpolitik.org: Eine Facette des Nützlichkeitsprinzips im KI-Marketing sind Philosophien, denen bekannte KI-Player anhängen, ein Beispiel ist der Longtermismus. Er steht in der Tradition des Utilitarismus, einer Art Nützlichkeitsethik. Was besagt er?

Maren Behrensen: Der Longtermismus argumentiert in etwa so: Menschliches Leben oder auch positive Erfahrungen, die Menschen im Laufe eines Lebens machen können, haben einen bestimmten intrinsischen Wert. Daher steigert sich dieser Wert umso mehr, je mehr Menschen es gibt.

Hinzu kommt die Vorstellung, dass wir es durch eine technologisch vermittelte Zukunft schaffen, uns über die Galaxie auszubreiten. Damit würden irgendwann die natürlichen Grenzen dafür wegfallen, wie viele menschliche Leben zeitgleich existieren können. Im Moment müssen wir davon ausgehen, dass es eine solche Grenze auf der Erde gibt, dass also nicht beliebig viele Menschen auf der Erde leben können.

Daneben müssen wir dafür sorgen, dass nicht irgendein katastrophales Ereignis uns alle gleichzeitig auslöscht.

netzpolitik.org: Menschliches Leben in der Zukunft schützen zu wollen, klingt doch eigentlich ganz gut.

Maren Behrensen: Mein größtes Problem mit der Argumentation des Longtermismus ist, dass es menschliche Bedürfnisse hier und jetzt vollkommen vernachlässigt, auf eine meines Erachtens völlig fahrlässige Weise. Longtermisten formulieren Zukunftsversprechen, von denen völlig unklar ist, ob sie jemals so eintreten.

Moralische Katastrophen kann der Longtermismus nicht einordnen. Ein Genozid oder eine schwere Epidemie, die viele Menschen tötet, wäre im Longtermismus nicht weiter erwähnenswert, solange die Menschheit als solche weiter besteht. Er abstrahiert völlig von den Bedürfnissen und der Not der jetzt lebenden Menschen.

netzpolitik.org: Wie kommen Menschen als Maschinenwesen ins Spiel?

Maren Behrensen: Manche Longtermisten träumen davon, dass wir irgendwann gar nicht mehr als körperliche Wesen existieren, sondern einfach als virtuelle Wesen in einer Cloud. Wenn es so käme, dann würden damit viele Bedürfnisse wegfallen, die Menschen als körperliche Wesen haben. Schlaf oder Essen wären wahrscheinlich obsolet.

netzpolitik.org: Ist das für uns als Nutzer*innen der Technologie ein Problem, dass viele KI-Hersteller uns als potenzielle Maschinenwesen verstehen?

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Maren Behrensen: Zum einen zeigt sich in der longtermistischen Ideologie ein entwürdigender, oft rassistischer, sexistischer und ableistischer Blick auf Menschen. Wenn Menschen, die einer solchen Ideologie anhängen, uns nicht nur ihre Produkte verkaufen, sondern ihren Reichtum auch dazu nutzen, direkten politischen Einfluss auszuüben, wie das etwa Peter Thiel und Elon Musk in der USA tun – dann droht gleichzeitig ein faschistoider Umbau der politischen Verhältnisse.

Die Angst des Philosophen

netzpolitik.org: Wie wirkt sich das aus, wenn Nutzer*innen dem Marketing von der KI als Alleskönner auf den Leim gehen?

Maren Behrensen: Es schürt falsche Erwartungen. Menschen missverstehen ChatGPT zum Beispiel als ein Programm, das direkt Informationen liefern kann. Das ist eine falsche Annahme.

Wenn man das Missverständnis von KI als Suchmaschine ins Gesellschaftliche weiterdenkt, dann landet man bei dem, was man als die Angst des Philosophen beschreiben könnte: Menschen lassen ChatGPT für sich denken. Aber ChatGPT macht kritisches Denken nicht automatisch obsolet.

Das Ganze erinnert an das Taschenrechner-Problem: Als der Taschenrechner in die Klassenzimmer kam, gab es auch diese Sorge, dass man den jungen Menschen Mathematik nicht mehr vermitteln kann. Doch einen Taschenrechner kann ich erst dann sinnvoll und effizient nutzen, wenn ich schon Ahnung von Mathe habe, und wenn ich weiß, welche Probleme ich mit ihm lösen soll. ChatGPT und andere KI-Tools kann ich auch dann gewinnbringender nutzen, wenn ich eine klare Vorstellung davon habe, was ich erfragen oder erreichen will.

netzpolitik.org: Das heißt, die Sorge ist unbegründet?

Maren Behrensen: Ich halte die Sorge für übertrieben. Sie sagt mehr über die Menschen aus, die KI als alternativlose Allzwecklösung anpreisen und gleichzeitig von einem radikalen Umbau der Gesellschaft fantasieren. Faschisten käme es sehr gelegen, wenn KI das kritische Denken ersetzen würde – aber das heißt nicht, dass jegliche Nutzung von KI einer Aufgabe des Denkens gleichkommt.

Nutzer*innen widersetzen sich Marketing

Umso interessanter ist es, dass viele Menschen KI-Systeme auf eine Weise nutzen, die sich dem Nützlichkeitsprinzip widersetzt. Ich denke hier insbesondere an eine Form der Nutzung, die KI als eine Art Dialogpartnerin begreift – als interaktives Tagebuch oder Hilfe beim Sortieren von Gedanken oder Routinen.

Natürlich kann auch das gefährlich sein: wenn jemand sich durch den Umgang mit KI weiter in Wahnvorstellungen hineinsteigert. Aber wenn Menschen KIs als Dialogpartnerin behandeln, wählen sie eine andere Herangehensweise als die der reinen Selbstoptimierung durch den Umgang mit einem Werkzeug.

Und das finde ich spannend: Was kann eigentlich menschliche Kreativität aus und mit diesem Ding machen? Das meine ich wertneutral, aber es zeigt meines Erachtens, dass Menschen einen kreativen Zugang zu KI haben, der über die Marketingnarrative „kann alles“, „weiß alles“, „ist eh unausweichlich“ oder „kann alles besser als du“ hinausgeht.

Wenn nur noch der Chatbot zuhört

netzpolitik.org: Was sind die Risiken, wenn Menschen KI-Tools unreflektiert nutzen?

Maren Behrensen: Wenn sie beispielsweise ChatGPT als Gesprächspartner*innen und als echte Person wahrnehmen oder den Output des Programms unhinterfragt glauben, birgt das die Gefahr, Illusionen zu verstärken. Es zeigt aber auch: Es gibt viele Menschen, die sich sonst nicht gehört fühlen – und die dieses Zuhören nun in der Maschine finden.

Das kann wie gesagt gefährlich sein: In den USA beginnt gerade ein Rechtsstreit gegen OpenAI, in dem es darum gehen wird, ob ChatGPT einen jungen Menschen in den Suizid getrieben hat.

Chatbots imitieren Sprachhandeln

netzpolitik.org: Wie kommt es zu dieser Dynamik?

Maren Behrensen: Chatbots sind nicht auf Wahrheitssuche ausgelegt, sondern darauf, menschliches Sprachhandeln zu imitieren. Das hat oft wenig damit zu tun, Argumente oder Evidenz auszutauschen und kritisch zu hinterfragen. Vielmehr geht es darum, einen Konsens herzustellen, einen gemeinsamen Entschluss zu fassen oder gemeinsame Glaubenssätze zu formulieren.

Je besser Chatbots darin werden, menschliches Sprachhandeln zu imitieren, desto größer wird auch die Gefahr, dass sie als Autorität wahrgenommen werden. Und Autoritäten können toxisch sein, sie können ihre Macht ausnutzen. Dabei unterstelle ich natürlich nicht, dass KI eine Intelligenz wäre, die dies bewusst tut. Aber wie bei toxischen menschlichen Autoritäten gilt: Es liegt an uns, ob wir ihnen diese Macht über uns geben oder nicht.

KI-Programme haben ja keinen Personenstatus, geschweige denn Bewusstsein. Sie fungieren häufig wie Echokammern, ähnlich Social Media, aber eben nicht nur.



Source link

Datenschutz & Sicherheit

Was ist bei der Chatkontrolle unter „anlassbezogen“ zu verstehen?


Es war keine Sternstunde des deutschen Parlaments: Obwohl die Chatkontrolle-Abstimmung im Rat der EU längst von der Tagesordnung genommen worden war, musste sich der Bundestag heute mit einem Antrag der AfD befassen. Die Partei beantragte darin (pdf), dass die Bundesregierung „bei der bevorstehenden Abstimmung“ über die Chatkontrolle „mit Nein“ stimmen solle. Doch die Abstimmung ist auf Dezember vertagt.

Durch die Tatsache, dass also gar keine Abstimmung akut bevorsteht, war der AfD der Spott der Redner aus dem anderen Parteien für den Antrag sicher. Konrad Körner von der CSU nannte ihn einen bloßen „Schaufensterantrag“. Es stehe nicht nur keine Abstimmung an, es gäbe ja nicht mal einen neuen Entwurf, über den man streiten könne.

Mit dem Begriff Chatkontrolle ist ein EU-Vorhaben gemeint, dass die Anbieter von Messaging- und anderen Kommunikationsdiensten verpflichten soll, in den Nachrichten der Nutzer nach Missbrauchsfotos und -videos (CSAM) zu scannen. Dagegen hat sich eine ganze Phalanx an Kritikern ausgesprochen.

Die Fraktionen des Deutschen Bundestages hatten sich letzte Woche auf Antrag von Grünen und Linken schon allesamt gegen den dänischen Vorschlag zur Chatkontrolle ausgesprochen. Genauer gesagt gegen eine „anlasslose Chatkontrolle“, wie die Regierungsparteien auch diesmal nicht müde wurden zu spezifizieren. Jeanne Dillschneider von den Grünen pochte in ihrem heutigen Statement daher auf eine inhaltliche Klärung. Man warte bisher „vergeblich“ auf eine klare Ablehnung durch das Bundesinnenministerium (BMI) und auch auf eine Klärung, was mit einer „anlassbezogenen“ Chatkontrolle technisch gemeint sein könnte.

Das wollte auch Sonja Lemke (Linke) wissen und wies darauf hin, dass die Bundesregierung in ihrem Formulierungen „jedesmal ein ‚anlasslos‘“ einfüge. Dabei bliebe bewußt offen „was ein Anlass sein kann“ und ob technisch auch das Client-Side-Scanning abgelehnt werde.

Nur nicht „anlasslos“

Die Aussagen der drei Vertreter der Regierungsparteien, die in der kurzen Debatte sprachen, brachten wenige neue Erkenntnisse, aber immerhin ein paar deutliche Worte. Zuletzt war von der dänischen Regierung eine verpflichtende Chatkontrolle und Client-Side-Scanning befürwortet worden.

Katja Strauss-Köster von der CDU betonte, dass erfreulich viele Dienste-Anbieter freiwillig Missbrauchsmaterial aufdecken und an die Behörden melden würden. Aber diese freiwilligen Maßnahmen laufen im April 2026 aus, daher drohe „eine gefährliche Lücke“, wenn man nun nicht handele. Sie wolle eine „solide rechtliche Grundlage“, um den „Status Quo“ zu sichern, also das dauerhafte freiwillige Scannen. Eine solche EU-Verordnung sei anzustreben.

Verpflichtende Maßnahme hingegen solle es „nur im Einzelfall“ geben, so Strauss-Köster. „Ohne konkreten Verdacht“ dürfe private Kommunikation „nicht eingesehen werden“. Sie sagte außerdem, dass „Ende-zu-Ende-Verschlüsselung zentral für unsere Sicherheit“ sei, daher dürfe sie „nicht geschwächt werden“.

Da gab es Applaus aus der CDU/CSU-Fraktion. Doch Strauss-Köster war noch nicht ganz fertig mit ihren Ausführungen: Denn „gleichzeitig dürfen wir verschlüsselte Kommunikation nicht völlig ausnehmen“, fuhr sie fort. Man müsse das „Dunkelfeld“ in den Blick nehmen können. Wie dieser Spagat technisch zu meistern wäre, ließ sie allerdings offen.

Der dänische Vorschlag sei eine Verbesserung gewesen. Es sei dennoch richtig, „dass die Bundesregierung dem nicht zugestimmt hat“. Sie sei für „starke Garantien für Datenschutz und Privatsphäre“, das hätte auch das europäische Parlament vorgegeben. Insgesamt war die kurze Rede Strauss-Kösters eher ein Plädoyer für das freiwillige Scannen.

Carolin Wagner von der SPD betonte, dass im deutschen Parlament Einigkeit bestanden habe: Eine „anlasslose Überwachung privater Inhalte“ sei bereits abgelehnt worden. Es solle auch „keinen Zwang zum Client-Side-Scanning und keinen Zwang in der Aufweichung von Ende-zu-Ende-Verschlüsselung“ geben.

Da war es wieder, das Wörtchen „anlasslos“. Dennoch positionierte sich Wagner am deutlichsten gegen die verschiedenen vorstellbaren technischen Optionen.

CSAM

Wir berichten seit Jahren unter dem Stichwort CSAM (Child Sexual Abuse Material) über politische Vorhaben im Kampf gegen Missbrauchsdarstellungen von Kindern. Unterstütze unsere Arbeit!

Konrad Körner (CSU) war der dritte und letzte der Regierungsparteivertreter und betonte pflichtschuldig, man verteidige die Grundrechte und wolle „keine anlasslose Chatkontrolle“. Man setze sich hingegen für „anlassbezogene Maßnahmen“ ein. Dieser Begriff sei nicht in einer „aufgebauschten Debatte“ zu skandalisieren, schließlich wolle der Bürger, dass sowohl seine Chats als auch seine Kinder sicher seien. Es gehe dabei nämlich um „Ermittlungsbefugnisse“, wenn es einen „Anlass oder Verdacht“ gäbe, dass jemand solches strafbare Material verschicke.

Es gehe hier um „wichtige technische Details“, so Körner. Diese Details würden darüber entscheiden, ob „wir mit einem Gesetz eine Büchse der Pandora öffnen“ könnten. „Glauben Sie mir“, sagte der Abgeordnete, „auch wir haben da große Bedenken“. Denn mit Blick zur AfD sagte Körner: „Wenn Sie an der Macht wären, würde jede inkorrekte Äußerung in der Stammtischgruppe zum Hassverbrechen stilisiert, oder wenn die anderen reden, würde jeder depperte Genderstern noch zum Vaterlandsverrat.“

Das Niveau der Debatte hatte er damit wohl nicht erhöht, aber doch klargestellt, was die CDU/CSU-Fraktion unter „anlassbezogen“ versteht.

Der Schutz von Kindern

Die Abgeordneten betonten, dass nicht vergessen werden dürfe, dass es in der EU-Verordnung um den Schutz von Kindern gehe. Doch der Deutsche Kinderschutzbund und andere Kinderschützer stellten sich mehrfach und deutlich gegen die EU-Pläne einer Chatkontrolle.

Lemke von den Linken beklagte, dass immer wieder „sexuelle Gewalt an Kinder vorgeschoben“ werde. Es gäbe doch zahlreiche Maßnahmen, die man sofort dagegen ergreifen könne, etwa in den Ausstattungen von Jugendämtern, Schulen, Kitas und in der Jugendhilfe, bei Erziehern und Sozialarbeitern. „Keinem Kind ist durch Chatkontrolle geholfen“, betonte sie.



Source link

Weiterlesen

Datenschutz & Sicherheit

EU-Abgeordnete fordern strengere Regeln für Jugendschutz



Online-Plattformen tun nicht genug, um Minderjährige vor Risiken im Netz zu schützen, finden die Abgeordneten aus dem Ausschuss für Binnenmarkt und Verbraucherschutz (IMCO) im EU-Parlament. Am gestrigen Donnerstag haben sie auf 26 Seiten Forderungen nach Verschärfungen und teils neuen Maßnahmen vorgelegt. Die Themen reichen von Videospielen über süchtig machende Designs und KI bis zum Umgang von Plattformen mit minderjährigen Influencern.

Eine der brisantesten Forderungen in dem Papier ist ein EU-weites einheitliches Mindestalter von 16 Jahren für die Nutzung sozialer Netzwerke, Video-Plattformen und sogenannter “AI Companions” (KI Begleiter). Mit Zustimmung der Eltern könnte die Altersgrenze demnach auf 13 Jahre sinken.

Australien hat sich auf eine solche Altersgrenze bereits geeinigt, die Umsetzung ist für Dezember geplant. Umsetzbar ist eine solche Grenze in der Regel nur durch strenge Alterskontrollen. Dafür haben sich etwa die Digitalminister der EU-Staaten kürzlich ausgesprochen. Unter anderem EDRi, der Dachverband von Organisationen für digitale Freiheitsrechte, lehnt diesen Ansatz allerdings ab.

Hohe Hürden für Alterskontrollen

Bereits heute ist die Nutzung von Instagram und TikTok erst ab 13 Jahren erlaubt, doch es gibt derzeit keine strengen Kontrollen des Mindestalters. Für eine feste und pauschale Altersschranke müsste wohl ein neues Gesetz geschaffen werden, denn das Gesetz über digitale Dienste (DSA) sieht Altersbegrenzungen nur als eine von mehreren Maßnahmen vor, die Dienste ergreifen können, um Risiken für Nutzende zu minimieren. Im Rahmen der DSA-Umsetzung diskutiert die EU-Kommission gerade, in welchen Fällen welche Form von Alterskontrollen angemessen sind.

Die Parlamentarier sprechen sich in ihrem Papier dafür aus, Alterskontrollen möglichst einfach, sicher und „datenschutzfreundlich“ zu gestalten. Sie sind der Ansicht, dass etwa die geplante digitale Brieftasche (EUDI-Wallet) diese Ziele erfüllen könnte. Ausdrücklich befürworten sie die derzeit laufende Entwicklung einer App zur Altersüberprüfung im Auftrag der EU-Kommission, deren Funktion später in der EUDI-Wallet aufgehen soll. Sie empfehlen, dafür sogenannte “Zero-Knowledge-Proof”-Protokolle zu nutzen. Online-Dienste sollen dadurch nur eine Ja/Nein-Antwort erhalten, also erfahren, ob eine Person alt genug ist, ohne sie identifizieren zu können.

Wie auch andere Befürworter solcher Maßnahmen blendet der Ausschuss aus, dass sich Alterskontrollen leicht umgehen lassen und zahlreiche neue Probleme schaffen, etwa mit Blick auf Teilhabe und Overblocking. Die Abgeordneten fordern zumindest, dass alle Maßnahmen im Zusammenhang mit Alterskontrollen „gründlich auf ihre Auswirkungen auf die Grundrechte geprüft werden, um die Verankerung von Überwachungspraktiken zu vermeiden“. Zudem sollten Regelungen nur dann geschaffen werden, „wenn sie unbedingt notwendig und verhältnismäßig sind“.

Weitreichende Verbote zum Schutz von Minderjährigen

Weiter betont der Ausschuss in seinem Papier, dass Alterskontrollen kein Wundermittel („silver bullet“) seien. Sie entbinden demnach Plattformen nicht von der Verantwortung, ihre Produkte von Beginn an sicher zu gestalten („safe by design“). Die Abgeordneten fordern deshalb, dass Designelemente mit dem „größten Suchtpotenzial“ für Minderjährige gänzlich abgestellt werden sollen. Dazu gehören Empfehlungsalgorithmen, die basierend auf dem Verhalten der Nutzenden weitere Inhalte vorschlagen – und damit eine immense Sogwirkung entfalten.

Ebenso soll das „Profiling“ von Minderjährigen verboten werden, also die Erstellung von Profilen der Nutzenden mithilfe ihrer Daten, die sich ebenfalls für die Empfehlung von Inhalten und für Werbung nutzen lassen. In Online-Spielen, auf die Minderjährige Zugriff haben, sollen „Glücksspiel-Mechanismen“ wie Lootboxen verboten werden. Das sind virtuelle Produkte, deren Inhalt man erst nach dem Öffnen sieht.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Teils lassen sich solche Missstände bereits auf Grundlage des DSA bearbeiten, allerdings lediglich von Fall zu Fall, je nach Risiko eines betroffenen Dienstes. Die Forderungen des Ausschusses nach grundsätzlichen Verboten gehen darüber hinaus. Ein Gelegenheitsfenster für derart strengere Gesetze wäre der geplante Digital Fairness Act der Europäischen Union, den der Ausschuss in seinem Papier mehrfach erwähnt. Aktuell läuft noch eine öffentliche Konsultation zu dem Vorhaben, das für das letzte Quartal 2026 geplant ist.

Plattform-Manager sollen persönlich haften

Der Ausschuss fordert die EU-Kommission weiter dazu auf, den DSA und die KI-Verordnung (AI Act) konsequent durchzusetzen. Die Kommission solle es demnach in Erwägung ziehen, bei ernsten und dauerhaften Regelverstößen Führungskräfte eines Konzerns persönlich haften zu lassen. Ähnlich handhabt es der britische Online Safety Act.

Die Abgeordneten wollen zudem, dass Plattformen aufhören, minderjährige Influencer („Kidfluencer“) zu unterstützen. Ihre Inhalte sollen demnach nicht mehr monetarisiert werden, und Kinder sollten auch keine anderen finanziellen oder materiellen Anreize von Plattformen erhalten.  Nicht davon berührt wären wohl Werbe-Deals mit Privatunternehmen, eine der größten Einnahmequellen von Influencern. Oftmals werden Kidfluencer von ihren Eltern begleitet und gemanagt; das Publikum wiederum ist oftmals selbst minderjährig.

Die Entschließung der Vorschläge hat der Ausschuss mit breiter Mehrheit (32 von 46 Stimmen) angenommen. Es gab fünf Stimmen dagegen und neun Enthaltungen. Ende November sollen dann das Plenum über den Vorschlag abstimmen. Die Diskussion der Vorschläge aus der Sitzung vom 24. September 2025 kann man sich hier als Video ansehen.



Source link

Weiterlesen

Datenschutz & Sicherheit

Adobe Experience Manager: Ältere Lücke im Visier von Angreifern


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die US-Behörde CISA (Cybersecurity and Infrastructure Security Agency) hat ihrem Verzeichnis bekannter, aktiver Exploits (Known Exploited Vulnerabilities Catalog) eine bereits seit Längerem bekannte Sicherheitslücke in Adobes Content-Management-Plattform Experience Manager (AEM) hinzugefügt.

Weiterlesen nach der Anzeige

Das CISA-Team habe beobachtet, dass die betreffende Lücke CVE-2025-54253 mit dem CVSS-Höchstwert 10.0 (kritisch) Ziel von Angriffen sei, heißt es in einem Sicherheitshinweis der Behörde.

Nähere Details etwa hinsichtlich spezifischer Angreifergruppen, Zielen oder Umfang der Attacken sind dem Hinweis nicht zu entnehmen. Bekannt ist aber, dass Angreifer Systeme durch das Ausführen beliebigen Schadcodes vollständig kompromittieren könnten (arbitrary code execution, arbitrary file system read).

Adobe hat die Sicherheitslücke bereits Anfang August dieses Jahres im Zuge des Notfallupdates Experience Manager Forms on JEE 6.5.0-0108 geschlossen. Verwundbar sind beziehungsweise waren Versionen bis einschließlich 6.5.23.0.

Admins, die das Update damals eingespielt haben, müssen nicht aktiv werden, da die betreffenden AEM-Installationen gegen die Exploits abgesichert sind. Alle anderen können dem zugehörigen Adobe Security Bulletin APSB25-82 nähere Details samt Update-Anleitung entnehmen.

Dem Notfallupdate von August war eine zähe Kommunikation zwischen Schwachstellen-Entdeckern und Adobe vorausgegangen, bis die bereits seit April bekannte Lücke letztlich gepatcht wurde. Zu diesem Zeitpunkt war laut dem Softwarehersteller bereits Exploit-Code in Umlauf. Ebenfalls bedenklich: Das Security Bulletin wurde bislang noch nicht bezüglich der aktiven Exploits aktualisiert.


(ovw)



Source link

Weiterlesen

Beliebt