Connect with us

Künstliche Intelligenz

Arzttermine und Diagnosen: In diesen Praxen sprechen Patienten mit einer KI


Stellen sie sich vor: Sie fühlen sich unwohl und rufen ihre Arztpraxis an, um einen Termin zu vereinbaren. Zu ihrer Überraschung bekommen sie ihn bereits für den nächsten Tag. Und damit nicht genug: Bei ihrem Besuch werden sie weder vom Arzt oder Ärztin noch von der Sprechstundenhilfe gehetzt, sondern sie haben eine erstaunliche halbe Stunde Zeit, um ihre Symptome und Sorgen sowie alle Details ihrer Krankengeschichte zu schildern. Ihr Gegenüber hört aufmerksam zu und stellt durchdachte Fragen. Sie verlassen die Praxis mit einer Diagnose, einem Behandlungsplan und dem guten Gefühl, einmal endlich ausführlich alles Relevante in dem Termin besprechen zu können.

Der Haken an der Sache? Sie haben gar nicht mit einem Arzt oder einer Ärztin gesprochen, sondern mit einer Künstlichen Intelligenz (KI). Das ist bereits die neue Realität für Patienten in einer kleinen Anzahl von Praxen im südlichen Kalifornien, die von dem medizinischen Startup Akido Labs betrieben werden. Die Patienten – von denen einige die öffentliche US-Krankenkasse Medicaid nutzen – können kurzfristig Termine bei Fachärzten vereinbaren, ein Privileg, das normalerweise nur denen vorbehalten ist, die dafür extra zahlen.

Akido-Patienten verbringen dabei allerdings relativ wenig – oder gar keine – Zeit mit Ärzten. Stattdessen sehen sie medizinische Assistenten, die ihnen zwar ein offenes Ohr entgegenbringen, aber nur über eine begrenzte klinische Ausbildung verfügen. Die Diagnose und den Behandlungsplan erstellt dann ein proprietäres System namens ScopeAI. Dieses große Sprachmodell (LLM) transkribiert und analysiert den Dialog zwischen Patienten und Assistenz. Mediziner genehmigen oder korrigieren dann die Empfehlungen des KI-Systems.

„Unser Fokus liegt darauf, was wir alles tun können, um die Ärzte aus dem Praxisbesuch herauszunehmen“, räumt Jared Goodner, Chief Technology Officer von Akido, freimütig ein. Laut Prashant Samant, CEO von Akido, können Ärzte mit diesem Ansatz vier- bis fünfmal so viele Patienten behandeln wie zuvor. Es gibt gute Gründe, warum Mediziner produktiver sein sollten. Nicht nur die Amerikaner werden älter und gleichzeitig kränker, und viele haben Schwierigkeiten, Zugang zu einer angemessenen Gesundheitsversorgung zu erhalten. Die bevorstehende Kürzung der Bundesmittel für Medicaid um bis zu 15 Prozent wird die Situation nur noch verschlimmern.

Experten sind jedoch nicht davon überzeugt, dass die Verlagerung eines so großen Teils der kognitiven Arbeit in der Medizin auf KI der richtige Weg ist, um den Mangel an Ärzten zu beheben. Es gibt eine große Wissenslücke zwischen Ärzten und KI-gestützten medizinischen Assistenten, sagt Emma Pierson, Informatikerin an der UC Berkeley. Eine solche Lücke zu schließen, kann Risiken mit sich bringen. „Ich bin begeistert vom Potenzial der KI, den Zugang zu medizinischem Fachwissen zu erweitern“, sagt sie. „Ich bin mir nur nicht sicher, ob dies der richtige Weg ist, um dies zu erreichen.“ KI ist in der Medizin zwar längst allgegenwärtig. Computer-Vision-Tools identifizieren Krebserkrankungen bei Vorsorgeuntersuchungen, automatisierte Forschungssysteme, ermöglichen Ärzten eine schnelle Durchsicht der medizinischen Fachliteratur und LLM-gestützte medizinische Schreibkräfte können im Auftrag Notizen machen. Diese Systeme sind jedoch nur darauf ausgelegt, bei typischen medizinischen Routineaufgaben zu unterstützen.

Was ScopeAI laut Goodner auszeichnet, ist die Fähigkeit, die kognitiven Aufgaben, die einen Arztbesuch ausmachen, selbstständig zu erledigen. Von der Erfassung der Krankengeschichte der Patienten über die Erstellung einer Liste möglicher Diagnosen bis hin zur Ermittlung der wahrscheinlichsten Diagnose und dem Vorschlag geeigneter nächster Schritte. Im Hintergrund von ScopeAI arbeitet eine Reihe von LLMs, von denen jedes einen bestimmten Schritt der Visite ausführen kann – von der Generierung geeigneter Folgefragen auf der Grundlage der Aussagen der Kranken bis zur Erstellung einer Liste wahrscheinlicher Störungen. Zum größten Teil handelt es sich bei diesen LLMs um fein abgestimmte Versionen der frei zugänglichen Llama-Modelle von Meta, obwohl Goodner sagt, dass das System auch die Claude-Modelle von Anthropic nutzt.

Während des Termins lesen die medizinischen Assistenzpersonen Fragen von ScopeAI vor – und das System generiert neue Fragen, während es die Aussagen der Patienten analysiert. Für die Ärzte, die die Ergebnisse später überprüfen, erstellt ScopeAI eine kurze Notiz, die eine Zusammenfassung des Patientenbesuchs, die wahrscheinlichste Diagnose, zwei oder drei alternative Diagnosen und empfohlene nächste Schritte wie Überweisungen oder Verschreibungen enthält. Außerdem werden für jede Diagnose und Empfehlung Begründungen aufgeführt.

ScopeAI wird derzeit in der Kardiologie, Endokrinologie und in Kliniken für Primärversorgung sowie vom sogenannten Street-Medicine-Team von Akido eingesetzt, das sich um Obdachlose in Los Angeles kümmert. Dieses Team unter der Leitung von Steven Hochman, einem auf Suchtmedizin spezialisierten Arzt, trifft sich mit Patienten, um ihnen den Zugang zu medizinischer Versorgung, inklusive der Behandlung von Drogenerkrankungen, zu erleichtern. Früher musste Hochman noch die Patienten persönlich treffen, um ein Medikament zur Behandlung einer Abhängigkeit von Opioiden zu verschreiben. Jetzt können Sozialarbeiter, die mit ScopeAI ausgestattet wurden, die Betroffenen selbst befragen, und Hochman kann die Empfehlungen des Systems später genehmigen oder ablehnen. „Dadurch kann ich an zehn Orten gleichzeitig sein“, sagt er.

Seitdem sein Team ScopeAI einsetzt, könne es Patienten innerhalb von 24 Stunden Zugang zu Medikamenten verschaffen, die ihnen bei der Behandlung ihrer Sucht helfen – etwas, das Hochman als bislang „beispiellos“ bezeichnet. Diese Regelung ist nur möglich, weil Obdachlose in der Regel über Medicaid, das besagte öffentliche Versicherungssystem, krankenversichert sind. Während Medicaid es Ärzten erlaubt, ScopeAI-Rezepte und Behandlungspläne sowohl für die Obdachlosenmedizin als auch für Klinikbesuche „asynchron“ zu genehmigen, verlangen viele andere Krankenkassen, dass Ärzte vor der Genehmigung dieser Empfehlungen direkt mit den Patienten sprechen. Expertin Pierson sagt, dass diese Diskrepanz Probleme aufwirft. „Man macht sich Sorgen, dass sich dadurch die gesundheitlichen Ungleichheiten verschärfen könnten“, sagt sie.

Akido-Chef Samant ist sich der Probleme bewusst und sagt, dass diese Diskrepanz nicht beabsichtigt sei – sie ist seiner Ansicht nach lediglich ein Merkmal der derzeitigen Funktionsweise des US-Versicherungssystems. Er merkt an, dass eine schnelle Untersuchung durch einen KI-gestützten medizinischen Assistenten besser sein könne als lange Wartezeiten und eine begrenzte Verfügbarkeit von Praxen, was für Medicaid-Patienten derzeit der Status quo sei. Und alle Akido-Patienten könnten sich auch für traditionelle Arzttermine entscheiden, wenn sie bereit sind, darauf zu warten, sagt er.

Eine der Herausforderungen beim Einsatz von Tools wie ScopeAI besteht darin, sich in einem regulatorischen und versicherungstechnischen Umfeld zurechtzufinden, das nicht für KI-Systeme konzipiert wurde, die selbstständig Diagnosen erstellen können. Glenn Cohen, Professor an der Harvard Law School, sagt, dass jedes KI-System, das effektiv als eine Art „Doctor in a box“ fungiert, wahrscheinlich von der US-Medizinaufsicht FDA zugelassen werden müsse – und gegen die Gesetze zur ärztlichen Zulassung verstoßen könnte, die vorschreiben, dass nur Ärzte und andere zugelassene Fachleute Medizin praktizieren dürfen.

Der California Medical Practice Act besagt tatsächlich, dass KI die Verantwortung von Ärzten für Diagnose und Behandlung von Patienten nicht ersetzen kann. Doch Ärzte dürfen offiziell schon heute KI bei ihrer Arbeit einsetzen und müssen Patienten vor der Diagnose nicht persönlich oder „in Echtzeit“ sehen. Allerdings: Weder die FDA noch der Ärzteausschuss Medical Board of California konnten allein auf der Grundlage einer schriftlichen Beschreibung des Systems sagen, ob ScopeAI auf einer soliden rechtlichen Grundlage steht oder nicht. Samant ist jedoch zuversichtlich, dass Akido alle Vorschriften einhält, da ScopeAI bewusst so konzipiert sei, dass es nicht als vollständiger Arztersatz fungiert. Da das System alle Diagnose- und Behandlungsempfehlungen von einer menschlichen Ärzt:in überprüfen und genehmigen lassen muss, sei keine FDA-Zulassung erforderlich, so Samant.

In einer Akido-Klinik findet dieses Zusammenspiel zwischen KI und ärztlicher Entscheidungsfindung vollständig hinter den Kulissen statt. Der:ie Patient:in sieht die ScopeAI-Schnittstelle nie direkt, sondern spricht mit einer medizinischen Assistenzkraft, die ihm:ihr Fragen stellt, wie es Ärzte bei einem typischen Termin tun würde. Diese Vorgehensweise kann dazu beitragen, dass sich die Patienten wohler fühlen. Zeke Emanuel, Professor für Medizinethik und Gesundheitspolitik an der University of Pennsylvania, der in den Regierungen der US-Präsidenten Obama und Biden tätig war, befürchtet jedoch, dass dies eine Illusion ist. Es könnte im Gegenteil den Umfang verschleiern, in dem ein Algorithmus die Behandlung beeinflusst. KI-Expertin Pierson stimmt dem zu. „Das entspricht sicherlich nicht dem, was traditionell unter menschlicher Nähe in der Medizin verstanden wurde“, sagt sie.

DeAndre Siringoringo, arbeitet als medizinischer Assistent in Akidos Kardiologiepraxis in Rancho Cucamonga. Er sagt, dass er den Patienten zwar mitteilt, dass ein KI-System den Termin mitschreibt, um Informationen für die Ärzte zu sammeln. Er gibt ihnen aber keine Einzelheiten über die Funktionsweise von ScopeAI an die Hand – auch nicht, dass es stets eine Diagnoseüberprüfung durch den Menschen gibt.

Da alle Empfehlungen von ScopeAI von Ärzte überprüft werden, scheint das auf den ersten Blick keine große Sache zu sein – schließlich trifft dieser die endgültige Diagnose, nicht die KI. Es ist jedoch weitgehend dokumentiert, dass Ärzte, die KI-Systeme verwenden, dazu neigen, den Empfehlungen des Systems häufiger zu folgen, als sie sollten – ein Phänomen, das als Automatisierungsbias bekannt ist.

Zum jetzigen Zeitpunkt ist es unmöglich zu sagen, ob dies die Entscheidungen der Ärzte in den Akido-Kliniken beeinflusst. Pierson sagt aber, dass dies ein Risiko darstellt – insbesondere, wenn die Ärzte bei den Terminen nicht physisch anwesend sind. „Ich befürchte, dass man dadurch dazu neigt, einfach zuzustimmen – was man vielleicht nicht tun würde, wenn man tatsächlich im Raum wäre und das Geschehen mitverfolgen würde.“

Eine Sprecherin von Akido erklärt, dass solche Probleme bei jedem KI-Tool auftreten, das Ärzte bei ihrer Entscheidungsfindung unterstützt, und dass das Unternehmen Anstrengungen unternommen habe, um diesen Bias zu mindern. „Wir haben ScopeAI speziell entwickelt, um dies zu reduzieren, indem wir proaktiv blinden Flecken im System entgegenwirken, die medizinische Entscheidungen beeinflussen können, die bislang stark von der Intuition und persönlichen Erfahrung der Ärzte abhängen“, sagt sie. „Wir schulen Ärzte auch ausdrücklich darin, ScopeAI umsichtig einzusetzen, damit sie ihre Verantwortung wahrnehmen und eine übermäßige Abhängigkeit von dem System vermeiden.“

Akido bewertet die Leistung von ScopeAI, indem es das System anhand historischer Daten testet und überwacht, wie oft Ärzte die Empfehlungen korrigieren. Diese Korrekturen werden auch zur weiteren Schulung der zugrunde liegenden Modelle verwendet. Bevor ScopeAI in einem bestimmten Fachgebiet eingesetzt wird, stelle Akido sicher, dass das System bei Tests mit historischen Datensätzen in mindestens 92 Prozent der Fälle die richtige Diagnose in seinen drei wichtigsten Empfehlungen einhält.

Das Startup hat allerdings keine strengeren Tests durchgeführt – auch keine Studien, in denen ScopeAI-Termine mit persönlichen oder telemedizinischen Terminen verglichen werden, um festzustellen, ob das System den Gesundheitszustand verbessert oder zumindest aufrechterhält. Erst solche Studien könnten Aufschluss darüber geben, ob der Automatisierungsbias ein ernstzunehmendes Problem darstellt. „Die medizinische Versorgung billiger und zugänglicher zu machen, ist ein lobenswertes Ziel“, meint KI-Expertin Pierson. Dennoch hofft sie auf eine fundiertere Bewertung der Technik vor deren breitem Einsatz.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(jle)



Source link

Künstliche Intelligenz

ChatGPT-Prompts tauchten offenbar in der Google Search Console auf


Technikanalysten haben Einträge in der Google Search Console einer Webseite entdeckt, die stark nach ChatGPT-Prompts aussehen. Offenbar leitet OpenAI diese ungeschützt an die Google-Suche weiter. Der KI-Hersteller bestätigte das Problem nicht direkt, erklärte aber, ein entsprechender „Fehler“ sei nun behoben.

Weiterlesen nach der Anzeige

Entdeckt wurde das Problem von den beiden Tech-Beratern Jason Packer und Slobodan Manić, vergangenen Monat informierte Packer in einem Blogpost darüber. Packer hatte über die Einträge in der Google Search Console (GSC) einer Webseite gestutzt. Hier werden den Seitenbetreibern Google-Suchanfragen angezeigt, bei denen die eigene Seite in den Ergebnissen auftauchte. In Packers Fall bestanden diese Einträge aber nicht wie üblich aus wenigen Worten, sondern waren kleine Texte. Und es waren solche, die sehr stark an LLM-Prompts erinnerten. Insgesamt 200 solcher Einträge zählte er, teils mit sehr persönlichem Inhalt. Auffällig dabei: Alle hatten am Anfang eine ChatGPT-URL.

Außerdem entdeckten sie nach genauerer Suche einen Bug in einem ChatGPT-Prompt-Eingabefeld, welcher offenbar dafür sorgte, dass das Modell zu jedem Prompt auch eine Websuche durchführte und dafür eine ChatGPT-URL am Anfang des Prompts hinzufügte. Hier griff ChatGPT dann wohl auch auf Google zurück, allerdings nicht über eine API oder eine private Verbindung – sonst würden die Prompts nicht in der GSC auftauchen, führt der Autor aus. Auftauchen können die Prompts in der GSC von jeder Webseite, welche Googles Suchalgorithmus als relevant für die ChatGPT-URL erachtet. Packer gibt in seinem Beitrag zu bedenken, dass so verarbeitete ChatGPT-Prompts definitiv nicht privat sind – sie würden sowohl bei Google, in den GSCs diverser Website-Betreiber und womöglich auch bei einer Stelle landen, welche die Google-Suchen für ChatGPT-Prompts übernimmt.

Gegenüber der Nachrichtenagentur Ars Technica wollte OpenAI das nicht bestätigen, gab aber an, sich dem Problem mit der GSC bewusst zu sein. Zudem sprach OpenAI davon, einen Fehler behoben zu haben, der „vorübergehend“ bestanden und „eine sehr kleine Zahl von Suchanfragen betroffen habe“ und sich auf die Weiterleitung von Suchanfragen ausgewirkt habe. Packer geht nach der OpenAI-Stellungnahme davon aus, dass der Fehler in der Schicht von ChatGPT bestanden hat, der für die Umwandlung von Prompts in Suchanfragen verantwortlich ist. Statt wie vorgesehen einen Prompt in wenige relevante Suchbegriffe herunterzubrechen, wurde einfach der gesamte Prompt für die Suchanfrage genutzt.

Die These, dass es sich hier wirklich um ChatGPT-Prompts handelt, stützt Packer zum einen auf frühere Berichte, dass OpenAI Scraping bei der Google-Suche betreibt. Der Inhalt der GSC-Einträge an sich, und dass sich am Anfang stets eine ChatGPT-URL befindet, sieht er als weitere starke Hinweise. Von einer hundertprozentigen Sicherheit möchte er aber auch nicht sprechen.

Weiterlesen nach der Anzeige

Es ist nicht das erste Mal, dass privat geglaubte ChatGPT-Prompts öffentlich werden. Im Sommer machte eine falsch verstandene Funktion sehr private Chats öffentlich auffindbar – im Zweifel samt Namen.

Lesen Sie auch


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Auch Volkswagen bekommt wieder Nexperia-Chips aus China


Im Streit um die kürzlich durch China eingefrorenen Exporte von Halbleitern des Herstellers Nexperia zeichnet sich eine Lösung ab. Bereits jetzt erhalten erste Unternehmen wie der Automobil-Zulieferer Aumovia und Volkswagen die Bausteine wieder. Dies wird durch Ausnahmegenehmigungen möglich, welche das chinesische Handelsministerium vor einer Woche angekündigt hatte.

Weiterlesen nach der Anzeige

Als Erstes hatte nun Aumovia bekannt gegeben, dass das Unternehmen durch diese Genehmigungen auch schon wieder beliefert wird. Nahezu zeitgleich erklärte der für die Geschäfte in China zuständige VW-Vorstand Ralf Brandstätter, dass auch sein Unternehmen die für die Autoproduktion wichtigen Halbleiter erhalten hat. „Erste Exporte hat es bereits gegeben“ sagte Brandstätter in einem Interview mit dem Handelsblatt. Die Genehmigungen seien kurzfristig erteilt worden.

Für die Zukunft, so Brandstätter, käme es für solche Regelungen auf das Verhältnis zwischen China und den USA an. Der Konflikt nahm seinen Anfang, als die US-Regierung Ende 2024, also noch unter Präsident Biden, Nexperias Mutterkonzern Wingtech auf die „Entity List“ setzte. Darauf geführte Unternehmen stellen nach Meinung der USA eine Gefahr für die nationale Sicherheit dar. Dann gelten strenge Regulierungen für Geschäfte mit diesen Firmen, für die in der Regel Einzelgenehmigungen nötig sind.

Vonseiten der niederländischen Regierung heißt es, dass es eine grundlegende Einigung gibt. Premierminister Dick Schoof sagte der Nachrichtenagentur Bloomberg zufolge am Rande des Weltklimagipfels im brasilianischen Belém: „Wir wurden von China darüber informiert, dass man die Wiederaufnahme der Lieferungen aus chinesischen Fabriken von Nexperia ermöglichen werde.“ Nexperia gehört zwar Wingtech, hat aber seinen Firmensitz noch immer in den Niederlanden.

Die dortige Regierung stellte das Unternehmen Ende September 2025 unter staatliche Kontrolle. Dabei kam ein Notstandsgesetz aus dem Kalten Krieg zur Anwendung. Das verschärfte die Auseinandersetzung, sodass China schließlich den Export von Nexperia-Produkten untersagte. Wie Bloomberg berichtet, wird nun erwartet, dass die Niederlande den Griff um Nexperia wieder lockern. Weder aus China noch den Niederlanden gibt es derzeit konkrete Angaben dazu, wie eine dauerhafte Lösung aussehen soll.


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Drogenbeauftragter: Streeck will gestaffelte Altersfreigaben für Social Media


Der Beauftragte der Bundesregierung für Sucht- und Drogenfragen, Hendrik Streeck (CDU), will eine umfassende Debatte über den Jugendschutz in der digitalen Welt anstoßen. Dabei spricht er sich für die Einführung gestaffelter Altersfreigaben für soziale Netzwerke aus. Die Idee orientiert sich am Vorbild der Freiwilligen Selbstkontrolle der Filmwirtschaft (FSK), die in Deutschland für Filme Alterskennzeichnungen ab 0, 6, 12, 16 oder 18 Jahren festlegt. „Ich halte es für sinnvoll, über gestaffelte Altersgrenzen nachzudenken – ähnlich wie bei der FSK“, erklärte Streeck gegenüber den Zeitungen der Funke-Gruppe. Er könne sich vorstellen, dass bestimmte Funktionen oder Inhalte in Apps erst mit zunehmendem Alter freigeschaltet würden.

Weiterlesen nach der Anzeige

Die Notwendigkeit eines verstärkten Schutzes begründet der Politiker etwa mit den besonders auf lange Nutzungszeiten ausgerichteten Mechanismen von Plattformen wie Instagram, TikTok oder Facebook. Speziell die Algorithmen, die Nutzer in eine kontinuierliche Konsumspirale ziehen, müssten altersgerecht begrenzt werden. Streeck warnt: „Kinder brauchen Schutzräume, keine Endlosschleifen.“

Der Ruf nach Regulierung wird durch alarmierende Zahlen der Krankenkasse DAK-Gesundheit untermauert: Kinder und Jugendliche verbringen an einem normalen Wochentag im Durchschnitt 150 Minuten in sozialen Netzwerken. Die Zeit steigt übers Wochenende auf 224 Minuten an.

Für Streeck ist dabei weniger die absolute Dauer das entscheidende Kriterium als die Folge für die Lebensgestaltung junger Menschen. Wenn Freizeitaktivitäten, Freundschaften, Bewegung, Hobbys oder schulische Leistungen litten, könne der übermäßige Medienkonsum schnell zur Sucht werden. Erst vor kurzem warnte der Professor hier auch im Gespräch mit heise online vor Konzentrationsproblemen, Schlafstörungen und einer stärkeren Anfälligkeit für depressive Symptome.

In diesem Kontext sieht Streeck nicht nur die Plattformen in der Pflicht, sondern auch die Eltern. Er rät ihnen, frühzeitig hinzusehen und klare familiäre Regeln zu etablieren. Der Suchtbeauftragte plädiert für frühzeitige, offene und vorwurfsfreie Gespräche, ausreichend Schlaf sowie „feste handyfreie Zeiten“.

Gleichzeitig positioniert sich Streeck weiter kritisch gegenüber einem generellen Social-Media-Verbot für Unter-16-Jährige: „Digitale Medien sind Teil der Lebenswelt junger Menschen – man kann sie nicht einfach ausblenden.“ Stattdessen sei es notwendig, digitale Teilhabe, Medienbildung und informationelle Selbstbestimmung zu stärken, damit Jugendliche lernten, Inhalte kritisch zu bewerten und ihre eigene Meinung zu entwickeln.

Generell unterstreicht der Sohn einer Kinder- und Jugendpsychiaterin die Verantwortung sowohl des Staates als auch der Plattformbetreiber: „Wenn es um den Schutz von so jungen Menschen geht, dürfen wir als Gesellschaft keine Mittel ausschließen.“ Neben Altersratings fordert er konsequent durchgesetzte Regeln und stärkere Auflagen für Diensteanbieter, um Risiken süchtig machender Designs zu minimieren.

Weiterlesen nach der Anzeige

Die europäische Politik hat diese Herausforderung ebenfalls erkannt. Bereits im Oktober sprachen sich die Staats- und Regierungschefs der EU-Staaten für die Einführung von Altersgrenzen in sozialen Netzwerken aus, um Minderjährige im digitalen Raum zu schützen. Dabei betonten sie aber ihre nationalen Zuständigkeiten.

Parallel äußerten Abgeordnete des Ausschusses für Binnenmarkt und Verbraucherschutz des EU-Parlaments ihre Sorge über unzureichenden Jugendschutz und warnten vor Suchtrisiken, psychischen Gesundheitsproblemen und der Exposition gegenüber illegalen und schädlichen Inhalten. Sie appellierten an die EU-Kommission, die Befugnisse des Digital Services Act (DSA) voll auszuschöpfen, um Bußgelder zu verhängen oder nicht konforme Webseiten und Apps im Extremfall zu verbieten. Ferner verlangen sie, suchterzeugende Algorithmen für Minderjährige zu untersagen und „Dark Patterns“ standardmäßig zu deaktivieren.

Erste EU-Staaten handeln: Am Freitag einigte sich die Regierung Dänemarks mit weiteren Parlamentsfraktionen auf die Einführung eines Mindestalters für bestimmte soziale Netzwerke ab 15 Jahren. Eltern sollen die Option bekommen, ihrem Nachwuchs die Nutzung bereits ab 13 Jahren zu erlauben. In Deutschland ist die Debatte kontrovers. Bundesjustizministerin Stefanie Hubig (SPD) und Grünen-Chefin Franziska Brantner befürworten ein Mindestalter. CSU-Chef Markus Söder hält dagegen, ein Verbot mache die Plattformen für den Nachwuchs „eher noch interessanter“.

Lesen Sie auch


(nie)



Source link

Weiterlesen

Beliebt