Connect with us

Künstliche Intelligenz

Discord führt weltweit eine Altersprüfung ein


Der Social-Media-Dienst Discord gab am Montag bekannt, dass er ab März eine Altersüberprüfung auf seiner Plattform einführt. Dann werden alle neuen und bestehenden Benutzerkonten weltweit automatisch auf eine „jugendgerechte Erfahrung mit aktualisierten Kommunikationseinstellungen, eingeschränktem Zugang zu altersbeschränkten Bereichen und Inhaltsfiltern“ eingestellt, heißt es in einer Mitteilung des Unternehmens. Um bestimmte Einstellungen zu ändern oder auf sensible Inhalte wie altersbeschränkte Kanäle, Server oder Befehle sowie ausgewählte Nachrichtenanfragen zuzugreifen, müssen Nutzer demnach möglicherweise einen Prozess der Altersüberprüfung durchlaufen.

Weiterlesen nach der Anzeige

Discord-Nutzer können wählen, ob sie zur Altersschätzung die Gesichtserkennung nutzen oder einen Ausweis als Identitätsnachweis vorlegen möchten. In Zukunft würden weitere Optionen hinzukommen, kündigte das Unternehmen an. Ferner werde man ein Altersschätzungsmodell implementieren, das im Hintergrund läuft und dabei hilft, festzustellen, ob ein Benutzerkonto einem Erwachsenen gehört, ohne dass die Nutzer immer ihr Alter nachweisen müssen. Wenn weitere Informationen zur Zuordnung zu einer Altersgruppe erforderlich sind, werden Nutzer möglicherweise aufgefordert, mehrere Methoden zur Altersprüfung zu verwenden.

Nicht als volljährig verifizierte Nutzer bleibt der Zugriff auf altersbegrenzte Server und Kanäle verwehrt und von Discord als sensibel eingestufte Inhalte werden gefiltert. Außerdem erhalten sie Warnmeldungen bei Freundschaftsanfragen von möglicherweise unbekannten Nutzern; und Direktnachrichten von potenziell unbekannten Nutzern werden automatisch in einen separaten Posteingang gefiltert.

Discord hat im vergangenen Jahr bereits in Großbritannien und Australien Altersüberprüfungen eingeführt. Die nunmehrige globale Implementierung dieser Schutzfunktion basiert auf den dabei gemachten Erfahrungen. „Die weltweite Einführung von Standardeinstellungen für Jugendliche baut auf der bestehenden Sicherheitsarchitektur von Discord auf und bietet Jugendlichen starken Schutz, während verifizierte Erwachsene Flexibilität genießen“, wird Savannah Badalich, Leiterin der Produktpolitik bei Discord, in der Unternehmensmitteilung zitiert.

Neben den erweiterten Sicherheitsfunktionen für jugendliche Nutzer kündigte Discord die Schaffung eines Teen Councils an, bestehend aus 10 bis 12 Teenagern. Dieses Beratungsgremium soll der Perspektive von Jugendlichen in der Entscheidungsfindung bei Discord mehr Gewicht verleihen. „Der Teen Council wird (…) dazu beitragen, dass Discord versteht – und nicht nur annimmt –, was Teenager brauchen, wie sie sinnvolle Beziehungen aufbauen und was ihnen das Gefühl gibt, online sicher und unterstützt zu sein“, schreibt Discord. Die Beiträge des Gremiums sollen in zukünftige Produktfunktionen, Richtlinien und Bildungsressourcen einfließen, heißt es weiter. Interessierte im Alter von 13 bis 17 Jahren können sich demnach ab sofort bis zum 1. Mai 2026 für die Teilnahme am Teen Council bewerben.

Weiterlesen nach der Anzeige

Um Kinder und Jugendliche stärker vor den negativen Auswirkungen von sozialen Medien und digitalen Angeboten zu schützen, werden immer öfter Altersverifikationen oder Altersgrenzen für Nutzer diskutiert. In Australien trat Anfang Dezember das weltweit erste umfassende Verbot von Social Media für unter 16-Jährige in Kraft. Die britische Regierung erklärte, dass man Australiens Ansatz „genau“ beobachte. Andere Länder haben dagegen bereits angekündigt, ähnliche Verbote einzuführen, darunter Malaysia, Dänemark und Norwegen. Dänemark einigte sich Anfang November auf ein Mindestalter von 15 Jahren beim Zugang zu Social Media, wobei Eltern ihren Kindern bereits mit 13 Jahren die Anmeldung zu diesen Netzwerken erlauben können. Das EU-Parlament verabschiedete Ende November eine Resolution, die sich für ein EU-weites Mindestalter von 16 Jahren für Social Media ausspricht.


(akn)



Source link

Künstliche Intelligenz

Elektroautos: ACC will Batteriewerk in Kaiserslautern nicht mehr bauen


Das Gemeinschaftsunternehmen Automotive Cells Company (ACC) wird die geplante Großfabrik für Traktionsbatterien in Kaiserslautern nun doch nicht errichten. Die schon 2024 aufgeschobenen Planungen für die Standorte in Deutschland und Italien rechnen sich inzwischen nicht mehr, wie aus einer Stellungnahme des Gemeinschaftsunternehmens der Konzerne Stellantis, Mercedes-Benz und Total Energies hervorgeht. Der Standort Billy-Bercleau/Douvrin in Frankreich solle als „primärer Innovationshub“ bestehen bleiben.

Weiterlesen nach der Anzeige

Hintergrund ist die anhaltend schwache Nachfrage nach Elektroautos in Europa sowie der massive Kurseinbruch bei Stellantis. Der Volkswagen-Konkurrent gab in der vergangenen Woche Abschreibungen in Höhe von 22,2 Milliarden Euro bekannt und erlitt an der Börse einen beispiellosen Kurssturz.

Am Standort der Stellantis-Tochter Opel in Kaiserslautern sollten rund 2000 Arbeitsplätze entstehen. Deutschland und Frankreich sagten der ACC Fördermittel in Höhe von 1,3 Milliarden Euro zu. Allein das deutsche Werk sollte mit Steuergeld in Höhe von rund 437 Millionen Euro unterstützt werden. Einen entsprechenden Förderbescheid überreichten der damalige Bundeswirtschaftsminister Peter Altmaier (CDU) und die rheinland-pfälzische Ministerpräsidentin Malu Dreyer (SPD) bereits.

Wie beim Partnerprojekt im italienischen Termoli will ACC nun mit den Gewerkschaften über die Einstellung der Projekte sprechen. Der Frankfurter IG-Metall-Bezirkschef Jörg Köhlinger bezeichnete das Vorgehen als „irrational und verantwortungslos“. Widerstandsfähige Lieferketten entstünden so nicht. Jahrelang hätten sich Betriebsräte und IG Metall für die Ansiedlung eingesetzt, sagte der Gewerkschafter. „Wir haben innovative tarifliche Regelungen getroffen, mit denen wir dem Unternehmen weit entgegengekommen sind. Und jetzt will ACC den Abgesang einleiten.“

Lesen Sie auch


(fpi)



Source link

Weiterlesen

Künstliche Intelligenz

Fotografieren im Deutschen Meeresmuseum Stralsund: Abtauchen mit der Kamera


​Sandra Petrowitz hat ihre Leidenschaften zum Beruf gemacht: Schreiben, Fotografieren und Reisen. Die Journalistin leitet Fotoworkshops und -reisen, ist als Guide auf Expeditionsschiffen in den Polarregionen im Einsatz und arbeitet für Magazine sowie Buchverlage.​



Source link

Weiterlesen

Künstliche Intelligenz

ChatGPT als Arzt-Ersatz? Studie zeigt ernüchternde Ergebnisse


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Große Sprachmodelle wie GPT-4o erreichen bei medizinischen Wissenstests inzwischen nahezu perfekte Ergebnisse. Sie bestehen die US-Ärzte-Zulassungsprüfung, fassen Patientenakten zusammen und können Symptome einordnen. Gesundheitsbehörden weltweit prüfen deshalb, ob KI-Chatbots als erste Anlaufstelle für Patienten dienen könnten – eine Art „neue Eingangstür zum Gesundheitssystem“, wie es in einem Strategiepapier des britischen NHS heißt.

Weiterlesen nach der Anzeige

Doch die Studie „Reliability of LLMs as medical assistants for the general public: a randomized preregistered study“ von Forschern der Universität Oxford dämpft diese Hoffnungen erheblich. Die Arbeit erscheint im Fachjournal Nature Medicine, eine Vorabversion ist auf arXiv verfügbar. Das zentrale Ergebnis: Das klinische Wissen der Modelle lässt sich nicht auf die Interaktion mit echten Menschen übertragen.

Für die randomisierte, kontrollierte Studie rekrutierten die Forscher 1298 Teilnehmer aus Großbritannien. Jeder Proband erhielt eines von zehn alltagsnahen medizinischen Szenarien – etwa plötzliche starke Kopfschmerzen, Brustschmerzen in der Schwangerschaft oder blutigen Durchfall. Die Aufgabe: Einschätzen, welche Erkrankung vorliegen könnte und ob ein Arztbesuch, die Notaufnahme oder gar ein Krankenwagen nötig ist.

Die Teilnehmer wurden zufällig in vier Gruppen eingeteilt. Drei Gruppen erhielten Zugang zu je einem KI-Modell, das zu Studienbeginn aktuell war – GPT-4o, Llama 3 oder Command R+. Die Kontrollgruppe durfte beliebige Hilfsmittel nutzen, etwa eine Internetsuche.

Weiterlesen nach der Anzeige

Die Ergebnisse offenbaren eine bemerkenswerte Diskrepanz. Ohne menschliche Beteiligung identifizierten selbst die inzwischen nicht mehr aktuellen Sprachmodelle in 94,9 Prozent der Fälle mindestens eine relevante Erkrankung. Bei der Frage nach der richtigen Handlungsempfehlung – Selbstbehandlung, Hausarzt, Notaufnahme oder Rettungswagen – lagen sie im Schnitt in 56,3 Prozent der Fälle richtig.

Sobald jedoch echte Menschen die Modelle befragten, brachen die Werte ein. Teilnehmer mit KI-Unterstützung erkannten relevante Erkrankungen nur in maximal 34,5 Prozent der Fälle – signifikant schlechter als die Kontrollgruppe mit 47 Prozent. Bei der Wahl der richtigen Handlung schnitten alle Gruppen gleich ab: rund 43 Prozent Trefferquote, unabhängig davon, ob ein Chatbot half oder nicht.

Die Forscher analysierten die Chat-Protokolle zwischen Nutzern und KI-Modellen, um die Ursachen zu verstehen. Sie identifizierten zwei zentrale Schwachstellen: Erstens gaben die Teilnehmer den Modellen oft unvollständige Informationen. Zweitens verstanden die Nutzer die Antworten der KI nicht richtig – obwohl die Modelle in 65 bis 73 Prozent der Fälle mindestens eine korrekte Diagnose nannten, übernahmen die Teilnehmer diese nicht zuverlässig.

Dr. Anne Reinhardt von der LMU München sieht hier eine grundsätzliche Schere: „Viele Menschen vertrauen KI-Antworten auf Gesundheitsfragen schnell, weil sie leicht zugänglich sind. Sie klingen auch sprachlich sehr überzeugend – selbst dann, wenn der Inhalt eigentlich medizinisch absolut falsch ist.“

Die Forscher verglichen die Leistung der Modelle auf dem MedQA-Benchmark – einem Standardtest mit Fragen aus Ärzte-Prüfungen – mit den Ergebnissen der Nutzerstudie. In 26 von 30 Fällen schnitten die Modelle bei den Multiple-Choice-Fragen besser ab als bei der Interaktion mit echten Menschen. Selbst Benchmark-Werte von über 80 Prozent korrespondierten teilweise mit Nutzer-Ergebnissen unter 20 Prozent.

Prof. Ute Schmid von der Universität Bamberg ordnet die hohe Leistung der Modelle „allein“ kritisch ein: „Etwas irreführend finde ich die Aussage, dass die Performanz der Sprachmodelle ‚alleine‘ deutlich höher ist als bei den Nutzenden. In diesem Fall wurden die Anfragen vermutlich von fachlich und mit LLMs erfahrenen Personen formuliert.“

Die Experten sind sich einig, dass spezialisierte medizinische Chatbots anders gestaltet werden müssten als heutige Allzweck-Modelle. Prof. Kerstin Denecke von der Berner Fachhochschule formuliert die Anforderungen: „Ein medizinisch spezialisierter Chatbot müsste evidenzbasierte, aktuelle Informationen bieten. Außerdem müsste er Notfallsituationen zuverlässig erkennen, individuelle Risikofaktoren berücksichtigen und transparent seine Grenzen kommunizieren. Er sollte eine strukturierte Anamnese erheben, um zuverlässig triagieren zu können. Und er sollte sich nicht dazu hinreißen lassen, eine Diagnose zu stellen.“

Die Hürden für einen solchen Einsatz seien allerdings erheblich, so Denecke: „Große Hürden sind zum einen die Regulierung – je nach Funktion als Medizinprodukt oder Hochrisiko-KI. Zum anderen sind es die Haftung, der Datenschutz sowie die technische Integration in Versorgungsprozesse.“

Die Schlussfolgerung der Oxford-Forscher ist eindeutig: Bevor KI-Systeme im Gesundheitswesen eingesetzt werden, müssten sie mit echten Nutzern getestet werden – nicht nur mit Prüfungsfragen oder simulierten Gesprächen. Schmid plädiert für einen differenzierten Ansatz: „Qualitätsgeprüfte Chatbots könnten beispielsweise über die gesetzlichen Krankenkassen angeboten und von Hausarztpraxen als Erstzugang empfohlen werden. Allerdings sollten Menschen nicht gezwungen werden, diese Angebote zu nutzen.“


(mack)



Source link

Weiterlesen

Beliebt