Connect with us

Künstliche Intelligenz

Volksrepublik China sperrt schwule Dating-Apps


Apple hat die Programme Blued und Finka aus dem chinesischen App-Store entfernt. Dies geschieht offenbar auf Geheiß der Zensurbehörde der Volksrepublik China. Blued ist die führende Dating-App für Schwule und bisexuelle Männer in China, Indien und mehreren anderen asiatischen Ländern. Die Schwesteranwendung Finka richtet sich an ein gleich gesinntes, aber eher jüngeres Publikum wendet. Die beiden Apps sind auch aus verschiedenen, in China einsetzbaren Android-App-Stores verschwunden.

Weiterlesen nach der Anzeige

Darauf weist Wired hin und bezieht sich auf entsprechende Postings in Sozialen Netzwerken in China. Wer die Apps bereits installiert hat, kann sie demnach noch nutzen. Unklar ist derzeit, ob auch LESDO, die Schwesterapp für Lesben und bisexuelle Frauen, betroffen ist.

Die Verbannung aus den App-Stores reduziert IT-Sicherheit, da Anwender fortan versuchen werden, die Software von Webseiten herunterzuladen und mittels Sideloading zu installieren. Dabei laufen sie Gefahr, womöglich eine mit Malware behaftete Version der App zu erwischen.

Blued geht auf ein vom chinesischen Polizisten Baoli Ma im Jahr 2000 eingerichtetes Online-Forum für Schwule zurück. Seit 2012 gibt es die App. Ma macht sich auch für Vorbeugung gegen HIV und AIDS stark. 2012 trafen er und weitere HIV-Aktivisten mit dem damaligen zweithöchsten Politbüromitglied, Keqiang Li, um Diskriminierung Gleichgeschlechtlicher und die Verbreitung von HIV und AIDS zu erörtern. Die Betreiberfirma, die BlueCity Group, hat dafür auch eine gemeinnützige Organisation gegründet und betreibt eine separate Plattform für Männergesundheit.

Im Jahr nach dem Treffen mit dem Li wurde allerdings Jinping Xi Staatspräsident; seither weht in Peking ein anderer Wind. Ein gesetzliches Verbot gleichgeschlechtlichen Sexualverkehrs gibt es seit 1997 zwar nicht mehr, doch fehlt politischer und juristischer Schutz gegen LGBTQ-Diskriminierung. Schwule und effeminierte Männer sind aus der öffentlichen Darstellung verschwunden, der Überwachungsapparat hält nach ihnen Ausschau. LGBTQ-Bars und andere Einrichtungen wurden geschlossen, auch Online-Foren werden gelöscht. Zudem sind mehrfach Autorinnen, die für heterosexuelle Frauen gedachte Geschichten mit männlichen homoerotischen Charakteren veröffentlicht haben, eingesperrt worden.


(ds)



Source link

Künstliche Intelligenz

Elektroautos: ACC will Batteriewerk in Kaiserslautern nicht mehr bauen


Das Gemeinschaftsunternehmen Automotive Cells Company (ACC) wird die geplante Großfabrik für Traktionsbatterien in Kaiserslautern nun doch nicht errichten. Die schon 2024 aufgeschobenen Planungen für die Standorte in Deutschland und Italien rechnen sich inzwischen nicht mehr, wie aus einer Stellungnahme des Gemeinschaftsunternehmens der Konzerne Stellantis, Mercedes-Benz und Total Energies hervorgeht. Der Standort Billy-Bercleau/Douvrin in Frankreich solle als „primärer Innovationshub“ bestehen bleiben.

Weiterlesen nach der Anzeige

Hintergrund ist die anhaltend schwache Nachfrage nach Elektroautos in Europa sowie der massive Kurseinbruch bei Stellantis. Der Volkswagen-Konkurrent gab in der vergangenen Woche Abschreibungen in Höhe von 22,2 Milliarden Euro bekannt und erlitt an der Börse einen beispiellosen Kurssturz.

Am Standort der Stellantis-Tochter Opel in Kaiserslautern sollten rund 2000 Arbeitsplätze entstehen. Deutschland und Frankreich sagten der ACC Fördermittel in Höhe von 1,3 Milliarden Euro zu. Allein das deutsche Werk sollte mit Steuergeld in Höhe von rund 437 Millionen Euro unterstützt werden. Einen entsprechenden Förderbescheid überreichten der damalige Bundeswirtschaftsminister Peter Altmaier (CDU) und die rheinland-pfälzische Ministerpräsidentin Malu Dreyer (SPD) bereits.

Wie beim Partnerprojekt im italienischen Termoli will ACC nun mit den Gewerkschaften über die Einstellung der Projekte sprechen. Der Frankfurter IG-Metall-Bezirkschef Jörg Köhlinger bezeichnete das Vorgehen als „irrational und verantwortungslos“. Widerstandsfähige Lieferketten entstünden so nicht. Jahrelang hätten sich Betriebsräte und IG Metall für die Ansiedlung eingesetzt, sagte der Gewerkschafter. „Wir haben innovative tarifliche Regelungen getroffen, mit denen wir dem Unternehmen weit entgegengekommen sind. Und jetzt will ACC den Abgesang einleiten.“

Lesen Sie auch


(fpi)



Source link

Weiterlesen

Künstliche Intelligenz

Fotografieren im Deutschen Meeresmuseum Stralsund: Abtauchen mit der Kamera


​Sandra Petrowitz hat ihre Leidenschaften zum Beruf gemacht: Schreiben, Fotografieren und Reisen. Die Journalistin leitet Fotoworkshops und -reisen, ist als Guide auf Expeditionsschiffen in den Polarregionen im Einsatz und arbeitet für Magazine sowie Buchverlage.​



Source link

Weiterlesen

Künstliche Intelligenz

ChatGPT als Arzt-Ersatz? Studie zeigt ernüchternde Ergebnisse


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Große Sprachmodelle wie GPT-4o erreichen bei medizinischen Wissenstests inzwischen nahezu perfekte Ergebnisse. Sie bestehen die US-Ärzte-Zulassungsprüfung, fassen Patientenakten zusammen und können Symptome einordnen. Gesundheitsbehörden weltweit prüfen deshalb, ob KI-Chatbots als erste Anlaufstelle für Patienten dienen könnten – eine Art „neue Eingangstür zum Gesundheitssystem“, wie es in einem Strategiepapier des britischen NHS heißt.

Weiterlesen nach der Anzeige

Doch die Studie „Reliability of LLMs as medical assistants for the general public: a randomized preregistered study“ von Forschern der Universität Oxford dämpft diese Hoffnungen erheblich. Die Arbeit erscheint im Fachjournal Nature Medicine, eine Vorabversion ist auf arXiv verfügbar. Das zentrale Ergebnis: Das klinische Wissen der Modelle lässt sich nicht auf die Interaktion mit echten Menschen übertragen.

Für die randomisierte, kontrollierte Studie rekrutierten die Forscher 1298 Teilnehmer aus Großbritannien. Jeder Proband erhielt eines von zehn alltagsnahen medizinischen Szenarien – etwa plötzliche starke Kopfschmerzen, Brustschmerzen in der Schwangerschaft oder blutigen Durchfall. Die Aufgabe: Einschätzen, welche Erkrankung vorliegen könnte und ob ein Arztbesuch, die Notaufnahme oder gar ein Krankenwagen nötig ist.

Die Teilnehmer wurden zufällig in vier Gruppen eingeteilt. Drei Gruppen erhielten Zugang zu je einem KI-Modell, das zu Studienbeginn aktuell war – GPT-4o, Llama 3 oder Command R+. Die Kontrollgruppe durfte beliebige Hilfsmittel nutzen, etwa eine Internetsuche.

Weiterlesen nach der Anzeige

Die Ergebnisse offenbaren eine bemerkenswerte Diskrepanz. Ohne menschliche Beteiligung identifizierten selbst die inzwischen nicht mehr aktuellen Sprachmodelle in 94,9 Prozent der Fälle mindestens eine relevante Erkrankung. Bei der Frage nach der richtigen Handlungsempfehlung – Selbstbehandlung, Hausarzt, Notaufnahme oder Rettungswagen – lagen sie im Schnitt in 56,3 Prozent der Fälle richtig.

Sobald jedoch echte Menschen die Modelle befragten, brachen die Werte ein. Teilnehmer mit KI-Unterstützung erkannten relevante Erkrankungen nur in maximal 34,5 Prozent der Fälle – signifikant schlechter als die Kontrollgruppe mit 47 Prozent. Bei der Wahl der richtigen Handlung schnitten alle Gruppen gleich ab: rund 43 Prozent Trefferquote, unabhängig davon, ob ein Chatbot half oder nicht.

Die Forscher analysierten die Chat-Protokolle zwischen Nutzern und KI-Modellen, um die Ursachen zu verstehen. Sie identifizierten zwei zentrale Schwachstellen: Erstens gaben die Teilnehmer den Modellen oft unvollständige Informationen. Zweitens verstanden die Nutzer die Antworten der KI nicht richtig – obwohl die Modelle in 65 bis 73 Prozent der Fälle mindestens eine korrekte Diagnose nannten, übernahmen die Teilnehmer diese nicht zuverlässig.

Dr. Anne Reinhardt von der LMU München sieht hier eine grundsätzliche Schere: „Viele Menschen vertrauen KI-Antworten auf Gesundheitsfragen schnell, weil sie leicht zugänglich sind. Sie klingen auch sprachlich sehr überzeugend – selbst dann, wenn der Inhalt eigentlich medizinisch absolut falsch ist.“

Die Forscher verglichen die Leistung der Modelle auf dem MedQA-Benchmark – einem Standardtest mit Fragen aus Ärzte-Prüfungen – mit den Ergebnissen der Nutzerstudie. In 26 von 30 Fällen schnitten die Modelle bei den Multiple-Choice-Fragen besser ab als bei der Interaktion mit echten Menschen. Selbst Benchmark-Werte von über 80 Prozent korrespondierten teilweise mit Nutzer-Ergebnissen unter 20 Prozent.

Prof. Ute Schmid von der Universität Bamberg ordnet die hohe Leistung der Modelle „allein“ kritisch ein: „Etwas irreführend finde ich die Aussage, dass die Performanz der Sprachmodelle ‚alleine‘ deutlich höher ist als bei den Nutzenden. In diesem Fall wurden die Anfragen vermutlich von fachlich und mit LLMs erfahrenen Personen formuliert.“

Die Experten sind sich einig, dass spezialisierte medizinische Chatbots anders gestaltet werden müssten als heutige Allzweck-Modelle. Prof. Kerstin Denecke von der Berner Fachhochschule formuliert die Anforderungen: „Ein medizinisch spezialisierter Chatbot müsste evidenzbasierte, aktuelle Informationen bieten. Außerdem müsste er Notfallsituationen zuverlässig erkennen, individuelle Risikofaktoren berücksichtigen und transparent seine Grenzen kommunizieren. Er sollte eine strukturierte Anamnese erheben, um zuverlässig triagieren zu können. Und er sollte sich nicht dazu hinreißen lassen, eine Diagnose zu stellen.“

Die Hürden für einen solchen Einsatz seien allerdings erheblich, so Denecke: „Große Hürden sind zum einen die Regulierung – je nach Funktion als Medizinprodukt oder Hochrisiko-KI. Zum anderen sind es die Haftung, der Datenschutz sowie die technische Integration in Versorgungsprozesse.“

Die Schlussfolgerung der Oxford-Forscher ist eindeutig: Bevor KI-Systeme im Gesundheitswesen eingesetzt werden, müssten sie mit echten Nutzern getestet werden – nicht nur mit Prüfungsfragen oder simulierten Gesprächen. Schmid plädiert für einen differenzierten Ansatz: „Qualitätsgeprüfte Chatbots könnten beispielsweise über die gesetzlichen Krankenkassen angeboten und von Hausarztpraxen als Erstzugang empfohlen werden. Allerdings sollten Menschen nicht gezwungen werden, diese Angebote zu nutzen.“


(mack)



Source link

Weiterlesen

Beliebt