Connect with us

Künstliche Intelligenz

Volksrepublik China sperrt schwule Dating-Apps


Apple hat die Programme Blued und Finka aus dem chinesischen App-Store entfernt. Dies geschieht offenbar auf Geheiß der Zensurbehörde der Volksrepublik China. Blued ist die führende Dating-App für Schwule und bisexuelle Männer in China, Indien und mehreren anderen asiatischen Ländern. Die Schwesteranwendung Finka richtet sich an ein gleich gesinntes, aber eher jüngeres Publikum wendet. Die beiden Apps sind auch aus verschiedenen, in China einsetzbaren Android-App-Stores verschwunden.

Weiterlesen nach der Anzeige

Darauf weist Wired hin und bezieht sich auf entsprechende Postings in Sozialen Netzwerken in China. Wer die Apps bereits installiert hat, kann sie demnach noch nutzen. Unklar ist derzeit, ob auch LESDO, die Schwesterapp für Lesben und bisexuelle Frauen, betroffen ist.

Die Verbannung aus den App-Stores reduziert IT-Sicherheit, da Anwender fortan versuchen werden, die Software von Webseiten herunterzuladen und mittels Sideloading zu installieren. Dabei laufen sie Gefahr, womöglich eine mit Malware behaftete Version der App zu erwischen.

Blued geht auf ein vom chinesischen Polizisten Baoli Ma im Jahr 2000 eingerichtetes Online-Forum für Schwule zurück. Seit 2012 gibt es die App. Ma macht sich auch für Vorbeugung gegen HIV und AIDS stark. 2012 trafen er und weitere HIV-Aktivisten mit dem damaligen zweithöchsten Politbüromitglied, Keqiang Li, um Diskriminierung Gleichgeschlechtlicher und die Verbreitung von HIV und AIDS zu erörtern. Die Betreiberfirma, die BlueCity Group, hat dafür auch eine gemeinnützige Organisation gegründet und betreibt eine separate Plattform für Männergesundheit.

Im Jahr nach dem Treffen mit dem Li wurde allerdings Jinping Xi Staatspräsident; seither weht in Peking ein anderer Wind. Ein gesetzliches Verbot gleichgeschlechtlichen Sexualverkehrs gibt es seit 1997 zwar nicht mehr, doch fehlt politischer und juristischer Schutz gegen LGBTQ-Diskriminierung. Schwule und effeminierte Männer sind aus der öffentlichen Darstellung verschwunden, der Überwachungsapparat hält nach ihnen Ausschau. LGBTQ-Bars und andere Einrichtungen wurden geschlossen, auch Online-Foren werden gelöscht. Zudem sind mehrfach Autorinnen, die für heterosexuelle Frauen gedachte Geschichten mit männlichen homoerotischen Charakteren veröffentlicht haben, eingesperrt worden.


(ds)



Source link

Künstliche Intelligenz

ChatGPT als Arzt-Ersatz? Studie zeigt ernüchternde Ergebnisse


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Große Sprachmodelle wie GPT-4o erreichen bei medizinischen Wissenstests inzwischen nahezu perfekte Ergebnisse. Sie bestehen die US-Ärzte-Zulassungsprüfung, fassen Patientenakten zusammen und können Symptome einordnen. Gesundheitsbehörden weltweit prüfen deshalb, ob KI-Chatbots als erste Anlaufstelle für Patienten dienen könnten – eine Art „neue Eingangstür zum Gesundheitssystem“, wie es in einem Strategiepapier des britischen NHS heißt.

Weiterlesen nach der Anzeige

Doch die Studie „Reliability of LLMs as medical assistants for the general public: a randomized preregistered study“ von Forschern der Universität Oxford dämpft diese Hoffnungen erheblich. Die Arbeit erscheint im Fachjournal Nature Medicine, eine Vorabversion ist auf arXiv verfügbar. Das zentrale Ergebnis: Das klinische Wissen der Modelle lässt sich nicht auf die Interaktion mit echten Menschen übertragen.

Für die randomisierte, kontrollierte Studie rekrutierten die Forscher 1298 Teilnehmer aus Großbritannien. Jeder Proband erhielt eines von zehn alltagsnahen medizinischen Szenarien – etwa plötzliche starke Kopfschmerzen, Brustschmerzen in der Schwangerschaft oder blutigen Durchfall. Die Aufgabe: Einschätzen, welche Erkrankung vorliegen könnte und ob ein Arztbesuch, die Notaufnahme oder gar ein Krankenwagen nötig ist.

Die Teilnehmer wurden zufällig in vier Gruppen eingeteilt. Drei Gruppen erhielten Zugang zu je einem KI-Modell, das zu Studienbeginn aktuell war – GPT-4o, Llama 3 oder Command R+. Die Kontrollgruppe durfte beliebige Hilfsmittel nutzen, etwa eine Internetsuche.

Weiterlesen nach der Anzeige

Die Ergebnisse offenbaren eine bemerkenswerte Diskrepanz. Ohne menschliche Beteiligung identifizierten selbst die inzwischen nicht mehr aktuellen Sprachmodelle in 94,9 Prozent der Fälle mindestens eine relevante Erkrankung. Bei der Frage nach der richtigen Handlungsempfehlung – Selbstbehandlung, Hausarzt, Notaufnahme oder Rettungswagen – lagen sie im Schnitt in 56,3 Prozent der Fälle richtig.

Sobald jedoch echte Menschen die Modelle befragten, brachen die Werte ein. Teilnehmer mit KI-Unterstützung erkannten relevante Erkrankungen nur in maximal 34,5 Prozent der Fälle – signifikant schlechter als die Kontrollgruppe mit 47 Prozent. Bei der Wahl der richtigen Handlung schnitten alle Gruppen gleich ab: rund 43 Prozent Trefferquote, unabhängig davon, ob ein Chatbot half oder nicht.

Die Forscher analysierten die Chat-Protokolle zwischen Nutzern und KI-Modellen, um die Ursachen zu verstehen. Sie identifizierten zwei zentrale Schwachstellen: Erstens gaben die Teilnehmer den Modellen oft unvollständige Informationen. Zweitens verstanden die Nutzer die Antworten der KI nicht richtig – obwohl die Modelle in 65 bis 73 Prozent der Fälle mindestens eine korrekte Diagnose nannten, übernahmen die Teilnehmer diese nicht zuverlässig.

Dr. Anne Reinhardt von der LMU München sieht hier eine grundsätzliche Schere: „Viele Menschen vertrauen KI-Antworten auf Gesundheitsfragen schnell, weil sie leicht zugänglich sind. Sie klingen auch sprachlich sehr überzeugend – selbst dann, wenn der Inhalt eigentlich medizinisch absolut falsch ist.“

Die Forscher verglichen die Leistung der Modelle auf dem MedQA-Benchmark – einem Standardtest mit Fragen aus Ärzte-Prüfungen – mit den Ergebnissen der Nutzerstudie. In 26 von 30 Fällen schnitten die Modelle bei den Multiple-Choice-Fragen besser ab als bei der Interaktion mit echten Menschen. Selbst Benchmark-Werte von über 80 Prozent korrespondierten teilweise mit Nutzer-Ergebnissen unter 20 Prozent.

Prof. Ute Schmid von der Universität Bamberg ordnet die hohe Leistung der Modelle „allein“ kritisch ein: „Etwas irreführend finde ich die Aussage, dass die Performanz der Sprachmodelle ‚alleine‘ deutlich höher ist als bei den Nutzenden. In diesem Fall wurden die Anfragen vermutlich von fachlich und mit LLMs erfahrenen Personen formuliert.“

Die Experten sind sich einig, dass spezialisierte medizinische Chatbots anders gestaltet werden müssten als heutige Allzweck-Modelle. Prof. Kerstin Denecke von der Berner Fachhochschule formuliert die Anforderungen: „Ein medizinisch spezialisierter Chatbot müsste evidenzbasierte, aktuelle Informationen bieten. Außerdem müsste er Notfallsituationen zuverlässig erkennen, individuelle Risikofaktoren berücksichtigen und transparent seine Grenzen kommunizieren. Er sollte eine strukturierte Anamnese erheben, um zuverlässig triagieren zu können. Und er sollte sich nicht dazu hinreißen lassen, eine Diagnose zu stellen.“

Die Hürden für einen solchen Einsatz seien allerdings erheblich, so Denecke: „Große Hürden sind zum einen die Regulierung – je nach Funktion als Medizinprodukt oder Hochrisiko-KI. Zum anderen sind es die Haftung, der Datenschutz sowie die technische Integration in Versorgungsprozesse.“

Die Schlussfolgerung der Oxford-Forscher ist eindeutig: Bevor KI-Systeme im Gesundheitswesen eingesetzt werden, müssten sie mit echten Nutzern getestet werden – nicht nur mit Prüfungsfragen oder simulierten Gesprächen. Schmid plädiert für einen differenzierten Ansatz: „Qualitätsgeprüfte Chatbots könnten beispielsweise über die gesetzlichen Krankenkassen angeboten und von Hausarztpraxen als Erstzugang empfohlen werden. Allerdings sollten Menschen nicht gezwungen werden, diese Angebote zu nutzen.“


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Temu und Shein: Handelsverband HDE bringt Importstopp ins Spiel


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In einem Brief an Bundeskanzler Friedrich Merz (CDU) bringt der Handelsverband HDE einen Importstopp für Waren chinesischer Internethändler wie Temu oder Shein ins Spiel. Alexander von Preen und Geschäftsführer Stefan Genth beklagen in dem Schreiben ungleiche Wettbewerbsbedingungen.

Weiterlesen nach der Anzeige

Chinesische Onlineanbieter wie Temu oder Shein würden sich systematisch über die nach EU-Recht geltenden Sicherheits- und Umweltstandards hinwegsetzen, kritisieren die Verbandschefs. In Deutschland ansässige Händler seien deshalb nicht mehr konkurrenzfähig.

Der HDE fordert von Bundeskanzler Merz, sich beim am 12. Februar stattfindenden Sondergipfel der EU für faire Wettbewerbsbedingungen und gegen Wachstumshemmnisse einzusetzen. Ultima Ratio müssten auch drastische Maßnahmen wie ein Importstopp von chinesischen Billigwaren in Erwägung gezogen werden. „Wer sich nicht an die Regeln hält, darf auf unserem Markt nicht mitspielen“, zitiert das Redaktionsnetzwerk Deutschland aus dem Schreiben.

Außerdem befürchtet der HDE, dass die Umsetzung von EU-Richtlinien die Bürokratielasten für den Einzelhandel im Laufe des Jahres erhöht. Mit der 2026 in Kraft tretenden Verschärfung des Entgelttransparenzgesetzes oder der ab Ende dieses Jahres gültigen EU-Entwaldungsverordnung würden zusätzliche bürokratische Hemmnisse entstehen. Wachstums- und Wettbewerbsfähigkeiten des Einzelhandels würden so lahmgelegt.

Laut einer Mitte vergangenen Jahres veröffentlichten Studie „E-Commerce-Markt Deutschland 2025“ des Handelsforschungsinstituts EHI und der Datenplattform ECDB stieg die Popularität chinesischer Onlineshopping-Portale in Deutschland im Jahr 2024 stark an.

Der Nettoumsatz des chinesischen Modekonzerns Shein wuchs 2024 um 18 Prozent 1,1 Milliarden Euro, womit Shein erstmals in die Top Ten der größten Onlineshops in Deutschland aufstieg. Stand September 2025 ist das Unternehmen der siebtgrößte Onlinehändler in Deutschland – 2023 lag das Unternehmen noch auf Platz 18.

Bei Online-Marktplätzen machte Temu 2024 den größten Sprung. Das chinesische Portal vervierfachte sein Bruttohandelsvolumen in Deutschland nahezu auf 3,4 Milliarden Euro, was einem Wachstum von 285 Prozent entspricht. Dieser Wert entspricht dem Gesamtwert aller Bestellungen. Der Konzern stieg damit vom elften auf den fünften Platz der B2C-Marktplätze in Deutschland auf.

Weiterlesen nach der Anzeige

Unterdessen bleibt Amazon laut der Studie nicht nur wichtigster Online-Shop Deutschlands, sondern auch der größte Online-Marktplatz. Mit einem Nettoumsatz von 15 Millionen Euro und einem Bruttohandelsvolumen von 52 Millionen Euro im Jahr 2024 schlägt das US-Unternehmen die Konkurrenz weit ab.

Shein kommt mit einem Jahresumsatz von rund einer Million Euro nicht einmal auf ein Zehntel des Jahresumsatzes von Amazon in Deutschland. Auch Temu, der mittlerweile fünftgrößte Online-Marktplatz, verzeichnet mit rund 3,4 Millionen Euro nur ein Fünfzehntel des jährlichen Handelsvolumens von Amazon.

Temu und Shein sind schon seit Längerem im Fokus der EU-Kommission. Gegen Temu läuft derzeit ein Untersuchungsverfahren, weil die Kommission dem Konzern vorwirft, den Verpflichtungen aus dem Digital Services Act (DSA) nicht ausreichend nachzukommen.

Mitte letzten Jahres veröffentlichte die EU-Kommission ein vorläufiges Untersuchungsergebnis, demzufolge der Anfangsverdacht bestätigt werden konnte. Für Verbraucher bestehe ein hohes Risiko, auf dem Online-Marktplatz an Produkte zu gelangen, die nicht den innerhalb der EU geltenden Regeln entsprechen. Andere wichtige Aspekte des Verfahrens, etwa ob Temu unzulässig Verbraucher mit sogenannten Dark Pattern beeinflusst, untersucht die Kommission unabhängig davon weiter.

Im vergangenen Jahr hatte die EU-Kommission ebenfalls angekündigt, härter gegen den Online-Modehändler Shein vorgehen zu wollen. Einer Untersuchung der Kommission und des Netzwerks der Verbraucherbehörden der EU-Länder zufolge führt das chinesische Unternehmen Verbraucher systematisch mit sogenannten Dark Pattern in die Irre. Diese verkaufsfördernden, teils manipulativen Methoden können etwa Scheinrabatte, willkürliche Fristen oder irreführende Nachhaltigkeitsaussagen sein und verstoßen gegen das EU-Verbraucherrecht, erklärte die Kommission damals.


(rah)



Source link

Weiterlesen

Künstliche Intelligenz

Cisco AI Summit: Nach dem KI-Durchbruch 2025 kommt der KI-Durchbruch 2026


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Tech-Industrie hat sich beim zweiten Cisco AI Summit gegenseitig versichert, dass 2026 endlich das Jahr der produktionsreifen KI wird. Zwischen bemerkenswerten Einsichten und reichlich Wunschdenken zeichnet sich vor allem eines ab: Der Kampf um die KI-Infrastruktur hat begonnen

Weiterlesen nach der Anzeige

Cisco positioniert sich dabei klar als Infrastrukturlieferant für die KI-Ära, und eine sechsstündige Bühnenshow mit Jensen Huang, Sam Altman und Fei-Fei Li ist dafür keine schlechte Kulisse. Dennoch lohnt ein genauerer Blick: Hinter dem üblichen Superlativ-Gewitter stecken durchaus interessante Verschiebungen in der Debatte.

Die auffälligste Erzählung des Tages kam von Nvidias Jensen Huang. KI sei kein Feature, sondern eine Neuerfindung des gesamten Computing-Stacks. Statt Code zu schreiben, definierten Entwickler künftig Absichten – der Übergang von expliziter zu impliziter Programmierung. Neu war weniger diese These als die Konsequenz, die Huang daraus zieht: Unternehmen bräuchten nicht einzelne KI-Tools, sondern sogenannte „AI Factories“ – integrierte Systeme aus Rechenleistung, Netzwerk und Sicherheit, die Intelligenz industriell produzieren.

Bemerkenswert war auch Huangs Rat an Führungskräfte, in frühen Phasen von KI-Initiativen nicht primär nach klassischem ROI zu fragen, sondern zunächst explorativ vorzugehen und herauszufinden, wo KI den größten strategischen Hebel entfalten kann. Renditemaßstäbe wie bei einem klassischen ERP-Rollout könne man hier nicht anlegen.

Sam Altman lieferte die erwartbare Steigerung: KI werde sich vom Werkzeug zum Teammitglied entwickeln, das eigenständig Computer bedient, Software schreibt und komplexe Aufgaben Ende-zu-Ende erledigt. Er prognostizierte, dass sich bis Ende 2026 die Bandbreite der Probleme, die KI-Systeme sinnvoll bearbeiten können, massiv erweitern werde. Aaron Levie von Box ergänzte diese Perspektive mit der These, Unternehmen könnten künftig ein Vielfaches an KI-Agenten im Vergleich zur Zahl ihrer Mitarbeitenden einsetzen.

Solche Aussagen klingen eindrucksvoll, bleiben aber erklärungsbedürftig, solange offenbleibt, wie Fortschritt konkret gemessen wird. Altman relativierte die Vision und räumte ein, dass die größten Engpässe derzeit nicht bei den Modellen liegen, sondern bei Energie, Infrastruktur und der schleppenden Einführung von KI in Organisationen.

Weiterlesen nach der Anzeige

Fast alle der prominenten Sprecher landeten am Ende bei der Infrastruktur. Googles Amin Vahdat formulierte es besonders klar: Nicht primär die Modelle entschieden über den Erfolg im KI-Wettbewerb, sondern Rechenleistung, Netzwerke und Energieversorgung. Der Abschied von allgemeinen Standardarchitekturen ermögliche erhebliche Effizienzgewinne – in der Größenordnung des Faktors zehn –, setze aber voraus, dass Hardwarezyklen von bislang rund drei Jahren deutlich verkürzt würden. Vahdat brachte sogar weltraumgestützte Rechenzentren als langfristiges Gedankenspiel ins Spiel, um physische Skalierungsgrenzen zu überwinden.

AWS-Chef Matt Garman blieb bodenständiger. Viele KI-Projekte scheiterten weniger an der Technik als daran, dass Unternehmen vorab keine klaren Erfolgskriterien definierten. Fortschritte entstünden nicht durch einzelne clevere Experimente, sondern durch systematisch aufgebauten Kontext – etwa in Form von Daten, Prozessen und integriertem Fachwissen. Eine nüchterne Einsicht, die im Rauschen der großen Visionen beinahe unterging.

Die geopolitisch brisanteste Passage des Summits lieferte Intel-CEO Lip-Bu Tan. China habe den eingeschränkten Zugang zu High-End-GPUs genutzt, um eigene CPU- und GPU-Ökosysteme aufzubauen und technologische Abhängigkeiten systematisch abzubauen. Der westliche Vorsprung existiere noch, könne aber schrumpfen – auch durch gezielte Personalrekrutierung, etwa bei Huawei.

Tans eigentlicher Punkt ging darüber hinaus: Die Unterschiede im KI-Fortschritt seien weniger technologischer als regulatorischer Natur. Während in westlichen Demokratien der Ausbau von Energieinfrastruktur durch langwierige Genehmigungsverfahren gebremst werde, setze China politische Entscheidungen deutlich schneller in Bauvorhaben um. Anne Neuberger und Brett McGurk ergänzten diese Analyse aus sicherheitspolitischer Perspektive: Wenn demokratische Staaten ihre eigene KI-Entwicklung stark ausbremsten, während geopolitische Rivalen schneller skalierten, könne daraus ein realer strategischer Nachteil entstehen.

Jenseits der großen Erzählungen gab es zwei Bereiche, in denen die Veränderungen bereits greifbar sind. In der Softwareentwicklung berichteten mehrere Speaker von deutlich steigenden Anteilen KI-gestützter Codeerstellung. Microsofts CTO Kevin Scott konstatierte nüchtern, der Engpass habe sich verschoben – weg von der reinen Code-Erstellung hin zu Bewertung, Qualitätssicherung und der Frage, ob Software das „richtige“ Problem löst.

Mike Krieger von Anthropic beschrieb, wie sich die menschliche Rolle stärker auf Produktvision und Architektur verlagere, während Figma-CEO Dylan Field voraussagte, dass Designer perspektivisch produktive Codebasen direkt über Design-Oberflächen beeinflussen könnten.

Was auf dem Summit weitgehend ausblieb, war eine ehrliche Bilanz des vergangenen Jahres. Auch 2025 war als Durchbruchsjahr angekündigt worden. Wie viele der damaligen Versprechen wurden tatsächlich eingelöst? Wo blieben belastbare Zahlen zu Produktivitäts- oder ROI-Effekten, deren Erhebung selbst Befürworter wie Jensen Huang für verfrüht halten?

HUMAIN-CEO Tareq Amin sprach offen aus, dass die bisherigen Produktivitätsgewinne vielerorts begrenzt seien, weil KI häufig nur auf bestehende Legacy-Plattformen aufgesetzt werde. Sein Ansatz, ein komplett neues, von Grund auf KI-zentriertes Betriebssystem zu bauen, ist radikal gedacht – ob er praxistauglich ist, bleibt offen.

Ebenfalls auffällig: Der Begriff „Halluzination“ fiel kaum. Fragen des Vertrauens wurden zwar unter dem Label Sicherheit diskutiert, aber vor allem im Kontext von Cyberangriffen und Geopolitik – weniger im Hinblick auf KI-Systeme, die schlicht falsche oder irreführende Ergebnisse produzieren.

Der Cisco AI Summit 2026 war aufschlussreicher als viele vergleichbare Branchenevents – weniger wegen einzelner Visionen als wegen der Linien, die sich zwischen ihnen abzeichnen. Die Debatte verschiebt sich von der Frage „Was kann KI?“ hin zu „Wer verfügt über die Infrastruktur, um KI im großen Maßstab zu betreiben?“. Für Unternehmen, die heute KI-Strategien definieren, bleibt die Erkenntnis: Nicht die Modelle sind das größte Problem, sondern Energie, Daten, Integration – und der Mut, bestehende Prozesse grundlegend umzubauen. Wer die Interviews des Cisco AI Summits nachsehen möchte, findet sie thematisch einzeln aufbereitet hier.


(axk)



Source link

Weiterlesen

Beliebt