Künstliche Intelligenz
Studie: KI-Modell „Delphi-2M“ sagt Krankheitsrisiken voraus
Ein Team von Forschern aus England, Dänemark und der Universität Heidelberg hat ein KI-Modell entwickelt, das Erkrankungsrisiken für mehr als 1000 Krankheiten vorhersagen können soll – und das nicht nur für Einzelpersonen, sondern auch für ganze Bevölkerungsgruppen. Das System namens Delphi-2M (mit zwei Millionen Parametern) basiert auf einer Transformer-Architektur, wie sie auch in großen Sprachmodellen zum Einsatz kommt.
Bisherige Systeme beschränkten sich meist auf einzelne Krankheiten. Delphi-2M dagegen soll simultan Muster über viele Diagnosen hinweg erkennen und sogenannte „health trajectories“ – also individuelle Krankheitsverläufe – prognostizieren. Die Modellierung reicht laut den Forschenden bis zu 20 Jahre in die Zukunft. Veröffentlicht wurden die Ergebnisse in der Fachzeitschrift Nature.
Krankheitstrajektorien von Delphi‑2M, die typische Verläufe einzelner Diagnosen bis zum Tod veranschaulichen sollen.
(Bild: Shmatko et al.)
Trainiert wurde Delphi-2M mit klinischen Daten von 400.000 Patientinnen und Patienten aus der britischen UK Biobank, darunter auch Faktoren wie Body-Mass-Index oder Konsumgewohnheiten. Für die Validierung griff das Team auf ein dänisches Register mit 1,9 Millionen Personen zurück. Erste Tests zeigen: Beim Risiko für Herzinfarkte, bestimmte Tumoren oder Mortalität lieferte das System ähnlich verlässliche Vorhersagen wie spezialisierte Modelle. Delphie‑2M erreicht im Schnitt einen C-Index – mit der Vorhersagemodelle bewertet werden – von ungefähr 0,85 im 5‑Jahres-Zeitraum.
Grenzen hat die Technik dort, wo Krankheitsbilder komplex, unregelmäßig oder selten sind, etwa bei psychischen Störungen oder Schwangerschaftskomplikationen. Das liegt beispielsweise daran, dass es zu seltenen Erkrankungen weniger Trainingsdaten gibt. Hinzu kommt, dass die Trainingsdaten bisher nicht repräsentativ für die Gesamtbevölkerung sind, da die UK Biobank vor allem Daten älterer und britischer Teilnehmender enthält.
„Wir reden hier noch von Zukunftsmusik. Der Weg in die konkrete medizinische Anwendung ist meist länger, als man denkt. Bei allen Potenzialen dürfen wir uns nicht in eine KI-gestützte Glaskugelschau verrennen – auch die besten Modelle erkennen Muster, aber sie sagen keine Zukunft voraus. Für Patienten muss klar sein: solche Prognosen sind keine Schicksalsurteile. Sie können aber Anhaltspunkte für Präventions- oder Therapieentscheidungen geben“, schätzt dazu Prof. Robert Ranisch ein, Juniorprofessor für Medizinische Ethik mit Schwerpunkt auf Digitalisierung von der Universität Potsdam. Wichtig sei zudem, „dass der Einsatz solcher Modelle den Entscheidungsspielraum der Patienten nicht einengt. Ihre Autonomie im Jetzt darf nicht einem Behandlungsregime untergeordnet werden, das allein auf zukünftige Gesundheit ausgerichtet ist. Selbst wo dies nicht geschieht, bliebe doch eine gewisse Nötigung, sich zu prognostizierten Zukünften zu verhalten. Entscheidend bleibt deshalb auch ein Recht auf Nichtwissen.“
Begehrlichkeiten bei Versicherungen oder Arbeitgebern
„Gleichzeitig ist zu befürchten, dass solche KI-Modelle falsche Begehrlichkeiten wecken – etwa bei Versicherungen oder Arbeitgebern, besonders über Deutschland hinaus. Dann geht es weniger darum, ob die Vorhersagen tatsächlich belastbar sind, sondern um die Illusion einer exakten Berechenbarkeit. Diese kann dazu führen, dass Menschen ungerechtfertigt benachteiligt werden. Deshalb müssen wir sehr genau überlegen, wo wir solche Modelle im Gesundheitssystem einsetzen wollen“, gibt Ranisch zu bedenken. Ethik und Recht würden sich „bisher oft an binären Kategorien von gesund oder krank“ orientieren, oft seien in der „digitalen und präventiven Medizin […] Graustufen entscheidend“. Zudem wirft Ranisch weitere Fragen auf, was es bedeute, wenn gesunde Menschen in ein Muster „bald Kranker“ passen, oder wie Gesundheitsinformationen geschützt werden sollen, „wenn plötzlich eine Vielzahl persönlicher Daten für KI-Prognosen relevant“ werden.
„Bei der Frage, wer und wie die Technologie zum Einsatz kommen sollte, ist zwischen zwei Fällen zu unterscheiden: Dem Einsatz, um Entwicklungen im gesamten Gesundheitssystem abzuschätzen, und der Einsatz, um Aussagen über Individuen zu treffen“, erklärt dazu PD Dr. Markus Herrmann, Leiter des Bereichs KI-Ethik am Institut für Medizin- und Datenethik an der Universität Heidelberg. Ersteres wäre vergleichsweise unproblematisch, bei letzterem müsse bedacht werden, dass der Menschen auch ein Recht auf „Nicht-Wissen“ habe – also ein Recht darauf, „sein Leben nicht in Sorge oder gar Angst vor drohender Krankheit zu führen“.
(mack)
Künstliche Intelligenz
Google-Suche unterdrückt bald mehr unerwünschte Intimfotos
Intimdarstellungen, die ohne Zustimmung eines Abgebildeten online gestellt werden, sollen schwerer auffindbar werden. Dazu kooperiert Google fortan mit der britischen Revenge Porn Helpline. Auf deren Webseite StopNCII.org registrierte Aufnahmen sollen nicht länger in Googles Suchergebnissen auftauchen. Umgesetzt werden soll das in den kommenden Monaten.
Schon bisher betreibt Google selbst eine Webpage, über die Betroffene die Zensur sie betreffender Informationen beantragen können. Dabei geht es um Nacktbilder, sexuelles Material, personenbezogene Informationen, Inhalte erpresserischer Webseiten sowie generell Darstellungen Minderjähriger, auch wenn sie nicht in intimen oder kompromittierenden Situationen zu sehen sind. Dortige Registrierungen können sich aber nur bei Google auswirken.
StopNCII (Non-Consensual Intimate Images) sammelt Hashes intimer Fotos oder Videos, von denen jemand behauptet, ohne Zustimmung dargestellt zu sein. Deepfakes werden wie echte Darstellungen behandelt. Die Hashes teilt StopNCII mit mehreren Partnern, darunter Meta Platforms, Microsoft, Onlyfans, Pornhub, Reddit, Snap und Tiktok. Alle Partner versprechen, registrierte Fotos oder Videos nicht mehr zu zeigen. Jetzt stößt auch Google hinzu.
Mindestalter 18
Allerdings erlaubt StopNCII keine Hashes der Darstellungen Minderjähriger, es gilt ein Mindestalter von 18 Jahren im Zeitpunkt der Ablichtung. Bei KI-generierten Darstellungen muss die gezeigte Person mindestens 18 Jahre alt erscheinen. Wer von einer Abbildung als Minderjähriger betroffen ist, soll sich an das Projekt Take It Down des britischen National Center for Missing and Exploited Children (NCMEC) wenden.
Vorbeugung gegen Missbrauch der Missbrauchsbekämpfung gibt es bei StopNCII, soweit ersichtlich, keine. Erotikwebseitenbetreiber könnten etwa versuchen, die Verbreitung von Konkurrenzbildern zu unterdrücken. Der Upload der Hashes erfolgt anonym, die Darstellungen selbst erhält StopNCII nie. Damit kann der Dienst nicht überprüfen, ob der Anzeigende wirklich dargestellt und betroffen ist.
(ds)
Künstliche Intelligenz
Meta enthüllt Ray-Ban Display: Smart Glasses mit Bildschirm und sEMG-Armband
Neben der zweiten Generation seiner Meta Ray-Ban und den neuen Meta Oakley Vanguard speziell für Sportler hat Meta Platforms ein weiteres, ebenfalls komplett neues Modell eigener Smart Glasses vorgestellt. Die Meta Ray-Ban Display verfügen über einen im rechten Glas integrierten kleinen Bildschirm für Apps und Benachrichtigungen. Gesteuert wird dies über ein Armband namens Neural Band, das kleine Bewegungen der Hand und des Handgelenks erkennt, die per KI-Modell in Befehle umgesetzt werden.
Meta Ray-Ban Display mit Neural Band und Hand-Symbol
(Bild: Meta)
Die Erforschung eines solchen sEMG-Armbands, mit dem das Handgelenk zur Computerschnittstelle wird, hatte Meta bereits im Juli veröffentlicht. Es erkennt frei in der Luft ausgeführte Pinch-, Tap- und Swipe-Gesten, erlaubt die Steuerung eines eindimensionalen Cursors durch Handgelenksbewegungen und ermöglicht das Schreiben von Wörtern, indem Nutzer mit dem Zeigefinger Buchstaben auf einer festen Oberfläche nachzeichnen. Mark Zuckerberg demonstrierte dies nun während der Präsentation zu Metas Connect-Veranstaltung.
Live-Demo mit Schwierigkeiten
Die Künstliche Intelligenz (KI) des Datenkonzerns, Meta AI, ist ebenfalls essenziell zur Steuerung der Ray-Ban Display. Der integrierte KI-Assistent interpretiert nicht nur die Handbewegungen, sondern kann natürlich auch auf Sprachbefehle reagieren. Während der Live-Demonstration der Smart Glasses gelang es Zuckerberg allerdings nicht, die KI dazu zu bewegen, einen Videoanruf anzunehmen. Zudem misslang es einem live zugeschalteten Koch, Meta AI dazu zu bringen, zu erklären, welchen Schritt man für die Zubereitung eines Gerichts zuerst angehen soll. Die Beteiligten machten schlechtes WLAN dafür verantwortlich.
Mark Zuckerberg zeigt Meta Ray-Ban Display
(Bild: Facebook-Video)
Im Bildschirm der Meta Ray-Ban Display werden etwa WhatsApp-Chats eingeblendet, aber man kann sich auch mit der Brille geschossene Fotos ansehen, bevor man sie versendet oder postet. Ebenfalls möglich ist das Transkribieren persönlicher Konversationen, also das Einblenden von Untertiteln eines Gesprächs. Navigation und Echtzeit-Übersetzungen sind weitere Funktionen dieser Smart Glasses.
Preislich bestätigte Zuckerberg frühere Berichte, dass Metas erste Smart Glasses mit Display günstiger werden als gedacht. Die Meta Ray-Ban Display sollen einschließlich des Neural Bands ab 30. September für 799 US-Dollar erhältlich sein.
(fds)
Künstliche Intelligenz
Meta Oakley Vanguard – des Sportlers neues Must-have
Rennradfahrer bekommen ein neues Must-have. Die Meta Oakley Vanguard ist eine smarte Brille für Sportler. Mit 549 Euro ist sie kein Schnäppchen, garantiert steht es um die Haltbarkeit aber besser als bei so mancher Radlerhose, die schnell mal durchgescheuert ist – und die auch ein Sümmchen kostet. Den Funktionsumfang bezeichnet Meta als Athletic Intelligence.
Die Vanguard kommt als KI-Brille und wird mit Meta AI verbunden, wie auch die bisherigen Brillenmodelle von Meta. Sie ist mit einer mittigen 12-Megapixel-Kamera (122 Grad Weitwinkel) im Steg für eine verbesserte Ich-Perspektive ausgestattet und kann Videos in 3K aufnehmen. Auch Slow-Motion-Videos und Hyperlapse sind möglich.
(Bild: emw)
Außerdem ist die Vanguard wasserfest. Meta sagt, Tiefseetauchen wär zu viel des Guten, im kleinen Pool ist alles möglich (entspricht IP67). Auch Schweiß soll der Brille nichts anhaben können. Die Nasenflügel bekommen bei zunehmender Feuchtigkeit sogar noch mehr Grip. Sie werden in drei Größen mitgeliefert.
Das klassische, sportive Visier gibt es in verschiedenen Farben, ebenso das Gestell. Die rot getönten Gläser können helfen, Objekte besser zu erkennen. Wer nicht Rennrad fährt, sondern etwa Ski oder Snowboard, tut gut an dem weißen Gestell mit goldenem Glas für Kontraste im Schnee.
Vanguard lässt sich mit Garmin und Strava verknüpfen
Die Vanguard lässt sich mit anderen Geräten und Systemen verknüpfen, konkret Garmin und Strava. Diese lassen sich dann auch via Meta AI per Sprache steuern. Man kann also beispielsweise Meta AI fragen, wie es aktuell um den eigenen Puls steht. Wer seine Brille mit Garmin Connect, Apple Health oder Health Connect von Android verbindet, bekommt Aktivitätszusammenfassungen direkt in die Meta-AI-App geschickt.
(Bild: emw)
Sobald die Brille eine Besonderheit feststellt, reagiert sie mit der Aktivierung der Kamera. So bleiben die Hände frei. Sollte man die Knöpfe doch selbst drücken wollen, befinden sich diese nun am unteren Rand der Bügel. Oben stört bisher nämlich der Helm.
Die Vanguard ist deutlich geräuschempfindlicher als ihre Vorgänger und kann zugleich viel mehr Umgebungsgeräusche wegfiltern. Auch bei mehr als 30 Kilometern pro Stunde und Verkehr daneben kann man so noch Musik hören oder mit Mutti telefonieren. Es sind sechs Dezibel mehr Lautstärke als bei der Meta Oakley HSTN möglich.
Insgesamt sind bis zu neun Stunden Batterielaufzeit möglich, sechs Stunden, wenn man durchgängig Musik hört. Das Ladecase reicht für weitere 36 Stunden Akkulaufzeit. 20 Minuten darin reichen für eine zur Hälfte aufgeladene Brille.
Auch wenn sich die Vanguard ganz deutlich an Hobby- und Profisportler richtet, ist das Aussehen potenziell auch was für den Streetstyle.
Transparenzhinweis: Die Autorin wurde von Meta zu einer Preview der Meta Oakley Vanguard eingeladen. Meta hat die Reisekosten übernommen. Vorgaben zur Art und zum Umfang unserer Berichterstattung gab es nicht.
(emw)
-
UX/UI & Webdesignvor 4 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 3 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 4 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 4 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 2 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Tagen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier