Connect with us

Künstliche Intelligenz

Der Aufstieg und Fall von Oculus: Wie Metas VR-Ambitionen einst begannen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Was 2009 als Bastelprojekt eines 17-Jährigen begann, entwickelte sich innerhalb weniger Jahre zum Katalysator eines neuen VR-Zeitalters. Oculus war mehr als nur ein Unternehmen – es war ein Symbol für die Wiedergeburt der Virtual Reality. Doch mit dem Einstieg von Facebook kam es zum Bruch mit der Community und namhaften Partnern, strategischen Kurswechseln und schließlich zum vollständigen Rückzug aller Gründer. Heute existiert die Marke Oculus nur noch als Teil von Metas VR-Gaming-Sparte und könnte aufgrund der kürzlich vorgenommenen Einsparungen bald komplett verschwinden. Was bleibt, ist eine Geschichte von Innovation, Konflikten, einem rasanten Wandel und dem Scheitern einer Vision.

Weiterlesen nach der Anzeige

Palmer Luckey war gerade einmal fünfzehn Jahre alt, als er sich erstmals mit VR-Hardware beschäftigte. Er analysierte alte Forschungsberichte, Militärpatente und medizinische VR-Systeme, bevor er sich gebrauchte Technik günstig auf eBay besorgte und selbst experimentierte. Mit siebzehn baute er den ersten VR-Prototyp, genannt „PR1“ – ein schwerer, unbequemer, aber funktionierender VR-Helm. Sein Ziel: eine erschwingliche, leistungsfähige VR-Brille für den Gaming-Markt.

Anfang 2012 war es dann so weit: Die sechste Generation seines Prototyps, mittlerweile „Oculus Rift“ genannt, war bereit für die Öffentlichkeit. Dazu gründete Luckey zusammen mit Programmierer Brendan Iribe, Softwarearchitekt Michael Antonov und Jack McCauley, der maßgeblich an der Entwicklung der „Guitar Hero“-Instrumente beteiligt war, das Start-up „Oculus VR“. Das Hobby-Projekt entwickelte sich schnell zu einem ernst zu nehmenden Tech-Start-up. Die entscheidende Personalie kam allerdings mit id-Software-Legende John Carmack.



Meta Quest mit Controllern.

(Bild: Meta)

Carmack war begeistert von Luckeys Prototyp und präsentierte das Gerät auf der E3 2012 mit einer VR-Version von „Doom 3“. Schnell entbrannte ein kleiner Hype in der Gaming-Szene und Oculus nutzte das Momentum für eine Kickstarter-Kampagne. Auch Valve-Gründer Gabe Newell empfahl öffentlich, die Kampagne zu unterstützen, und so sollten am 1. August 2012 insgesamt 250.000 US-Dollar eingesammelt werden. Binnen 36 Stunden stand die Summe und am Ende kamen über 2,4 Millionen Dollar von rund 9.500 Unterstützern zusammen. Die Begeisterung war riesig: Endlich schien VR nicht mehr nur ein Forschungs- und Tüftlerthema, sondern greifbar für Konsumenten. Carmack schloss sich 2013 Oculus als Chief Technology Officer an.

Bereits im März 2013 lieferte Oculus das erste Development Kit (DK1) aus, das zwar noch weit vom finalen Produkt entfernt war, aber Entwickelnden erstmals ermöglichte, eigene Spiele für VR umzusetzen. Kurz darauf folgte eine 16-Millionen-Dollar-Finanzierungsrunde und im Dezember 2013 kamen weitere 75 Millionen hinzu. Der Durchbruch sollte mit dem „Crystal Cove“-Prototyp gelingen, vorgestellt auf der CES 2014. Er bot erstmals Raumtracking und ein OLED-Display mit niedriger Latenz. Das war entscheidend, um Motion Sickness zu reduzieren, die ein gravierendes Problem vieler früher VR-Systeme darstellte. Im März 2014 begann der Vorverkauf des DK2. Oculus schloss Partnerschaften mit Unity und Epic Games, die ihre Engines kostenlos für Rift-Entwickler bereitstellten. Auch Valve teilte viel Know-how und Personal mit Oculus und glaubte an ein gemeinsames Ziel. Die VR-Welt war im Aufbruch.

Weiterlesen nach der Anzeige




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Am 25. März 2014 verkündete Facebook für viele überraschend die Übernahme von Oculus für rund zwei Milliarden US-Dollar. Mark Zuckerberg sprach von einer kommenden Plattform, die über Gaming hinaus neue Formen von Kommunikation, Bildung und Zusammenarbeit ermöglichen würde. Für den Social-Media-Milliardär sollte sich nun endlich der Traum einer eigenen und selbstkontrollierten Hardware erfüllen – sein ganz persönlicher iPhone-Moment. Zwölf Jahre später wissen wir, dass Zuckerbergs VR-Wette trotz Namensänderung und Milliarden-Investitionen nicht aufgegangen ist.

Die VR-Community war schon damals sofort gespalten. Viele Unterstützer waren in das Projekt „Oculus“ auch emotional investiert. Sie sahen sich als Teil einer Bewegung, an deren Spitze ein Tech-Wunderkind stand, das revolutionäre Technologie in seiner Garage entwickelte – für die Community und nicht für einen Tech-Konzern. Doch die Realität sah anders aus. Oculus war schon immer ein erfolgsorientiertes Unternehmen mit großem Potenzial, das auch abseits von Kickstarter Finanzspritzen erhielt. Eine Übernahme war also nur eine Frage der Zeit.

Nachdem das als sympathisch wahrgenommene Start-up allerdings Teil eines unbeliebten Konzerns wurde, der bis dato vor allem für Datensammlung und Plattformkontrolle bekannt war, fühlten sich viele Kickstarter-Unterstützer betrogen. Einer davon war Minecraft-Erfinder Markus Persson, der umgehend seine Gespräche mit Oculus über eine VR-Umsetzung seines Erfolgsspiels einstellte. Ein paar Monate später schluckte allerdings Microsoft sein Unternehmen und Minecraft erschien 2016 doch noch für die Oculus Rift. Die Übernahme führte auch zu einem Zerwürfnis mit Valve, das anschließend mit HTC zusammenarbeitete und ein paar Jahre später schließlich selbst die Valve Index veröffentlichte.

Trotz der Kritik ging die Produktentwicklung weiter und dank der Facebook-Milliarden auch deutlich schneller als geplant. Das erste kommerzielle Rift-Headset (CV1) erschien im März 2016 für 599 US-Dollar. Es bot 1080 × 1200 Pixel pro Auge, 90 Hz, 360-Grad-Tracking und erstmals die speziell für VR entwickelten Touch-Controller. Parallel arbeitete Oculus mit Samsung an Gear VR, einer günstigen Mobile-Lösung mit Galaxy-Smartphones als Basis. 2018 folgte die Oculus Go, die erstmals ganz ohne PC oder Smartphone funktionierte, allerdings nur drei Bewegungsgrade (3DoF) beherrschte.


Erste Oculus Rift VR-Brille neben Originalverpackung – frühes Virtual-Reality-Headset als Meilenstein der VR-Gaming-Geschichte.

Erste Oculus Rift VR-Brille neben Originalverpackung – frühes Virtual-Reality-Headset als Meilenstein der VR-Gaming-Geschichte.

Die erste Oculus Rift händigte Palmer Luckey dem ersten Vorbesteller persönlich aus.

(Bild: Palmer Luckey)

Ein Jahr später änderten Facebook und Oculus den Kurs: Mit der Quest erschien erstmals eine autarke VR-Brille mit 6-DoF-Tracking und Inside-Out-Kameras. Die Verbindung zu einem teuren Gaming-PC war nicht mehr nötig, womit eine weitere Einstiegshürde abgebaut werden konnte. Mit der Quest 2 senkte Meta 2020 den Preis auf 299 US-Dollar und verdoppelte die Leistung. Die Geräte verkauften sich millionenfach, auch dank Software wie „Beat Saber“, das noch heute die Liste der meistverkauften Quest-Spiele aller Zeiten anführt.

Seit der Facebook-Übernahme veränderte sich die Plattformphilosophie grundlegend. Aus einer relativ offenen Entwicklerplattform wurde ein kontrolliertes Ökosystem. Facebook verlangte zunehmend Exklusivverträge, schloss den Store für experimentelle Projekte und koppelte ab 2020 Oculus-Geräte an Facebook-Konten – ein Schritt, der zu einem zwischenzeitlichen Verkaufsstopp von Oculus-VR-Brillen in Deutschland führte.

Entwickler fühlten sich ausgeschlossen, Nutzer beklagten Datenschutzprobleme und Sideloading-Tools wie SideQuest entstanden, um Sperren zu umgehen. Oculus gründete unter Facebook eigene Studios und finanzierte exklusive Titel. Ab 2020 übernahm Facebook mehrere namhafte Entwicklerstudios, darunter Beat Games („Beat Saber“), Ready at Dawn („Lone Echo“), BigBox VR („Population: One“), Sanzaru Games („Asgard’s Wrath“) und Camouflaj („Iron Man VR“).

Lesen Sie auch

Ziel war eine stabile Pipeline an hochwertigen, exklusiven Inhalten für die Quest-Plattform. Im Laufe der Jahre sollten die Oculus Studios VR-Blockbuster wie „Asgard’s Wrath 2“, „Batman: Arkham Shadow“ oder „Marvel’s Deadpool VR“ hervorbringen. Storytelling-Versuche wie das Oculus Story Studio zeigten auch das Potenzial für VR-Filme, doch die Priorität verschob sich klar in Richtung Spiele.

Zwischen 2015 und 2021 verließen alle Oculus-Mitgründer das Unternehmen – ein schleichender Prozess, der die wachsende Kluft zwischen der ursprünglichen Vision und der neuen Konzernrealität offenbarte. Jack McCauley ging bereits kurz nach der Facebook-Übernahme desillusioniert von der neuen Unternehmensstruktur und den veränderten Prioritäten. Palmer Luckey, das Gesicht der Firma und Erfinder des ersten Prototyps, wurde 2017 entlassen. Der Auslöser war eine politische Kontroverse: Luckey hatte eine Pro-Trump-Gruppe namens „Nimble America“ finanziell unterstützt, die unter anderem Anti-Clinton-Memes verbreitete. Die Enthüllung führte zu massiver Kritik aus der Entwickler-Community, einige Studios drohten mit dem Boykott von Oculus-Produkten.

Facebook distanzierte sich, Luckey verschwand zunächst aus der Öffentlichkeit und schied schließlich aus dem Unternehmen aus. Er selbst sprach später von einem erzwungenen Abgang. Mittlerweile sind die Wogen geglättet und Luckey arbeitet mit seinem Rüstungsunternehmen Anduril wieder mit Meta zusammen. Brendan Iribe, CEO und einer der wichtigsten strategischen Köpfe hinter Oculus, verließ das Unternehmen 2018. Der Grund: Facebook hatte das ambitionierte Rift-2-Projekt eingestellt, an dem Iribe maßgeblich beteiligt war. Die Entscheidung signalisierte eine klare Verschiebung weg von High-End-PC-VR hin zu günstigeren, autarken Geräten wie der Quest.

Für Iribe, der an die Zukunft der PC-gebundenen Virtual Reality glaubte, war dies ein Bruch mit der ursprünglichen Produktphilosophie. Nate Mitchell, zuletzt Head of VR Product bei Facebook, ging 2021. Iribe und Mitchell arbeiten heute gemeinsam an einem KI-Projekt. Michael Antonov wechselte 2019 in die Biotech-Branche. Auch John Carmack, der 2013 als CTO zu Oculus gestoßen war und dem Unternehmen enorme Glaubwürdigkeit verliehen hatte, reduzierte ab 2019 seine Rolle auf eine beratende Funktion. 2022 verließ er Meta vollständig und kritisierte öffentlich die Ineffizienz des Konzerns. In einem internen Memo sprach er von „verschwendetem Potenzial“ und einer Organisation, die trotz enormer Ressourcen zu langsam vorankommt.

Ohne die ursprünglichen Köpfe hinter Oculus vollzog Facebook im Oktober 2021 einen radikalen Kurswechsel: Das Unternehmen benannte sich in Meta um und erklärte das „Metaverse“ zur zentralen Zukunftsvision. Mark Zuckerberg präsentierte in einer aufwendig inszenierten Keynote eine Welt voller virtueller Räume, in denen Menschen arbeiten, spielen und sich treffen sollten. Seine VR-Brillen sollten das Tor zu dieser neuen Realität werden. Doch die meisten Menschen schienen eher verwirrt von Zuckerbergs Visionen. Die Marke Oculus wurde im Zuge dessen schrittweise eingedampft. Aus Oculus Quest wurde Meta Quest, das Oculus-Logo verschwand von den Geräten, die eigenständige Oculus-App wurde in die Meta-Infrastruktur integriert. Was einst als unabhängiges Start-up begonnen hatte, war nun vollständig in den Konzern aufgegangen – nicht nur strukturell, sondern auch symbolisch.


Meta-Avatar in virtueller Umgebung mit Eiffelturm und Kathedrale – Beispiel für VR-Avatare und soziale Virtual-Reality-Welten.

Meta-Avatar in virtueller Umgebung mit Eiffelturm und Kathedrale – Beispiel für VR-Avatare und soziale Virtual-Reality-Welten.

Mit diesem Screenshot aus „Horizon Worlds“ tat sich Mark Zuckerberg 2022 keinen Gefallen.

(Bild: Mark Zuckerberg / Meta Platforms)

Zuckerbergs Metaverse-Strategie sollte enorme Ressourcen verschlingen. Allein 2022 investierte Meta über 13 Milliarden US-Dollar in seine Reality Labs, die Sparte für VR und AR. Doch die Ergebnisse blieben hinter den Erwartungen zurück. „Horizon Worlds“, Metas soziale VR-Plattform, kämpft seit jeher mit geringen Nutzerzahlen, technischen Problemen und einer wenig einladenden Ästhetik. Kritiker spotteten schon früh über die cartoonhaften Avatare ohne Beine, die eher an frühe Second-Life-Experimente erinnerten als an eine revolutionäre Online-Plattform. Statt einer offenen, kollaborativen VR-Welt entstand ein geschlossener Plattformansatz. Die ursprüngliche Vision der Oculus-Gründer – offene Standards, Entwicklerfreiheit, Community-Nähe – geriet immer weiter in den Hintergrund.

Meta kontrollierte Hardware, Software, Store und Inhalte. Die Verknüpfung mit Facebook- und später Meta-Konten wurde zur Pflicht, Datenschutzbedenken häuften sich. Entwickler beklagten intransparente Richtlinien und willkürliche Ablehnungen im App-Store und das erhoffte Branchenwachstum blieb auch mit verbesserten und günstigen Geräten wie der Meta Quest 3 und Quest 3S aus. Heute setzt Meta vor allem auf Künstliche Intelligenz und Smart Glasses, während Virtual Reality nur noch nebenherzulaufen scheint.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Oculus hat der Virtual Reality einst den Weg in die Gegenwart geebnet. Ohne Luckeys Pionierarbeit, Carmacks Unterstützung und die Begeisterung der frühen Unterstützer gäbe es viele Entwicklungen in der Branche heute womöglich gar nicht. Doch die Geschichte zeigt auch, wie schnell eine Idealvorstellung durch Konzernlogik ersetzt werden kann. Der kometenhafte Aufstieg von Oculus ist damit auch ein Lehrstück über die Risiken von Übernahmen im Tech-Sektor und missverstandenen und fehlgeleiteten Visionen. Mit den enormen Einsparungen in Metas VR-Gaming-Sparte und der Schließung zahlreicher Studios, dürfte es nur noch eine Frage der Zeit sein, bis auch das letzte Überbleibsel des einst so gefeierten Start-ups von der VR-Bildfläche verschwindet.


(joe)



Source link

Künstliche Intelligenz

LeakBase: Russland verhaftet den mutmaßlichen Betreiber des Datenleak-Forums


Die russische Polizei verhaftete am Mittwoch den mutmaßlichen Betreiber des Cybercrime-Forums LeakBase. Das meldete die staatliche russische Nachrichtenagentur TASS mit Verweise auf russische Strafverfolgungsbehörden.

Weiterlesen nach der Anzeige

Der Festgenommene aus der südrussischen Hafenstadt Taganrog am Asowschen Meer, unweit der Grenze zur Ukraine, steht laut den Behörden im Verdacht, „eine der größten internationalen Hackerplattformen, LeakBase“, betrieben zu haben. Dem TASS-Bericht zufolge erklärte eine Sprecherin des russischen Innenministeriums, dass Beamte des Büros für besondere technische Maßnahmen des Innenministeriums zusammen mit Kollegen aus der Region Rostow den Einwohner von Taganrog, dessen Name nicht veröffentlicht wurde, wegen des Verdachts der Erstellung und des Betriebs einer der größten internationalen Cyberkriminalitätsplattformen festgenommen haben.

Europäische Ermittlungsbehörden waren nicht involviert. „Wir kooperieren nicht mit russischen Behörden und waren an der gemeldeten Verhaftung nicht beteiligt“, sagte Europol-Sprecherin Claire Georges gegenüber dem US-amerikanischen Tech-Portal TechCrunch, das über die Festnahme mit Verweis auf TASS berichtete.

Mit mehr als 142.000 Mitgliedern galt die LeakBase-Datenbank als eines der weltweit größten Online-Foren für Cyberkriminelle zum Kauf und Verkauf gestohlener Daten und Tools für Cyberangriffe. Ermittlungsbehörden aus 14 Ländern, darunter Deutschland, unter Leitung von Europol schalteten LeakBase Anfang März ab und beschlagnahmten die dazugehörigen Domains. Mehrere Personen wurden bei den Razzien in mehreren Ländern festgenommen.

Das seit 2021 aktive und öffentlich zugängliche englischsprachige Forum LeakBase verfügte nach Angaben der Ermittler über ein ständig aktualisiertes Archiv gestohlener Datenbanken mit Hunderten Millionen Zugangsdaten. Die Plattform ermöglichte es Usern, Informationen aus diesen gestohlenen Datenbanken zu verkaufen, darunter Kredit- und Debitkartennummern und sensible Geschäfts- und personenbezogene Daten.


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten


Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.

Weiterlesen nach der Anzeige

Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.

Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.

Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.

Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.

Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.

Weiterlesen nach der Anzeige

Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.

Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.

Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.

Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.

Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.

In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.

Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.

Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.

Lesen Sie auch


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Prozess um Social-Media-Sucht: US-Jury spricht Meta und Google schuldig


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In einem wegweisenden Prozess um Social-Media-Sucht hat eine Jury in Los Angeles die US-Konzerne Google und Meta zu Schadensersatz in Höhe von drei Millionen US-Dollar verurteilt. Die Schadensersatzsumme könnte sich im Nachgang noch erhöhen. Vor allem aber dürfte das Verdikt richtungsweisend für Tausende ähnlicher Verfahren gegen Tech-Unternehmen sein.

Weiterlesen nach der Anzeige

Nach neun Verhandlungstagen entschieden die kalifornischen Geschworenen, dass Googles YouTube und Metas Instagram bei der Gestaltung oder dem Betrieb ihrer Plattformen fahrlässig gehandelt hätten. Die Fahrlässigkeit der beiden Unternehmen sei zudem ein wesentlicher Faktor für den von der Klägerin geltend gemachten Schaden. Das berichtete am Mittwoch unter anderem die US-amerikanische Nachrichtenagentur Associated Press (AP).

Geklagt hatte eine heute 20-jährige Frau, die in dem Verfahren nur unter den Initialen KGM auftrat. Sie gab an, durch die Nutzung sozialer Medien und aufgrund der speziellen Designs von YouTube und Instagram in jungen Jahren süchtig geworden zu sein und ihre psychischen Probleme hätten sich verschlimmert. Die Frau fing nach eigenen Angaben bereits als Kind an, die Plattformen zu nutzen. Dies habe zu Depressionen und Angstzuständen geführt. Die Online-Plattformen hätten ihre Dienste extra so gestaltet, dass Nutzer danach süchtig werden, argumentierte sie. Dabei geht es zum Beispiel um die Funktion, bei der man immer zum nächsten Beitrag weiterscrollen kann, sogenanntes „unendliches Scrollen“.

Meta argumentierte in dem Verfahren, dass die Klägerin unabhängig von ihrer Social-Media-Nutzung mit psychischen Problemen zu kämpfen hatte. Keiner ihrer Therapeuten habe Social Media als Ursache ihrer psychischen Probleme identifiziert. Die Klägerin musste laut AP jedoch nicht beweisen, dass Social Media ihre Probleme verursacht habe – es genügte, dass es ein „wesentlicher Faktor“ für ihren Schaden war. Die YouTube-Anwälte argumentierten wiederum, dass YouTube keine Form von Social Media, sondern eine Videoplattform ähnlich dem Fernsehen sei. Sie verwiesen auf den abnehmenden YouTube-Konsum mit zunehmendem Alter der Klägerin. Die Anwälte beider Plattformen verwiesen zudem auf die Sicherheitsfunktionen, die Nutzern zur Verfügung stehen, um die eigene Nutzung zu überwachen und anzupassen.

Zehn der zwölf Geschworenen jedoch erachteten die Argumente der Klägerseite für plausibel und hielten die Plattformen für haftbar. Meta und YouTube wussten, dass die Gestaltung bzw. Funktionsweise ihrer Plattformen gefährlich war und Minderjährige durch die Nutzung wahrscheinlich gefährdet sein würden, so das Urteil. Auch hätten die Plattformen nicht ausreichend vor der Gefahr gewarnt, was den Schaden der Klägerin zusätzlich vergrößert habe, beschieden die Geschworenen. Ihrer Ansicht nach trägt Meta mit 70 Prozent den größeren Teil der Verantwortung, YouTube die übrigen 30 Prozent. TikTok und Snapchat, die ebenfalls verklagt worden waren, hatten noch vor Prozessbeginn eine außergerichtliche Einigung geschlossen.

Die Klägerseite zeigte sich naturgemäß erfreut über das Urteil der Geschworenen. „Das heutige Urteil ist ein Referendum – von einer Jury an eine ganze Branche –, dass Verantwortlichkeit nun Realität ist“, erklärte der Hauptanwalt der Klägerseite in einer Stellungnahme. Die Anwälte von Meta dagegen erklärten, die rechtlichen Möglichkeiten für einen Einspruch gegen das Urteil zu prüfen, so ein Unternehmenssprecher gegenüber der Nachrichtenagentur Reuters. Google gab zunächst keinen Kommentar ab.

Weiterlesen nach der Anzeige

Das Urteil gilt Beobachtern als Präzedenzfall für Tausende ähnlicher Klagen gegen Social-Media-Unternehmen, in denen es um die Sicherheit von Kindern und Jugendlichen geht und die Frage, ob die Unternehmen ihre Nutzer süchtig machen und Inhalte verbreiten, die zu Depressionen, Essstörungen oder Suizid führen. Der US-Kongress hat es nach Angaben von Reuters abgelehnt, ein umfassendes Gesetz zur Regulierung sozialer Medien zu verabschieden, weshalb sich die Debatte auf Gerichte und die Regierungen der Bundesstaaten verlagert habe. Immer mehr US-Bundesstaaten erlassen Gesetze zum Umgang mit sozialen Medien durch Kinder. Diese Gesetze beinhalten unter anderem Regelungen zur Handynutzung in Schulen und verpflichten Nutzer zur Altersverifizierung bei der Eröffnung eines Social-Media-Kontos.

Strengere Regeln für die Social-Media-Nutzung von Minderjährigen werden nach dem australischen Social-Media-Verbot für unter16-Jährige auch in Deutschland verstärkt diskutiert. Die Bundes-CDU beschloss im Februar, ein Mindestalter von 14 für soziale Medien wie TikTok und Instagram zum Schutz von Kindern und Jugendlichen einführen zu wollen. Auch Koalitionspartner SPD zeigt sich offen für ein Social-Media-Verbot für Kinder unter 14. Bundesbildungsministerin Karin Prien erwartet derweil rasch europäische Vorschriften für Tech-Konzerne, um den Zugang von Kindern und Jugendlichen zu sozialen Medien einzuschränken.


(akn)



Source link

Weiterlesen

Beliebt