Connect with us

Künstliche Intelligenz

Der Aufstieg und Fall von Oculus: Wie Metas VR-Ambitionen einst begannen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Was 2009 als Bastelprojekt eines 17-Jährigen begann, entwickelte sich innerhalb weniger Jahre zum Katalysator eines neuen VR-Zeitalters. Oculus war mehr als nur ein Unternehmen – es war ein Symbol für die Wiedergeburt der Virtual Reality. Doch mit dem Einstieg von Facebook kam es zum Bruch mit der Community und namhaften Partnern, strategischen Kurswechseln und schließlich zum vollständigen Rückzug aller Gründer. Heute existiert die Marke Oculus nur noch als Teil von Metas VR-Gaming-Sparte und könnte aufgrund der kürzlich vorgenommenen Einsparungen bald komplett verschwinden. Was bleibt, ist eine Geschichte von Innovation, Konflikten, einem rasanten Wandel und dem Scheitern einer Vision.

Weiterlesen nach der Anzeige

Palmer Luckey war gerade einmal fünfzehn Jahre alt, als er sich erstmals mit VR-Hardware beschäftigte. Er analysierte alte Forschungsberichte, Militärpatente und medizinische VR-Systeme, bevor er sich gebrauchte Technik günstig auf eBay besorgte und selbst experimentierte. Mit siebzehn baute er den ersten VR-Prototyp, genannt „PR1“ – ein schwerer, unbequemer, aber funktionierender VR-Helm. Sein Ziel: eine erschwingliche, leistungsfähige VR-Brille für den Gaming-Markt.

Anfang 2012 war es dann so weit: Die sechste Generation seines Prototyps, mittlerweile „Oculus Rift“ genannt, war bereit für die Öffentlichkeit. Dazu gründete Luckey zusammen mit Programmierer Brendan Iribe, Softwarearchitekt Michael Antonov und Jack McCauley, der maßgeblich an der Entwicklung der „Guitar Hero“-Instrumente beteiligt war, das Start-up „Oculus VR“. Das Hobby-Projekt entwickelte sich schnell zu einem ernst zu nehmenden Tech-Start-up. Die entscheidende Personalie kam allerdings mit id-Software-Legende John Carmack.



Meta Quest mit Controllern.

(Bild: Meta)

Carmack war begeistert von Luckeys Prototyp und präsentierte das Gerät auf der E3 2012 mit einer VR-Version von „Doom 3“. Schnell entbrannte ein kleiner Hype in der Gaming-Szene und Oculus nutzte das Momentum für eine Kickstarter-Kampagne. Auch Valve-Gründer Gabe Newell empfahl öffentlich, die Kampagne zu unterstützen, und so sollten am 1. August 2012 insgesamt 250.000 US-Dollar eingesammelt werden. Binnen 36 Stunden stand die Summe und am Ende kamen über 2,4 Millionen Dollar von rund 9.500 Unterstützern zusammen. Die Begeisterung war riesig: Endlich schien VR nicht mehr nur ein Forschungs- und Tüftlerthema, sondern greifbar für Konsumenten. Carmack schloss sich 2013 Oculus als Chief Technology Officer an.

Bereits im März 2013 lieferte Oculus das erste Development Kit (DK1) aus, das zwar noch weit vom finalen Produkt entfernt war, aber Entwickelnden erstmals ermöglichte, eigene Spiele für VR umzusetzen. Kurz darauf folgte eine 16-Millionen-Dollar-Finanzierungsrunde und im Dezember 2013 kamen weitere 75 Millionen hinzu. Der Durchbruch sollte mit dem „Crystal Cove“-Prototyp gelingen, vorgestellt auf der CES 2014. Er bot erstmals Raumtracking und ein OLED-Display mit niedriger Latenz. Das war entscheidend, um Motion Sickness zu reduzieren, die ein gravierendes Problem vieler früher VR-Systeme darstellte. Im März 2014 begann der Vorverkauf des DK2. Oculus schloss Partnerschaften mit Unity und Epic Games, die ihre Engines kostenlos für Rift-Entwickler bereitstellten. Auch Valve teilte viel Know-how und Personal mit Oculus und glaubte an ein gemeinsames Ziel. Die VR-Welt war im Aufbruch.

Weiterlesen nach der Anzeige




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Am 25. März 2014 verkündete Facebook für viele überraschend die Übernahme von Oculus für rund zwei Milliarden US-Dollar. Mark Zuckerberg sprach von einer kommenden Plattform, die über Gaming hinaus neue Formen von Kommunikation, Bildung und Zusammenarbeit ermöglichen würde. Für den Social-Media-Milliardär sollte sich nun endlich der Traum einer eigenen und selbstkontrollierten Hardware erfüllen – sein ganz persönlicher iPhone-Moment. Zwölf Jahre später wissen wir, dass Zuckerbergs VR-Wette trotz Namensänderung und Milliarden-Investitionen nicht aufgegangen ist.

Die VR-Community war schon damals sofort gespalten. Viele Unterstützer waren in das Projekt „Oculus“ auch emotional investiert. Sie sahen sich als Teil einer Bewegung, an deren Spitze ein Tech-Wunderkind stand, das revolutionäre Technologie in seiner Garage entwickelte – für die Community und nicht für einen Tech-Konzern. Doch die Realität sah anders aus. Oculus war schon immer ein erfolgsorientiertes Unternehmen mit großem Potenzial, das auch abseits von Kickstarter Finanzspritzen erhielt. Eine Übernahme war also nur eine Frage der Zeit.

Nachdem das als sympathisch wahrgenommene Start-up allerdings Teil eines unbeliebten Konzerns wurde, der bis dato vor allem für Datensammlung und Plattformkontrolle bekannt war, fühlten sich viele Kickstarter-Unterstützer betrogen. Einer davon war Minecraft-Erfinder Markus Persson, der umgehend seine Gespräche mit Oculus über eine VR-Umsetzung seines Erfolgsspiels einstellte. Ein paar Monate später schluckte allerdings Microsoft sein Unternehmen und Minecraft erschien 2016 doch noch für die Oculus Rift. Die Übernahme führte auch zu einem Zerwürfnis mit Valve, das anschließend mit HTC zusammenarbeitete und ein paar Jahre später schließlich selbst die Valve Index veröffentlichte.

Trotz der Kritik ging die Produktentwicklung weiter und dank der Facebook-Milliarden auch deutlich schneller als geplant. Das erste kommerzielle Rift-Headset (CV1) erschien im März 2016 für 599 US-Dollar. Es bot 1080 × 1200 Pixel pro Auge, 90 Hz, 360-Grad-Tracking und erstmals die speziell für VR entwickelten Touch-Controller. Parallel arbeitete Oculus mit Samsung an Gear VR, einer günstigen Mobile-Lösung mit Galaxy-Smartphones als Basis. 2018 folgte die Oculus Go, die erstmals ganz ohne PC oder Smartphone funktionierte, allerdings nur drei Bewegungsgrade (3DoF) beherrschte.


Erste Oculus Rift VR-Brille neben Originalverpackung – frühes Virtual-Reality-Headset als Meilenstein der VR-Gaming-Geschichte.

Erste Oculus Rift VR-Brille neben Originalverpackung – frühes Virtual-Reality-Headset als Meilenstein der VR-Gaming-Geschichte.

Die erste Oculus Rift händigte Palmer Luckey dem ersten Vorbesteller persönlich aus.

(Bild: Palmer Luckey)

Ein Jahr später änderten Facebook und Oculus den Kurs: Mit der Quest erschien erstmals eine autarke VR-Brille mit 6-DoF-Tracking und Inside-Out-Kameras. Die Verbindung zu einem teuren Gaming-PC war nicht mehr nötig, womit eine weitere Einstiegshürde abgebaut werden konnte. Mit der Quest 2 senkte Meta 2020 den Preis auf 299 US-Dollar und verdoppelte die Leistung. Die Geräte verkauften sich millionenfach, auch dank Software wie „Beat Saber“, das noch heute die Liste der meistverkauften Quest-Spiele aller Zeiten anführt.

Seit der Facebook-Übernahme veränderte sich die Plattformphilosophie grundlegend. Aus einer relativ offenen Entwicklerplattform wurde ein kontrolliertes Ökosystem. Facebook verlangte zunehmend Exklusivverträge, schloss den Store für experimentelle Projekte und koppelte ab 2020 Oculus-Geräte an Facebook-Konten – ein Schritt, der zu einem zwischenzeitlichen Verkaufsstopp von Oculus-VR-Brillen in Deutschland führte.

Entwickler fühlten sich ausgeschlossen, Nutzer beklagten Datenschutzprobleme und Sideloading-Tools wie SideQuest entstanden, um Sperren zu umgehen. Oculus gründete unter Facebook eigene Studios und finanzierte exklusive Titel. Ab 2020 übernahm Facebook mehrere namhafte Entwicklerstudios, darunter Beat Games („Beat Saber“), Ready at Dawn („Lone Echo“), BigBox VR („Population: One“), Sanzaru Games („Asgard’s Wrath“) und Camouflaj („Iron Man VR“).

Lesen Sie auch

Ziel war eine stabile Pipeline an hochwertigen, exklusiven Inhalten für die Quest-Plattform. Im Laufe der Jahre sollten die Oculus Studios VR-Blockbuster wie „Asgard’s Wrath 2“, „Batman: Arkham Shadow“ oder „Marvel’s Deadpool VR“ hervorbringen. Storytelling-Versuche wie das Oculus Story Studio zeigten auch das Potenzial für VR-Filme, doch die Priorität verschob sich klar in Richtung Spiele.

Zwischen 2015 und 2021 verließen alle Oculus-Mitgründer das Unternehmen – ein schleichender Prozess, der die wachsende Kluft zwischen der ursprünglichen Vision und der neuen Konzernrealität offenbarte. Jack McCauley ging bereits kurz nach der Facebook-Übernahme desillusioniert von der neuen Unternehmensstruktur und den veränderten Prioritäten. Palmer Luckey, das Gesicht der Firma und Erfinder des ersten Prototyps, wurde 2017 entlassen. Der Auslöser war eine politische Kontroverse: Luckey hatte eine Pro-Trump-Gruppe namens „Nimble America“ finanziell unterstützt, die unter anderem Anti-Clinton-Memes verbreitete. Die Enthüllung führte zu massiver Kritik aus der Entwickler-Community, einige Studios drohten mit dem Boykott von Oculus-Produkten.

Facebook distanzierte sich, Luckey verschwand zunächst aus der Öffentlichkeit und schied schließlich aus dem Unternehmen aus. Er selbst sprach später von einem erzwungenen Abgang. Mittlerweile sind die Wogen geglättet und Luckey arbeitet mit seinem Rüstungsunternehmen Anduril wieder mit Meta zusammen. Brendan Iribe, CEO und einer der wichtigsten strategischen Köpfe hinter Oculus, verließ das Unternehmen 2018. Der Grund: Facebook hatte das ambitionierte Rift-2-Projekt eingestellt, an dem Iribe maßgeblich beteiligt war. Die Entscheidung signalisierte eine klare Verschiebung weg von High-End-PC-VR hin zu günstigeren, autarken Geräten wie der Quest.

Für Iribe, der an die Zukunft der PC-gebundenen Virtual Reality glaubte, war dies ein Bruch mit der ursprünglichen Produktphilosophie. Nate Mitchell, zuletzt Head of VR Product bei Facebook, ging 2021. Iribe und Mitchell arbeiten heute gemeinsam an einem KI-Projekt. Michael Antonov wechselte 2019 in die Biotech-Branche. Auch John Carmack, der 2013 als CTO zu Oculus gestoßen war und dem Unternehmen enorme Glaubwürdigkeit verliehen hatte, reduzierte ab 2019 seine Rolle auf eine beratende Funktion. 2022 verließ er Meta vollständig und kritisierte öffentlich die Ineffizienz des Konzerns. In einem internen Memo sprach er von „verschwendetem Potenzial“ und einer Organisation, die trotz enormer Ressourcen zu langsam vorankommt.

Ohne die ursprünglichen Köpfe hinter Oculus vollzog Facebook im Oktober 2021 einen radikalen Kurswechsel: Das Unternehmen benannte sich in Meta um und erklärte das „Metaverse“ zur zentralen Zukunftsvision. Mark Zuckerberg präsentierte in einer aufwendig inszenierten Keynote eine Welt voller virtueller Räume, in denen Menschen arbeiten, spielen und sich treffen sollten. Seine VR-Brillen sollten das Tor zu dieser neuen Realität werden. Doch die meisten Menschen schienen eher verwirrt von Zuckerbergs Visionen. Die Marke Oculus wurde im Zuge dessen schrittweise eingedampft. Aus Oculus Quest wurde Meta Quest, das Oculus-Logo verschwand von den Geräten, die eigenständige Oculus-App wurde in die Meta-Infrastruktur integriert. Was einst als unabhängiges Start-up begonnen hatte, war nun vollständig in den Konzern aufgegangen – nicht nur strukturell, sondern auch symbolisch.


Meta-Avatar in virtueller Umgebung mit Eiffelturm und Kathedrale – Beispiel für VR-Avatare und soziale Virtual-Reality-Welten.

Meta-Avatar in virtueller Umgebung mit Eiffelturm und Kathedrale – Beispiel für VR-Avatare und soziale Virtual-Reality-Welten.

Mit diesem Screenshot aus „Horizon Worlds“ tat sich Mark Zuckerberg 2022 keinen Gefallen.

(Bild: Mark Zuckerberg / Meta Platforms)

Zuckerbergs Metaverse-Strategie sollte enorme Ressourcen verschlingen. Allein 2022 investierte Meta über 13 Milliarden US-Dollar in seine Reality Labs, die Sparte für VR und AR. Doch die Ergebnisse blieben hinter den Erwartungen zurück. „Horizon Worlds“, Metas soziale VR-Plattform, kämpft seit jeher mit geringen Nutzerzahlen, technischen Problemen und einer wenig einladenden Ästhetik. Kritiker spotteten schon früh über die cartoonhaften Avatare ohne Beine, die eher an frühe Second-Life-Experimente erinnerten als an eine revolutionäre Online-Plattform. Statt einer offenen, kollaborativen VR-Welt entstand ein geschlossener Plattformansatz. Die ursprüngliche Vision der Oculus-Gründer – offene Standards, Entwicklerfreiheit, Community-Nähe – geriet immer weiter in den Hintergrund.

Meta kontrollierte Hardware, Software, Store und Inhalte. Die Verknüpfung mit Facebook- und später Meta-Konten wurde zur Pflicht, Datenschutzbedenken häuften sich. Entwickler beklagten intransparente Richtlinien und willkürliche Ablehnungen im App-Store und das erhoffte Branchenwachstum blieb auch mit verbesserten und günstigen Geräten wie der Meta Quest 3 und Quest 3S aus. Heute setzt Meta vor allem auf Künstliche Intelligenz und Smart Glasses, während Virtual Reality nur noch nebenherzulaufen scheint.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Oculus hat der Virtual Reality einst den Weg in die Gegenwart geebnet. Ohne Luckeys Pionierarbeit, Carmacks Unterstützung und die Begeisterung der frühen Unterstützer gäbe es viele Entwicklungen in der Branche heute womöglich gar nicht. Doch die Geschichte zeigt auch, wie schnell eine Idealvorstellung durch Konzernlogik ersetzt werden kann. Der kometenhafte Aufstieg von Oculus ist damit auch ein Lehrstück über die Risiken von Übernahmen im Tech-Sektor und missverstandenen und fehlgeleiteten Visionen. Mit den enormen Einsparungen in Metas VR-Gaming-Sparte und der Schließung zahlreicher Studios, dürfte es nur noch eine Frage der Zeit sein, bis auch das letzte Überbleibsel des einst so gefeierten Start-ups von der VR-Bildfläche verschwindet.


(joe)



Source link

Künstliche Intelligenz

Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten


Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.

Weiterlesen nach der Anzeige

Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.

Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.

Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.

Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.

Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.

Weiterlesen nach der Anzeige

Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.

Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.

Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.

Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.

Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.

In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.

Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.

Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.

Lesen Sie auch


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Prozess um Social-Media-Sucht: US-Jury spricht Meta und Google schuldig


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In einem wegweisenden Prozess um Social-Media-Sucht hat eine Jury in Los Angeles die US-Konzerne Google und Meta zu Schadensersatz in Höhe von drei Millionen US-Dollar verurteilt. Die Schadensersatzsumme könnte sich im Nachgang noch erhöhen. Vor allem aber dürfte das Verdikt richtungsweisend für Tausende ähnlicher Verfahren gegen Tech-Unternehmen sein.

Weiterlesen nach der Anzeige

Nach neun Verhandlungstagen entschieden die kalifornischen Geschworenen, dass Googles YouTube und Metas Instagram bei der Gestaltung oder dem Betrieb ihrer Plattformen fahrlässig gehandelt hätten. Die Fahrlässigkeit der beiden Unternehmen sei zudem ein wesentlicher Faktor für den von der Klägerin geltend gemachten Schaden. Das berichtete am Mittwoch unter anderem die US-amerikanische Nachrichtenagentur Associated Press (AP).

Geklagt hatte eine heute 20-jährige Frau, die in dem Verfahren nur unter den Initialen KGM auftrat. Sie gab an, durch die Nutzung sozialer Medien und aufgrund der speziellen Designs von YouTube und Instagram in jungen Jahren süchtig geworden zu sein und ihre psychischen Probleme hätten sich verschlimmert. Die Frau fing nach eigenen Angaben bereits als Kind an, die Plattformen zu nutzen. Dies habe zu Depressionen und Angstzuständen geführt. Die Online-Plattformen hätten ihre Dienste extra so gestaltet, dass Nutzer danach süchtig werden, argumentierte sie. Dabei geht es zum Beispiel um die Funktion, bei der man immer zum nächsten Beitrag weiterscrollen kann, sogenanntes „unendliches Scrollen“.

Meta argumentierte in dem Verfahren, dass die Klägerin unabhängig von ihrer Social-Media-Nutzung mit psychischen Problemen zu kämpfen hatte. Keiner ihrer Therapeuten habe Social Media als Ursache ihrer psychischen Probleme identifiziert. Die Klägerin musste laut AP jedoch nicht beweisen, dass Social Media ihre Probleme verursacht habe – es genügte, dass es ein „wesentlicher Faktor“ für ihren Schaden war. Die YouTube-Anwälte argumentierten wiederum, dass YouTube keine Form von Social Media, sondern eine Videoplattform ähnlich dem Fernsehen sei. Sie verwiesen auf den abnehmenden YouTube-Konsum mit zunehmendem Alter der Klägerin. Die Anwälte beider Plattformen verwiesen zudem auf die Sicherheitsfunktionen, die Nutzern zur Verfügung stehen, um die eigene Nutzung zu überwachen und anzupassen.

Zehn der zwölf Geschworenen jedoch erachteten die Argumente der Klägerseite für plausibel und hielten die Plattformen für haftbar. Meta und YouTube wussten, dass die Gestaltung bzw. Funktionsweise ihrer Plattformen gefährlich war und Minderjährige durch die Nutzung wahrscheinlich gefährdet sein würden, so das Urteil. Auch hätten die Plattformen nicht ausreichend vor der Gefahr gewarnt, was den Schaden der Klägerin zusätzlich vergrößert habe, beschieden die Geschworenen. Ihrer Ansicht nach trägt Meta mit 70 Prozent den größeren Teil der Verantwortung, YouTube die übrigen 30 Prozent. TikTok und Snapchat, die ebenfalls verklagt worden waren, hatten noch vor Prozessbeginn eine außergerichtliche Einigung geschlossen.

Die Klägerseite zeigte sich naturgemäß erfreut über das Urteil der Geschworenen. „Das heutige Urteil ist ein Referendum – von einer Jury an eine ganze Branche –, dass Verantwortlichkeit nun Realität ist“, erklärte der Hauptanwalt der Klägerseite in einer Stellungnahme. Die Anwälte von Meta dagegen erklärten, die rechtlichen Möglichkeiten für einen Einspruch gegen das Urteil zu prüfen, so ein Unternehmenssprecher gegenüber der Nachrichtenagentur Reuters. Google gab zunächst keinen Kommentar ab.

Weiterlesen nach der Anzeige

Das Urteil gilt Beobachtern als Präzedenzfall für Tausende ähnlicher Klagen gegen Social-Media-Unternehmen, in denen es um die Sicherheit von Kindern und Jugendlichen geht und die Frage, ob die Unternehmen ihre Nutzer süchtig machen und Inhalte verbreiten, die zu Depressionen, Essstörungen oder Suizid führen. Der US-Kongress hat es nach Angaben von Reuters abgelehnt, ein umfassendes Gesetz zur Regulierung sozialer Medien zu verabschieden, weshalb sich die Debatte auf Gerichte und die Regierungen der Bundesstaaten verlagert habe. Immer mehr US-Bundesstaaten erlassen Gesetze zum Umgang mit sozialen Medien durch Kinder. Diese Gesetze beinhalten unter anderem Regelungen zur Handynutzung in Schulen und verpflichten Nutzer zur Altersverifizierung bei der Eröffnung eines Social-Media-Kontos.

Strengere Regeln für die Social-Media-Nutzung von Minderjährigen werden nach dem australischen Social-Media-Verbot für unter16-Jährige auch in Deutschland verstärkt diskutiert. Die Bundes-CDU beschloss im Februar, ein Mindestalter von 14 für soziale Medien wie TikTok und Instagram zum Schutz von Kindern und Jugendlichen einführen zu wollen. Auch Koalitionspartner SPD zeigt sich offen für ein Social-Media-Verbot für Kinder unter 14. Bundesbildungsministerin Karin Prien erwartet derweil rasch europäische Vorschriften für Tech-Konzerne, um den Zugang von Kindern und Jugendlichen zu sozialen Medien einzuschränken.


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Top 10: Die beste Sportuhr im Test – Garmin vor Huawei und Polar


Garmin Fenix 7 im Test

Die neue Garmin Fenix 7 soll noch besser sein als die Vorgänger. Helfen soll dabei ein Touchscreen, mehr Akku und eine neue Stamina-Funktion. TechStage zeigt, ob die neue Fenix ihr Geld wert ist.

VORTEILE

  • gute Akkulaufzeit
  • sehr gute Software und App
  • umfangreiche Trainingsfunktionen
  • sinnvolle Touch-Integration

Die neue Garmin Fenix 7 soll noch besser sein als die Vorgänger. Helfen soll dabei ein Touchscreen, mehr Akku und eine neue Stamina-Funktion. TechStage zeigt, ob die neue Fenix ihr Geld wert ist.

Die Garmin Fenix ist eine der bekanntesten und beliebtesten Sportuhren. Kein Wunder, schließlich trifft hier ausgefeilte Technik auf eine hervorragende App. Entsprechend hat es die Garmin Fenix 6 (Testbericht) auf den ersten Platz unserer Sportuhren-Topliste geschafft. Doch damit ist jetzt Schluss, denn die Fenix 7 schickt sich an, die Vorgängerin vom Thron zu schubsen.

Varianten

Die Fenix gibt es in drei Größen und mit verschiedenen Funktionen. Die Garmin Fenix 7S besitzt einen Durchmesser von 42 mm und ist eher für kleinere Handgelenke gedacht. Das Modell Fenix 7 hat einen Durchmesser von 47 mm, die Fenix 7X schließlich kommt mit großem Gehäuse mit 51 mm. Neben der „normalen“ Variante gibt es die Option „Solar“. Diese nutzt ein durchsichtiges Solar-Panel im Touch-Display. Und wer die Variante Sapphire Solar möchte, der bekommt die Solarfunktion samt extra robustem Saphir-Glas. Die Sapphire-Modelle besitzen zudem 32 GByte Speicher und können die L5-Frequenz empfangen, die eine höhere Genauigkeit bei GPS bieten. Für den Test stellte uns Garmin die Fenix 7S Solar zur Verfügung.

Design und technische Daten

Die Garmin Fenix 7 wirkt zwar immer noch mächtig, sie sieht aber nicht mehr komplett wie eine Pulsuhr aus. Die Uhr selbst ist etwas flacher, die Varianten der 7S wirken fast schon schmächtig. Garmin setzt auf ein Design aus Edelstahl oder Titan, je nach Ausführung. Jede der Uhren hat an der Lünette drei Tasten links und zwei Tasten rechts. Dazu kommt der neue Touchscreen auf LCD-Basis. Die Armbänder bestehen aus Silikon oder Leder, je nach Modell. Alternativ kann man andere Armbänder nachkaufen. Garmin nutzt einen eigenen Schnellverschluss, sodass man darauf achten muss, dass die Armbänder zur jeweiligen Fenix-7-Variante kompatibel sind.

Einrichtung und App

Die Einrichtung der Garmin Fenix 7S lief problemlos. Wir nutzen die Garmin Connect App. Sie ist kostenlos für iOS und Android verfügbar. Nach dem ersten Pairing führt sie durch das Setup und aktualisiert notfalls die Uhr. Danach kann man optionale Zusatzfunktionen wie WLAN, die Musikfunktion oder Garmin Pay aktivieren.

WLAN kostet zwar Strom, allerdings kann sich die Uhr dann mit Streaming-Diensten wie Spotify, Deezer oder Amazon Music verbinden und Playlisten direkt im Speicher ablegen. Das funktioniert auch für Podcasts, wenn diese über Playrun laufen. Dabei handelt es sich um eine spezielle Podcast-App für Garmin-Uhren. Die Garmin App kümmert sich um die Verwaltung der Uhr, hilft bei den Einstellungen und bereitet Daten auf. Dazu kann man über den Garmin Connect Io-Store weitere Anwendungen oder Designs für die Uhr herunterladen und übertragen.

Die App hat sich im Vergleich zu den Vorgängern wenig verändert und gefällt uns nach wie vor sehr gut. Das Dashboard mit der Übersicht liefert allgemeine Informationen. Wer möchte, der kann richtig tief in die Daten einsteigen und Trainings umfassend auswerten. Das geht auch bequem über das Web-Interface von Garmin Connect. Wer Freunde hat, die ebenfalls Garmin-Produkte nutzen, kann sich mit ihnen verbinden und deren Aktivitäten sehen oder virtuelle Wettbewerbe starten.

Die drei Varianten Fenix 7S, Fenix 7 und Fenix 7X unterscheiden sich vor allem in ihrer Größe. Die Details zeigen wir in der Tabelle:

Bedienung

Eine der größten Neuerungen gegenüber den alten Varianten wie der Garmin Fenix 6 (Testbericht) ist der Touchscreen. Die Fenix 7 wird nicht mehr nur über die seitlichen Tasten gesteuert, zusätzlich lassen sich Optionen auch mit einem Druck aufs Display auswählen. In der Praxis funktioniert das gut, wir nutzen im Test eine Mischung aus Taster und Touch. Während des Sportmodus schaltet sich die Touch-Funktion aus. Ein guter Zug, schließlich passen verschwitzte Finger und Touch einfach nicht zusammen.

Aktivität

Die Uhr hält tägliche Aktivitäten fest. Dazu gehören Herzfrequenz, Schritte sowie Treppensteigen. Zusammen mit der Schlafüberwachung fließen die Werte in Body Battery ein. Dieser Wert soll anzeigen, wie viele Energiereserven man hat und ob man während des Tags genügend Power hat. Bei der Zählung der Schritten gefällt uns, dass Garmin weiter dynamische Schrittziele anbietet. Schafft man seine täglichen Vorgaben, steigt der Wert an – erreicht man sie nicht, geht das Tagesziel nach unten. Das motiviert deutlich mehr als fest definierte Werte.

Insgesamt liefert die Uhr einen einwandfreien Überblick über tägliche Aktivitäten. Je länger man sie trägt, desto besser wird auch die Body Battery, die nach einigen Wochen das eigene Gefühl erstaunlich präzise abbildet. Das gilt vorwiegend dann, wenn man die Uhr auch nachts trägt. Garmin liefert ein erstaunlich detailliertes Schlaf-Tracking, sauber aufgeteilt in die unterschiedlichen Schlafphasen. Wie immer gilt aber auch hier, dass man sich hauptsächlich auf langfristige Trends verlassen sollte, die Uhren sind kein Ersatz für ein Schlaflabor. Der Wecker in der Uhr ist dagegen laut genug, um selbst tiefe Schläfer zu wecken.

Die Varianten mit Solarmodul können nicht nur (minimal) Strom produzieren, sie messen zudem, wie stark die UV-Strahlung ist, der man tagsüber ausgesetzt war. Hinweis: In einer früheren Version des Artikels hatten wir geschrieben, dass die Fenix 7 Daten zur UV-Strahlung anzeigt, das ist nicht der Fall. Wir entschuldigen uns.

Training

Während die Garmin Venu 2 Plus (Testbericht) als Alltagsuhr gedacht ist, wurde die Fenix 7 für Sport und Training entwickelt. Ja, sie ist ein guter Fitness-Tracker, wer sie aber nicht zum Sport mitnimmt, der zahlt für viele Funktionen, die er nicht verwendet.

Das beginnt mit der schier unglaublichen Anzahl an Trainingsprofilen. Laufen, Radfahren, HIIT, Cardio, SUP, Snowboarden, Schwimmen, Bouldern, Yoga oder Golfspielen – es sind unfassbar viele Profile hinterlegt, die sich dann abermals in Untergruppen unterteilen. Auch Kombi-Sportarten wie Swimrun sind möglich. Alle Trainings lassen sich nachträglich über die App anpassen.

Die Genauigkeit war im Test sehr gut. Nicht nur bei einfachen Tätigkeiten wie Laufen oder Radfahren, auch Cardio-Training mit schnell wechselnden Pulsraten bringen die Fenix 7 nicht aus dem Takt. So muss das sein. Wie immer kann man die Pulsdaten zusätzlich von einem externen Gerät anfordern oder von der Uhr übertragen, etwa an einen Garmin-Radcomputer.

Neu in der Fenix 7 ist das Stamina-Feature. Die Uhr berechnet beim Laufen und Radfahren, wie viel Restenergie und Ausdauer man wahrscheinlich noch hat. Die Berechnung geschieht in Echtzeit, so kann man entsprechend einplanen, wann und ob man sich im Training noch etwas weiter pushen sollte. Eine clevere Erweiterung, die allerdings erst über einen längeren Zeitraum präzise wird.

Die Uhr sammelt zuverlässig die Informationen rund ums Training.

Karten

Die Fenix 7 bringt wieder eigenes Kartenmaterial mit, sodass man direkt über die Uhr navigieren kann. Neu dabei ist, dass man keinen PC mehr benötigt, um Karten zu installieren oder zu aktualisieren. Stattdessen läuft diese über den Menüpunkt Kartenmanager und ein aktives WLAN. Die Uhr verbindet sich mit den Servern von Garmin, zeigt, welche Karten verfügbar sind und welche Updates es gibt. Achtung: Die Downloads starten erst, wenn man die Uhr an einer Stromquelle anschließt. Zudem sind die Daten riesig. Die Europakarte etwa belegt 10 GByte an Speicherplatz.

Neben den klassischen topografischen Karten gibt es Karten von Golfplätzen (CourseView) und Skigebiete zum Download. Dazu zeigt die Uhr auf Wunsch POIs entlang der Route an. Wenn die Karten nicht reichen, kann man beispielsweise auch Touren von Komoot offline auf die Uhr laden, solange man die entsprechende Region freigeschaltet hat.

Benachrichtigung, Musik, Garmin Pay

Im Alltag zeigt die Uhr alle eingehenden Nachrichten an, die auch auf dem verbundenen Smartphone eine Benachrichtigung auslösen. Praktisch dabei ist, dass man direkt auf der Fenix 7 entscheiden kann, ob diese App weitere Informationen schicken darf. Bei E-Mails oder Chat-Nachrichten zeigt die Uhr den Betreff oder einen Teil der Nachricht an. So sieht man direkt, ob sich ein Antworten lohnt.

Die Fenix 7 kann, wie ihre Vorgänger, Musik auf einem verbundenen Smartphone steuern. Alternativ kann man Musik auf die Uhr speichern, wahlweise als MP3 oder über Streaming-Dienste wie Spotify, Deezer oder Amazon Music. Letztere synchronisieren Playlisten per WLAN, Musik wird über USB und Garmin Express übertragen. Die Fenix 7 verbindet sich per Bluetooth mit entsprechenden Kopfhörern (Ratgeber: Bluetooth Sportkopfhörer), entsprechend kann man das Smartphone fürs Training komplett daheim lassen. Allerdings frisst die Funktion Akkulaufzeit, wir empfehlen das eher für kürzere Sessions oder Indoor-Sport.

Mit dabei ist auch Garmin Pay, das Pendant zu Apple Pay und Google Pay. Leider ist die Bankenunterstützung noch immer deutlich hinter den Konkurrenten zurück, die offizielle Bankenliste listet gerade einmal zehn Einträge. Wer es ausprobieren möchte, der kann beispielsweise bei Vimpay eine Guthaben-Karte anlegen. Nutzt man eine kompatible Bank, dann ist das Bezahlsystem tatsächlich einfach und angenehm. Karte einspeichern, per PIN freischalten und an den Leser halten.

Akkulaufzeit

Die Akkulaufzeit kommt stark darauf an, wie man die Uhr nutzt und welche Variante man besitzt. Garmin gibt im Smartwatch-Modus Laufzeiten zwischen 18 und 22 Tagen an (letzteres mit Solarladung), im GPS-Modus halten die Uhren zwischen 57 Stunden und 73 Stunden (wieder mit Solar). Unsere Fenix 7S Solar hielt im Test knapp eine Woche durch, das beinhaltet regelmäßigen Sport mit GPS-Tracking und eine dauerhaft aktivierte SpO2-Messung. Wir würden, je nach Nutzung, von einer realistischen Laufzeit von 7 bis 10 Tagen am Stück sprechen, vor allem, wenn man den Energiesparmodus aktiviert.

Die Solarfunktion haben wir im Test nicht wirklich bemerkt. Das liegt auch daran, dass wir im Januar und Februar mit der Uhr unterwegs waren, wo sie primär unter der Jacke getragen wird. Ja, vielleicht liefert sie im Sommer etwas mehr Strom, wirklich schnell aufladen kann man die Uhr damit aber nicht.

Preis

Je nach Version und Preis kostet die Fenix 7 zwischen 699 Euro (Fenix 7S und Fenix 7), 799 Euro (Fenix 7S Solar, Fenix 7 Solar) und 1200 Euro (Fenix 7X Sapphire Solar Edition mit Titan). Die tatsächlichen Straßenpreise liegen immer wieder darunter, wie bei den Vorgängern kann man teilweise gute Schnäppchen machen. Unser Preisvergleichs-Widget zeigt die drei Fenix-7-Varianten in unterschiedlichen Ausführungen:

Fazit

Die Neuerungen der Fenix 7 sind zwar subtil, aber sie wirken frisch und innovativ. Der Umstieg auf einen Touchscreen ist gut gelungen und erweitert die Steuerung sinnvoll. Gleiches gilt für die vielen kleinen Optimierungen im Inneren. Der neue Stamina-Modus hilft beim regelmäßigen Training, bei der der Vorbereitung und beim Absolvieren von Wettkämpfen, setzt aber voraus, dass man die Uhr bereits länger nutzt. Der neue Kartenmanager auf der Uhr ist praktisch, damit wird die Desktop-Software noch unnötiger.

Heimliches Highlight ist die App. An den Umfang kommt vielleicht Polar noch heran, aber beim Thema Aufbereiten von Gesundheits- und Trainingsdaten ist Garmin ganz vorne.

Um die Fenix 7 komplett auszunutzen, sollte man ein aktiver Sportler sein. Wer die Vorteile der Garmin-App möchte, aber eine eher Alltagsuhr bevorzugt und beispielsweise auf die Kartennavigation verzichten kann, der findet in der Garmin Venu 2 (Testbericht) eine schicke und günstigere Alternative.



Source link

Weiterlesen

Beliebt