Connect with us

Künstliche Intelligenz

Ende einer Ära und Neuanfang – das VR-Beben bei Meta


Weiterlesen nach der Anzeige

Diese Woche wurde Virtual Reality von der Realität eingeholt.

Das volle Ausmaß von Metas strategischer Kehrtwende ist noch nicht bekannt. Fest steht, dass es sich um die bislang größte Zäsur für die junge Industrie handelt.

Die VR-Branche war schon immer ein künstliches Gebilde, das zu weiten Teilen von Metas Investitionen lebte. Nach zehn Jahren und Verlusten in Milliardenhöhe ließ der Konzern diese Woche zum ersten Mal in aller Deutlichkeit erkennen, dass diese Aufwendungen nicht bedingungslos sind und ein jähes Ende finden können.


Tomislav Bezmalinovic

Tomislav Bezmalinovic

Tomislav Bezmalinović ist fasziniert von Gesichtscomputern aller Art. Seit 2025 schreibt er für heise online über die neuesten Trends im Bereich Smart Glasses, VR-Headsets und AR-Brillen.

Die jüngsten Ereignisse bedeuten weder das Aus für Metas VR-Sparte noch für Virtual Reality an sich. Aber für eine Branche, die stark von Mark Zuckerbergs Wohlwollen abhängt, könnten die neuen Signale eine gefährliche Kettenreaktion auslösen.

Verlieren Entwickler den Glauben an die Zukunft der Plattform, sinkt auch deren Bereitschaft, weitere Ressourcen in den Marktplatz zu stecken. Bleiben als Folge neue Anwendungen und Inhalte aus, verliert die Hardware ihr wichtigstes Kaufargument – mit gravierenden Folgen für das gesamte Ökosystem.

Weiterlesen nach der Anzeige

Nachdem sich bereits Ende letzten Jahres drastische Sparmaßnahmen in Metas VR-Sparte abgezeichnet hatten, schlugen diese am Dienstag mit voller Wucht ein.

Der Konzern entließ rund 1.500 Angestellte der für Zukunftstechnologien verantwortlichen Reality Labs und schloss den Großteil seiner VR-Spielestudios. Bestätigt sind Armature Studio („Resident Evil 4“), Sanzaru Games („Asgard’s Wrath 2“) und Twisted Pixel („Marvel’s Deadpool VR“). Camouflaj, das Team hinter dem preisgekrönten „Batman: Arkham Shadow“, wurde auf ein Rumpfteam reduziert und wird keine neuen VR-Spiele mehr entwickeln. Zudem stellte Meta die Weiterentwicklung der Fitness-App „Supernatural“ ein, was Fragen zur Zukunft des verantwortlichen Studios Within aufwirft. Ready at Dawn („Lone Echo“) und Downpour Interactive („Onward“) hat Meta bereits 2024 und 2025 geschlossen.

Damit ist von Metas neun VR-Studios kaum mehr als ein kleiner Rest geblieben. In Entwicklung befindliche Titel, darunter eine Fortsetzung von „Batman: Arkham Shadow“, wurden eingestampft. Auch die Förder- und Inkubatorprogramme für externe Studios, eine wichtige Lebensader des Ökosystems, wurden angeblich gestrichen. Damit steht fest, dass sich Meta aus der VR-Spielentwicklung zurückzieht.

Metas oft belächelte Metaverse-Plattform „Horizon Worlds“ wird künftig primär auf Mobilgeräte statt auf VR-Brillen zugeschnitten, in der Hoffnung „Roblox“ und „Fortnite“ Marktanteile abzujagen. Ein Vorhaben, das angesichts der übermächtigen Konkurrenz zum Scheitern verurteilt scheint.

Die Sparmaßnahmen trafen auch andere Bereiche der VR-Sparte: Meta hat die hauseigene VR-Meeting-App und das Enterprise-Geschäft mit Quest-Geräten eingestellt. Da seit Dienstag fast täglich Meldungen über neue Streichungen die Runde machen, wäre es keine Überraschung, wenn in den kommenden Tagen weitere Projekte und Programme bekannt würden, die dem Rotstift zum Opfer gefallen sind.

Vor einigen Jahren sah die Situation noch ganz anders aus. Meta Quest 2 verkaufte sich millionenfach. Viele Entwickler und Studios konnten auf der Quest-Plattform eine wirtschaftliche Existenz aufbauen und in Projekte für die nächste Hardware-Generation investieren.

Doch seit dem Ende der Pandemie ging das Interesse an VR-Brillen kontinuierlich zurück. Auch Playstation VR2, Meta Quest 3 und selbst Apple Vision Pro konnten diesem Trend wenig entgegensetzen. Ein Großteil der Branche lebt nach wie vor von der Quest-Plattform und dem Verkauf von Spielen. Doch gerade dieser Sektor hat in den vergangenen Jahren einen tiefgreifenden Wandel durchlaufen.

Viele VR-Nutzer, die Meta Quest 2 zum Erfolg verholfen haben, sind von der Plattform abgewandert. An ihre Stelle sind Kinder und Jugendliche getreten, die neue Arten von Spielen mit Free-to-Play-Geschäftsmodell bevorzugen. Nachlassendes Interesse, veränderte Konsumgewohnheiten und Metas eigene Plattformpolitik haben die VR-Branche in eine Krise geführt, die sich in Entlassungen und Studioschließungen seitens unabhängiger Studios niederschlug. Auch die von Meta stillschweigend geduldete Piraterie dürfte zu dieser schleichenden Misere beigetragen haben.

Gleichzeitig konnten sich viele VR-Studios überhaupt nur dank Metas jahrelanger Unterstützung so lange über Wasser halten: Der Konzern trug zur Finanzierung neuer Projekte bei und garantierte Studios über deren Teilnahme am Spiele-Abodienst „Horizon+“ regelmäßige Einnahmen. Diese prekäre Situation verweist auf ein tiefer sitzendes Problem: Metas schrankenlose VR-Subventionierung, die neben Entwicklerförderung auch andere Bereiche betrifft.

Mit Dumping-Preisen für Quest-Gerät gewann Meta rasch die Führungsposition auf dem VR-Markt, gewöhnte Konsumenten aber auch an unrealistisch niedrige Preise und verzerrte die tatsächliche Nachfrage. Konkurrenten, die für einen gesunden Wettbewerb hätten sorgen können, wurden vom Markt gedrängt. Gleichzeitig investierte Meta Milliarden in den Zukauf von VR-Studios, um mit exklusiven VR-Spielen den Abverkauf von Hardware zu beschleunigen. Doch selbst hochwertige und mit viel Aufwand produzierte Lizenztitel wie „Batman: Arkham Shadow“ (2024) und „Marvel’s Deadpool VR“ (2025) konnten nichts an den rückläufigen Absätzen des Jahres 2025 ändern. Es war daher nur eine Frage der Zeit, bis Meta die Reißleine ziehen würde.

„Dieses Jahr wird wahrscheinlich entscheiden, ob all unsere Arbeit als visionärer Durchbruch oder als legendäres Missgeschick in die Geschichte eingehen wird“, schrieb Reality-Labs-Leiter Andrew Bosworth Ende 2024 an seine Angestellten. Ein Jahr später ist das vorläufige Urteil gefallen.

Unter VR-Entwicklern ist Meta berüchtigt für häufige Strategiewechsel und die Neigung, Trends hinterherzujagen. Angesichts der jüngsten Einschnitte stellt sich die Frage, ob der Konzern hier nicht vorschnell und endgültig Brücken niederbrennt. Eine moderatere Förderung und realistischere Erwartungen seitens Meta hätten den Aufprall von dieser Woche abfedern können, der nun zu einem unwiederbringlichen Verlust an Vertrauen, Wissen und Talent führen wird.

Die aktuelle Entwicklung hat jedoch auch positive Seiten: Die VR-Branche hat sich von dem durch Meta selbst befeuerten Metaverse-Hype der Pandemie-Jahre verabschiedet. Sie soll sich künftig langsamer und organischer, aber mit mehr Bodenhaftung und Nachhaltigkeit entwickeln. Bei Meta ist inzwischen die wertvolle Einsicht gewachsen, dass Hard- und Software schlicht noch nicht ausgereift genug sind, um den VR-Markt bedeutend zu vergrößern.

Von einer vollständigen Abkehr von Virtual Reality seitens Meta zu sprechen, wäre jedenfalls verfrüht. Für Reality Labs arbeiten noch immer mehr als 10.000 Angestellte, darunter viele an VR-Hardware. Berichten zufolge ist auch eine neuartige VR-Brille mit dem vielsagenden Codenamen „Phoenix“ in Entwicklung.

Nachdem weder kabellose VR und günstige Geräte noch hochwertige Inhalte einen breiteren Markt für VR-Brillen erschließen konnten, nimmt sich Meta einer weiteren Hürde an: dem Formfaktor und Gewicht. Das neue Gerät soll um ein Vielfaches kompakter und leichter als aktuelle VR-Brillen sein. Im Einklang mit Metas Ziel, ein nachhaltigeres VR-Geschäft zu etablieren, wird künftig auf Subventionen verzichtet und das Gerät vermutlich deutlich teurer ausfallen als bisherige Quest-Modelle. Bei der Vermarktung dürfte sich der Fokus weg vom Gaming hin zu Arbeit und Medienkonsum verschieben. Als Erscheinungstermin wird 2027 angepeilt.

Sollte auch dieser Versuch hinter Metas Erwartungen zurückbleiben, könnte es eng für die VR-Ambitionen des Konzerns werden. Schon jetzt ist eine Umverteilung der Investitionen in das Smart-Glasses-Geschäft im Gange. Ein Bereich, in dem Meta ein deutlich größeres Marktpotenzial sieht.


(tobe)



Source link

Künstliche Intelligenz

E-Patientenakte & Co.: Wir brauchen mehr Ehrlichkeit bei Gesundheitsdaten


Für die medizinische Forschung in Deutschland stehen immer mehr Daten zur Verfügung: Allein über das Forschungsdatenportal Gesundheit (FDPG) von der Medizininformatik-Initiative (MII) und der Technologie- und Methodenplattform für die vernetzte medizinische Forschung e.V. (TMF) sind inzwischen mehr als zwei Milliarden Laborwerte und die Basisdaten von über 21 Millionen Patientinnen und Patienten aus 41 Universitätskliniken verfügbar.

Weiterlesen nach der Anzeige

Erst kürzlich feierte die MII über 200 Millionen Vitaldaten aus der Intensivmedizin – darunter Blutdruck, Atemfrequenz, Herzfrequenz und Körpertemperatur –, die dank des Netzwerks Universitätsmedizin im FDPG zur Verfügung stehen. Neben dem FDPG soll das 2025 eröffnete Forschungsdatenzentrum Gesundheit (FDZ Gesundheit) für einen besseren Datenzugang sorgen – mit Daten aus der elektronischen Patientenakte (ePA), medizinischen Registern und weiteren Datenquellen, die der Forschung und Industrie nach erfolgreichem Antrag pseudonymisiert zur Verfügung stehen.


Sebastian Semler

Sebastian Semler

Prof. Sebastian C. Semler ist Arzt und seit 2004 Geschäftsführer der TMF.

(Bild: TMF)

TMF-Geschäftsführer Sebastian Claudius Semler begleitet den Aufbau dieser Strukturen seit über zwei Jahrzehnten. Die TMF koordiniert dabei nicht nur die Begleitstrukturen der Medizininformatik-Initiative, sondern auch weitere Großprojekte wie das zur nationalen Genom-Initiative genomDE. Im Interview erklärt er, warum wir trotz neuer Gesetze und europäischer Visionen wie dem European Health Data Space (EHDS) erst einmal klären müssen, was die neuen Datenquellen wissenschaftlich überhaupt hergeben – und warum Paragrafen allein noch nicht für eine funktionierende Forschungsdateninfrastruktur sorgen.

Sie beschäftigen sich seit vielen Jahren mit der Architektur von Forschungsdateninfrastrukturen. Wenn wir ganz vorne anfangen: Warum braucht es das Forschungsdatenportal Gesundheit (FDPG) überhaupt, wenn es jetzt das Forschungsdatenzentrum Gesundheit (FDZ Gesundheit) gibt?

Um die Zusammenhänge zu verstehen, muss man tatsächlich etwas weiter zurückblicken. Die Wurzeln liegen im Jahr 2003 beim GKV-Modernisierungsgesetz, mit dem die Paragrafen 303a ff. SGB V zur Datentransparenz erstmals eingeführt wurden. Seinerzeit hatte der Gesetzgeber die Spitzenverbände von Krankenkassen und KBV verpflichtet, eine „Arbeitsgemeinschaft für Aufgaben der Datentransparenz“ zu bilden, um Datenzusammenführung und Datennutzung zu Zwecken von Wirtschaftlichkeitsanalysen und für eine bessere Transparenz über die Inanspruchnahme und Kosten von Gesundheitsleistungen zu organisieren.

Nachdem dies nicht vorankam, hat der Gesetzgeber dann 2011 mit dem GKV-Versorgungsstrukturgesetz und mit der Datentransparenzverordnung von 2012 deutlich nachgeschärft. Im Kern ging es darum, die Abrechnungsdaten der Krankenkassen endlich zusammenzuführen und für externe Forschung und für die Bedarfsplanung im Gesundheitswesen nutzbar zu machen, ohne den Sozialdatenschutz aufzugeben. Eine erste Datenherausgabestelle wurde beim seinerzeitigen Deutsche Institut für Medizinische Dokumentation und Information (DIMDI) im Geschäftsbereich des BMG aufgebaut; das DIMDI hat zwischen 2015 und 2018 anonymisierte Krankenkassendaten an externe Forschungsprojekte herausgegeben, wenn auch in einem aufwändigen Verfahren.

Weiterlesen nach der Anzeige

Diese Entwicklung wurde später durch das Digitale-Versorgung-Gesetz 2019 fortgeführt, das DIMDI wurde aufgelöst und die Zuständigkeit ins BfarM verlagert, wo die Entwicklung schließlich in das heutige FDZ Gesundheit mündete, das seit Oktober 2025 nun auch wieder Datenzugang zu Krankenkassendaten ermöglicht. Ab Ende 2026 sollen hier – gemäß Gesundheitsdatennutzungsgesetz (GDNG) von 2024 – auch die pseudonymisierten Daten aus der elektronischen Patientenakte verfügbar gemacht werden.

Parallel dazu gab es aber eine zweite Entwicklung: Das Bundesforschungsministerium startete 2015 die Medizininformatik-Initiative, konzipiert zu einem Zeitpunkt, als die erste E-Health-Gesetzgebung in Deutschland noch nicht verabschiedet war. Dort stand bereits in der Ausschreibung, dass eine verteilte Dateninfrastruktur geschaffen werden soll, in der jede Universitätsklinik ein Datenintegrationszentrum aufbaut. Das Forschungsdatenportal Gesundheit (FDPG) ist im Grunde die direkte Konsequenz aus dieser Förderausschreibung von 2015. Wir hatten es zunächst etwas technokratisch „Zentrale Antrags- und Registerstelle“ genannt, aber die Funktion war klar: Es ging darum, in den forschungsorientierten Standorten, also den Unikliniken, einen deutlich breiteren klinischen Datensatz erschließbar zu machen – und zwar jenseits der reinen Abrechnungsdaten. Und als vernetzende und abfragende Instanz zu diesen verteilt vorliegenden Daten braucht es das zentrale Portal – als Anlaufpunkt für die forschenden Datennutzer.

Die Abkürzungen ähneln sich, die Aufgaben auch – viele verwechseln anscheinend das FDPG mit dem FDZ, das beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM) angesiedelt ist. Ist das verwirrend?

Das ist tatsächlich ein Punkt, der oft konfus wirkt und nicht einfach zu verstehen ist. Aber man muss die Unterscheidung machen, denn wir reden hier über völlig unterschiedliche Datenwelten. Es ist schön, dass man das FDZ beim BfArM eingeweiht hat und dort nun endlich Daten für die Forschung bereitstehen. Aber das FDZ arbeitet aktuell eben „nur“ mit den Abrechnungsdaten der gesetzlichen Krankenkassen. Das sind populationsbasierte, sektorenübergreifende Daten. Das ist ein relativ schmaler, aber durchaus aussagekräftiger Datensatz für Versorgungsanalysen.

Der wesentliche Charme dieser Daten war schlicht und ergreifend: Es gab lange Zeit keine anderen. Aber sie haben eben keine klinische Tiefe – es fehlen die Details der Behandlung, die Laborwerte, die Bildgebung. Über das FDPG hingegen erschließen sich primäre klinischen Daten aus den Universitätskliniken. Da gehen wir viel tiefer rein. Dafür sind diese Daten natürlich auf den universitär-stationären Versorgungskontext beschränkt. Man kann also sagen: Keine der beiden Infrastrukturen ersetzt die andere, wir brauchen beide Perspektiven.

Wer darf denn diese Daten beim FDPG eigentlich beantragen? Kann da, wie beim FDZ Gesundheit, jeder kommen?

Grundsätzlich kann jeder einen Antrag stellen, aber wir schauen uns das im Rahmen der Nutzerregistrierung sehr genau an. Es muss ein plausibles, gemeinwohlorientiertes Forschungsinteresse nachgewiesen werden. Wenn jemand mit einer Uni-Adresse ankommt, ist das meist schnell geklärt. Wenn eine Privatadresse oder ein Unternehmen anfragt, prüfen wir tiefer: Gibt es ein substanzielles Forschungsinteresse? Explizit schließen wir die forschende Industrie nicht aus, aber der Zweck muss stimmen.

Außerdem arbeiten wir mit einer breiten Einwilligung der Patienten, dem sogenannten Broad Consent. Das ist ein ganz entscheidender Punkt: Die Patienten müssen aktiv einwilligen, dass ihre Daten für die medizinische Forschung nachgenutzt werden dürfen. Darin ist klar geregelt, dass dies nur für medizinische Zwecke geschehen darf – aber eben nicht für Kosmetikforschung, reinen Datenverkauf oder ähnliches. Die genauen Kriterien stellen wir auch auf unserer Website bereit (https://forschen-fuer-gesundheit.de/daten-und-bioproben/daten-und-bioproben-fur-ein-forschungsprojekt-beantragen/).

Nun sollen noch in diesem Jahr Daten aus der elektronischen Patientenakte (ePA) zu Forschungszwecken ausgeleitet werden. Braucht es das FDPG mit dem Ausbau des FDZ Gesundheit noch?

Generell finde ich die Idee der ePA natürlich super – schon allein zur Behandlungsunterstützung, aber auch mehr strukturierte Daten für die Forschung wären toll. Wir würden uns sogar wünschen, dass wir direkt eine Schnittstelle zur ePA bekommen. Das ist gesetzlich im Paragraf 363 Absatz 8 SGB V tatsächlich auch so vorgesehen: Dort steht, dass Versicherte ihre ePA-Daten mittels einer Einwilligung auch direkt Forschenden für die Forschung freigeben können. Wir könnten die Patienten also – zusätzlich zur automatisierten Ausleitung ans FDZ – auch direkt fragen, ob sie ihre Daten für die Datenintegrationszentren der Universitätsmedizin und deren Nutzungsabfrage via FDPG, verknüpft mit den anderen vorhandenen medizinischen Daten, zur Verfügung stellen. Damit würden auch Fragestellungen zur Vor- und Nachbehandlung rund um einen stationären Aufenthalt beantwortet werden können. Es ist aber noch nicht unklar, wann und wie diese Schnittstelle kommt.

Die Repräsentativität der Daten wurde immer wieder politisch versprochen. Es gibt da aber deutliche Bedenken.

Das ist ein ganz wichtiger Punkt – und der unterscheidet die ePA-Daten von den Kassendaten im FDZ. Selbst wenn wir formal Millionen von ePAs haben, wissen wir ja nicht automatisch, wie sie befüllt sind. Wir wissen nicht, wie vollständig die Daten pro Patient sind oder ob bestimmte Erkrankungen systematisch besser erfasst werden als andere. Wenn beispielsweise chronisch Kranke oder digital affine Menschen überrepräsentiert sind, entstehen Verzerrungen. Aber viel kritischer ist die Frage: Bei wie vielen wird nichts eingestellt? Und das alles müssen Sie wissen, um valide damit forschen zu können.

Dazu kommen ganz praktische Hürden: Viele Inhalte liegen derzeit als PDF vor, was für die Forschungsnachnutzung weitgehend nutzlos ist. Zudem bildet die ePA oft nur Ausschnitte einer Krankengeschichte ab. Und auch der Ruf nach tagesaktuellen Daten klingt zwar attraktiv, bedeutet aber technisch enorme Anforderungen, etwa wenn es um Korrekturen oder Nachmeldungen geht. Das wird noch sehr sportlich. Bis wir in der Fläche mit ePA-Daten im FDZ sinnvoll forschen können, wird es aus meiner Sicht Jahre, wenn nicht gar ein Jahrzehnt dauern. Das soll aber überhaupt nicht dagegen sprechen, sich diesbezüglich auf den Weg zu machen und an der Zielsetzung festzuhalten.

Heißt das im Umkehrschluss, wenn wir genug Daten haben, brauchen wir keine klassischen klinischen Studien mehr?

Nein, das wäre ein Trugschluss. Keine Sekundärnutzung von Versorgungsdaten wird jemals eine kontrollierte klinische Studie ersetzen. In einer Studie schließe ich Störfaktoren aus, um einen Effekt statistisch hart nachzuweisen. Im Versorgungsalltag habe ich aber Patienten, die multimorbid sind, die drei andere Medikamente gleichzeitig nehmen.

Die Versorgungsdaten sind dafür da, den „Realitätscheck“ zu machen: Kommt der Effekt, den wir unter Idealbedingungen in der Studie gesehen haben, im echten Versorgungsalltag überhaupt an? Und bei welchen Gruppen gibt es Nebenwirkungen, die wir in der kleinen Studiengruppe nicht gesehen haben? Beides ergänzt sich, aber eines ersetzt das andere nicht.

Mit verschiedenen Gesetzen wie dem Gesundheitsdatennutzungsgesetz und weiteren geplanten Gesetzen macht die Politik sehr viel Druck. Hilft das?

Es ist gut, dass wir einen Rechtsrahmen haben. Es ist freilich vergleichsweise leicht, ein Gesetz zu schreiben. Aber die technische und medizinische Umsetzung „hinten raus“ bedeutet oft einen Riesenaufwand, der in der Theorie unterschätzt wird. Wenn im Gesetz steht, dass Daten fließen müssen, sind die Schnittstellen noch lange nicht programmiert. Wir müssen aufpassen, dass wir nicht eine Diskrepanz erzeugen zwischen dem, was im Gesetzblatt steht, und dem, was in der IT tatsächlich umgesetzt werden kann.

Ein weiteres ungelöstes Problem ist beispielsweise die Verknüpfbarkeit. Für viele komplexe Forschungsfragen bräuchte man eine Kombination aus vielfältigen, verteilt vorliegenden klinischen Daten und Abrechnungsdaten. Das ist derzeit rechtlich und technisch nur sehr eingeschränkt möglich. Ich vermisse da so ein bisschen den großen Wurf. Man verweist stolz darauf, dass man im FDZ bald Kassendaten und Genomdaten aus dem gesetzlichen Modellvorhaben zur Genomsequenzierung verknüpfen kann, aber für die breite Masse der Forschung fehlt uns ein durchgängiges Konzept, etwa über ein permanentes Forschungspseudonym.

Wenn wir nicht generell sagen wollen, das RKI macht jetzt für alles und für jeden Daten-Pseudonymisierung, dann müssen wir uns eigentlich was Besseres überlegen. Das geht auch aus unserer Stellungnahme zum Medizinregistergesetz (PDF) hervor. Es bräuchte hier dringend ein durchgehendes Fachkonzept, das maßgeblich aus der Perspektive der Forschung und nicht allein aus der ministerialjuristischen Perspektive erarbeitet werden müsste.

Apropos Stellungnahmen. Das Verfahren wird hierzulande immer mal wieder als nicht demokratisch genug bezeichnet: Die vom Bund vorgegebenen Fristen werden beispielsweise des Öfteren als „zu knapp bemessen“ kritisiert, außerdem darf nicht jeder eine Stellungnahme abgeben, beispielsweise beim MRG. Wie sehen Sie den Prozess?

Wir als TMF bemühen uns, die breit gefächerte Expertise in der Community – sei es aus der Mitgliedschaft oder von Partnerorganisationen – einzubeziehen und abgestimmtes Feedback im Rahmen der Kommentierung zu liefern. Gerade für ein solches Vorgehen ist ausreichend Zeit notwendig.

Warum ist die Verknüpfung so schwer?

Man denkt oft: Nehmen wir doch einfach die KV-Nummer. Aber wenn man länger darüber nachdenkt, merkt man, dass das zu kurz springt. Die Rentenversicherung kennt keine KV-Nummer. Die Unfallversicherung kennt keine. Der privatversicherte Bereich zieht erst mühsam nach. Und in primären Forschungserhebungen fragt man erst recht nicht nach einer KV-Nummer des untersuchten bzw. befragten Bürgers – das dürfte man bis dato rechtlich noch nicht einmal.

Wenn wir Daten wirklich über Sektoren hinweg verknüpfen wollen – etwa um zu sehen, wie sich Arbeitslosigkeit oder Reha-Maßnahmen auf die Gesundheit auswirken –, dann ist die KV-Nummer vermutlich eine Sackgasse. Wir bräuchten eigentlich eine übergreifende ID, etwa basierend auf der Steuer-ID, die jeder Bürger hat. Und diese ID müsste erst einmal in alle Datenbestände eingeführt werden, was sehr viel Aufwand und Zeit erfordert. Aber an dieses heiße Eisen traute sich der Gesetzgeber bislang nicht richtig ran; wir sind sehr gespannt, ob sich der jüngste Entwurf zum Forschungsdatengesetz oder das Update zur Digitalstrategie im Gesundheitswesen in diese Richtung entwickeln lassen.

Wer ist beim European Health Data Space (EHDS) in Deutschland eigentlich zuständig?

Im EHDS sind nationale Datenzugangsstellen für den Forschungsbereich vorgesehen. In Deutschland ist dafür das BfArM als zentrale Datenzugangs- und Koordinierungsstelle benannt worden. Daneben gibt es im Versorgungskontext aber noch die nationale Kontaktstelle für die grenzüberschreitende Gesundheitsversorgung, die in Deutschland bei der Gematik angesiedelt ist. Ihre Funktion ist primär koordinierend: Sie bilden die Schnittstelle zwischen den Mitgliedstaaten.

In einem föderalen System wie Deutschland stellt sich zudem die Frage, wie wir die verschiedenen spezialisierten Datenquellen anbinden – also Register, universitäre Daten oder eben Kassendaten. Der EHDS erlaubt glücklicherweise mehrere nationale Zugangspunkte. Das halten wir auch für sehr sinnvoll, denn unterschiedliche Datenarten erfordern unterschiedliche Expertise. Eine rein zentralistische Struktur würde unserer gewachsenen Forschungslandschaft kaum gerecht werden. Gebündelt werden diese dezentralen, domänenspezifischen Datenzugangsstellen allerdings durch die zentrale Stelle beim BfArM.

Es gibt immer wieder Kritik, dass zum Beispiel die Daten aus der elektronischen Patientenakte überhaupt nicht für wissenschaftliche Zwecke geeignet sind. Wie sehen sie das?

Wir diskutieren in Deutschland sehr intensiv über Rechtsrahmen und Technik – aber viel zu wenig über die eigentliche wissenschaftliche Zielsetzung. Es gibt beispielsweise gar keine wissenschaftliche Beschreibung, welche wissenschaftliche Frage der EHDS eigentlich beantworten soll. Das steht nirgendwo im Detail.

Wir müssten uns viel früher fragen: Welche konkreten Forschungsfragen wollen wir mit ePA-Daten eigentlich beantworten? Je nach Fragestellung unterscheiden sich die Anforderungen an Datenqualität und Struktur erheblich. Ohne eine solche Beschreibung und den Blick für die Praxis bauen wir eine Infrastruktur auf, deren wissenschaftliches Potenzial wir am Ende vielleicht gar nicht optimal nutzen können.

Die ePA basiert auf einer Widerspruchslösung. Reicht das für die Akzeptanz?

Die Widerspruchslösung, also das Opt-out, klingt einfacher als eine Einwilligungslösung. Sie erfordert aber einen enormen Aufwand bei der Kommunikation. Vertrauen entsteht ja nicht automatisch durch Gesetzgebung. Gerade wenn Daten künftig auch europäisch nutzbar werden, müssen wir den Bürgerinnen und Bürgern transparent erklären, was passiert.

Spätestens wenn ich keine Einwilligung mehr brauche, ist es viel schwieriger, diese Information an den Mann oder an die Frau zu bekommen. Und die Vorstellung, dass man das auf irgendeine Behördenwebseite packt und sagt „Das war jetzt die Information“, da weiß ich nicht, ob das langfristig akzeptanzfördernd ist.

Wie blicken Sie in die Zukunft?

Ich bin realistisch. Wir haben heute mehr Infrastruktur, mehr Standardisierung und mehr europäische Koordination als je zuvor. Das ist viel, was es an Möglichkeiten gibt.

Aber wir müssen ehrlich bleiben: Daten sind nicht automatisch repräsentativ, Infrastruktur ersetzt keine wissenschaftliche Methodik, und rechtliche Ansprüche ersetzen keine praktikablen Prozesse. Große Visionen brauchen belastbare Umsetzungsstrategien. Die Bottom-Line bei all dem, was wir sagen, ist doch: Keine einzelne Lösung ist eine Lösung für alles. Wir haben unterschiedliche Datentöpfe, unterschiedliche Zugänge, und in der Summe ergänzen sie sich gut. Entscheidend ist, dass wir nicht nur Technik bauen, sondern auch verstehen, was wir damit wissenschaftlich erreichen wollen.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

X verlangt KI-Kennzeichnung für Kriegsvideos – aber nur wenn daran verdient wird


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der Kurznachrichtendienst X hat eine neue Regel eingeführt: Nutzer, die KI-generierte Videos eines „bewaffneten Konflikts“ veröffentlichen, ohne diese als solche zu kennzeichnen, werden ab sofort für 90 Tage vom Monetarisierungsprogramm ausgeschlossen. Bei wiederholten Verstößen riskieren sie einen dauerhaften Ausschluss aus dem Programm. Dies kündigte Produktchef Nikita Bier gestern in einem Beitrag auf X an.

Weiterlesen nach der Anzeige

Einschlägige Beiträge werden vom System durch die automatische Erkennung KI-basierter Metadaten oder von Nutzern selbst über Community-Notes als solche markiert, heißt es weiter in dem Beitrag.

Die Regel ist von den aktuellen militärischen Auseinandersetzungen zwischen den USA, Israel und dem Iran motiviert. „In Kriegszeiten ist es entscheidend, dass Menschen Zugang zu verlässlichen Informationen vor Ort haben“, schreibt Bier. Mit den heutigen KI-Technologien sei es trivial, Inhalte zu erzeugen, die Menschen in die Irre führen können.

Die überwiegende Mehrheit der Nutzer ist von dieser Regel allerdings nicht betroffen und darf weiterhin folgenlos irreführende KI-Videos über den Konflikt oder andere Themen auf der Plattform veröffentlichen.

Es ist das erste Mal, dass X eine Kennzeichnungspflicht ausdrücklich für KI-generierte Inhalte einführt. Aktuell betrifft sie jedoch nur „bewaffnete Konflikte“. Was genau darunter fällt, definiert Bier in seinem Beitrag nicht. In den offiziellen Plattformrichtlinien ist die neue Regel bislang nicht aufgeführt.

Weil KI-Slop auf X stark zugenommen hat, könnte die Regel künftig ausgeweitet werden. So entdeckte ein App-Entwickler (X-Link) im Februar, dass die Plattform an einer nutzerseitigen Kennzeichnungspflicht für KI-generierte Inhalte arbeitet. Entsprechende Pläne sind jedoch nicht bestätigt.

Weiterlesen nach der Anzeige

Mit dem eigenen KI-Chatbot Grok erstellte Bilder und Videos versieht X bereits automatisch mit einem Wasserzeichen. Verhindert hat das problematische Inhalte allerdings nicht. So sorgte der Chatbot in den vergangenen Monaten vor allem wegen mit ihm erzeugter sexualisierter Deepfakes für Schlagzeilen, was die EU dazu veranlasste, ein Verfahren gegen X einzuleiten. Der Fall zeigt, wie schwer sich X damit tut, KI-generierte Inhalte wirksam zu kontrollieren.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Telematik-Zugang ohne eigenen Konnektor: Telekom stellt TI-Connect vor


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Deutsche Telekom hat einen Dienst vorgestellt, mit dem Arztpraxen, Apotheken und ähnliche Einrichtungen ohne eigenen Konnektor Zugang zur Telematik-Infrastruktur (TI) erhalten. Bei dem TI-Connect benannten Service verbinden sich die Kunden dann über einen VPN-Kanal mit dem TI-Gateway im Telekom-Rechenzentrum. Gesundheitsakteure müssen sich dann nicht mehr selbst darum kümmern, einen lokalen Konnektor auf dem neuesten Stand zu halten.

Weiterlesen nach der Anzeige

Die Telekom verspricht eine unkomplizierte Anbindung über dauerhaft aktuell gehaltene Hochgeschwindigkeits-Konnektoren mit ausreichend Redundanz. In den Praxisräumen soll dann ein herkömmlicher Router mit VPN-Tunnel zum Einsatz kommen, der für Kartenterminals sowie Rechner mit Praxisverwaltungssystem und KIM-Postfach den sicheren Kanal zum TI-Gateway aufbaut. Alternativ sei auch eine Verbindung über Client-Software möglich. Ebenfalls soll eine Mobile-Office-Option bei der Arbeit im Homeoffice oder von unterwegs TI-Zugang gewährleisten.

Pläne, die eher unbeliebten Einbox-Konnektoren als Standardzugang zur TI zu ersetzen, gibt es bereits seit einiger Zeit. Für die meisten Einrichtungen hat die Betreibergesellschaft Gematik ein TI-Gateway als Alternative vorgesehen, einen quasi von Sicherheitstechnik ummantelten Highspeed-Konnektor. Ihre Schnittstelle zur TI können kleinere Einrichtungen darüber als Gateway-Infrastruktur aus der Cloud beziehen – wie im Angebot der Telekom. Andere Anbieter wie Secunet und Telekonnekt haben ebenfalls Zulassungen für solche TI-Gateways erhalten. Für größere Einrichtungen wie Krankenhäuser und Pflegeheime ist aber auch der Betrieb eines eigenen Highspeed-Konnektors möglich.

Lokale Konnektoren durch Gateway-Zugängen zu ersetzen, ist ein Teil der Maßnahmen unter dem Schlagwort der TI 2.0, mit denen die Gematik die TI sicherer und performanter machen will. Die Umsetzung hat in diesem Jahr begonnen. Unter anderem ist auch die Umstellung auf eine Zero-Trust-Architektur geplant.


(axk)



Source link

Weiterlesen

Beliebt