Künstliche Intelligenz
39C3: Wie sich international sicher auf klinischen Daten rechnen lässt
Mit der elektronischen Patientenakte, Medizinregistern und weiteren Quellen sollen große Mengen sensibler Gesundheitsdaten für die Forschung nutzbar gemacht werden. Dafür entsteht auf nationaler Ebene das Forschungsdatenzentrum Gesundheit beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), dessen Daten perspektivisch Teil des Europäischen Gesundheitsdatenraums (EHDS) werden.
Weiterlesen nach der Anzeige
Gleichzeitig zeigt sich immer mehr, dass klassische Schutzmechanismen wie Pseudonymisierung, Anonymisierung oder reine Aggregation nicht ausreichen: Selbst aus veröffentlichten Statistiken lassen sich unter Umständen individuelle Gesundheitsinformationen rekonstruieren.
Eine alternative Herangehensweise beschreibt eine in npj Digital Medicine veröffentlichte Studie: Unter dem Titel „Privacy-friendly evaluation of patient data with secure multiparty computation in a European pilot study“ haben Forschende erstmals Patientendaten einer klinischen Studie mithilfe von Secure Multiparty Computation (SMPC) länderübergreifend ausgewertet – ohne die Daten zwischen den beteiligten Einrichtungen auszutauschen.
Die Studie wurde am Klinikum der Ludwig-Maximilians-Universität in München (LMU München) und am Policlinico Universitario Fondazione Agostino Gemelli in Rom durchgeführt. Insgesamt flossen die Daten von 48 Krebspatientinnen und ‑patienten ein, die wegen Metastasen der Nebenniere mit gezielter, hoch dosierter Strahlung behandelt wurden. Jeweils 24 Datensätze blieben physisch in München und Rom; für die gemeinsame Analyse wurden sie verschlüsselt in eine Secure‑Multiparty‑Computing‑Umgebung eingebracht. Weder die beteiligten Kliniken noch die auswertenden Forschenden konnten die Rohdaten der jeweils anderen Seite einsehen – sichtbar wurden ausschließlich die gemeinsam berechneten Ergebnisse.
Neben den medizinischen Resultaten – hohem lokalem Tumorkontrollgrad, geringer Toxizität und einer medianen Gesamtüberlebenszeit von 19 Monaten – steht vorwiegend der methodische Nachweis im Mittelpunkt: Die Studie zeigt, dass grenzüberschreitende klinische Forschung im europäischen Rechtsrahmen möglich ist, ohne sensible Patientendaten zentral zu sammeln oder weiterzugeben. Der organisatorische und rechtliche Aufwand war hoch, die eigentlichen Berechnungen dagegen schnell und effizient.

Hendrik ist Professor an der Ludwig-Maximilians-Universität München und leitet dort das Forschungsdekanat der Medizinischen Fakultät.
(Bild: Ballhausen)
Dass das Thema nicht nur die Medizin, sondern auch die Tech‑ und Zivilgesellschaft interessiert, zeigt sich auch daran, dass Hendrik Ballhausen von der LMU München den Ansatz der Secure Multiparty Computation auf dem 39. Chaos Communication Congress (39C3) vorgestellt hat. Wir haben mit ihm über die Studie gesprochen und darüber, warum Secure Multiparty Computation eine Antwort auf aktuelle Datenschutzdebatten sein kann.
Datenschutz im Gesundheitswesen wird viel diskutiert – gerade jetzt mit Blick auf den Europäischen Gesundheitsdatenraum und den sich damit ansammelnden besonders schützenswerten Daten. Warum ist jetzt ein guter Zeitpunkt, Ihre Studie auf dem 39C3 vorzustellen?
Weiterlesen nach der Anzeige
Der Trend geht dahin, große, zentralisierte Datenbanken aufzubauen. Das zu fordern ist sehr attraktiv für Wissenschaft, Politik und Wirtschaft. Es gibt aber auch Nachteile: große Datenbanken werden leicht zum Ziel für Angriffe, und sie verschieben das Gleichgewicht weg von denen, denen wir die Daten verdanken: Patient:innen und Wissenschaftler:innen. Wir wollen einen alternativen Ansatz zeigen: Kooperation und Forschung sind auch möglich, ohne Daten zu teilen. Das dient nicht nur dem Datenschutz, sondern ist auch ein Stück gelebter Föderalismus und macht unsere Infrastrukturen resilienter.
Wir haben erstmals eine klinische Studie über europäische Grenzen hinweg – zwischen München und Rom – gemeinsam ausgewertet, ohne dass eine Seite die Daten der anderen gesehen hat. Die Berechnungen liefen verschlüsselt über eine Secure‑Multiparty‑Computing‑Umgebung. Nach einem Pilotversuch in Deutschland in 2019 ist das nun der erste Einsatz dieser Technik im Europäischen Gesundheitsdatenraum.
Kritiker sagen oft: Datenschutz bremst Forschung aus. Stimmt das?
Das hören wir oft. Aber die Konsequenz kann nicht sein, dass der Datenschutz weg muss. Mit unserem Ansatz zeigen wir ja gerade: es geht beides. Und es gibt sogar Situationen, in denen Kooperation überhaupt erst möglich wird, wenn Schutzinteressen gewahrt bleiben.
In der Praxis war der technische Mehraufwand überschaubar. Zeit gekostet haben Verträge, Ethikvoten und Dokumentation. Die wären auch bei klassischem Datenaustausch nötig gewesen. Der technische Mehraufwand ist also geringer, als viele denken.
Es wird immer wieder gewarnt, dass selbst anonymisierte oder aggregierte Daten rekonstruierbar sein können. Wie ordnen Sie das ein?
Diese Warnungen sind primär bei sehr geringen Fallzahlen berechtigt, etwa bei seltenen Erkrankungen. SMPC geht einen anderen Weg: Die Daten werden gar nicht erst zusammengeführt. Es gibt keinen Punkt, an dem jemand einen vollständigen Datensatz sehen kann – nicht einmal die Forschenden.
Welche Rolle spielt dabei die Kontrolle durch die Datenhalter?
Eine sehr große. Bei SMPC müssen die Datenhalter – Kliniken oder perspektivisch auch Patienten – aktiv zustimmen, wenn eine neue Auswertung stattfinden soll. Es ist technisch unmöglich, die Daten „einfach weiterzuverwenden“. Wer nicht mehr mitmacht, dessen Daten sind raus. Das stärkt die Selbstbestimmung enorm. Wir wollen damit die Rolle der Akteure im System neu definieren – weg von passiven Datenlieferanten hin zu aktiven Teilnehmer:innen. Heute sind das die Universitätskliniken, die ihre Rolle verteidigen müssen. Morgen können das Bürgerinnen und Bürger sein, die im Sinne des Citizen Science selbst bestimmen werden, wem sie welche Daten zu welchem Zweck zur Verfügung stellen.
Ist das ein Modell für den EHDS oder das Forschungsdatenzentrum Gesundheit?
Zumindest ein möglicher Baustein. Aktuell setzt man dort stark auf zentrale Datenhaltung und Anonymisierung. Unser Ansatz zeigt, dass man auch dezentral forschen kann – datensparsam und DSGVO‑konform. Gerade bei seltenen Erkrankungen oder besonders sensiblen Daten könnte das sehr relevant werden. Und letztlich ist das auch im Sinne der Politik – heute entstehen die Daten in Krankenhäusern und „gehören“ staatlichen Einrichtungen. Aber wir müssen ein Angebot machen, wie man in Zukunft mit Daten umgeht, die wir sonst gar nicht zu sehen bekommen – Daten von Wearables beispielsweise. Die bekommen wir nur, wenn wir auf Augenhöhe agieren und Vertrauen schaffen.
Warum hat sich das noch nicht durchgesetzt?
Das Verfahren gilt unter Fachleuten als besonders sicher und mächtig – mathematische Sicherheits- und Vollständigkeitsbeweise gibt es schon seit den 1980ern. Aber auch als besonders komplex und schwierig in der Praxis umzusetzen. Zugänglichkeit für Nichtexperten ist definitiv ein Thema, das wir im Projekt adressiert haben. Davon abgesehen gibt es inzwischen sehr gute praxistaugliche Software-Lösungen.
Alles, was es braucht, ist ein Use Case, bei dem die Vorteile überwiegen – wie hier in der klinischen Forschung mit sensiblen Patientendaten. Wir haben bewusst auf eine etablierte Industrielösung gesetzt und dafür eine Middleware entwickelt, damit auch medizinische Forschende ohne Kryptografie‑Expertise damit arbeiten können.
Wie geht es jetzt weiter?
Wir haben gezeigt, dass es technisch und organisatorisch funktioniert. Gern bringen wir diese Expertise ein. Ob und wie das weitergeht, hängt vor allem vom politischen Willen ab. Moderner Datenschutz, made in Germany und medizinische Forschung sind kein Widerspruch.
(mack)
Künstliche Intelligenz
Google erbarmt sich: YouTube bekommt Vision-Pro-App
Überraschung am Donnerstag: Google hat seine allererste offizielle App für die Vision Pro publiziert – und es ist ausgerechnet YouTube. Die App war praktisch seit Einführung der Apple-Brille erhofft und erwartet worden, doch der Suchriese ließ sich viel Zeit. Ein unabhängiger und eigentlich sehr schöner Third-Party-Client namens Juno war von Google vertrieben worden; der Konzern ließ die App durch Apple entfernen, wie deren Entwickler bereits im Herbst 2024 mitteilte. Google hatte nach Ankündigung der Vision Pro im Sommer 2023 unterschiedliche Signale gesendet. Anfangs neigte das Unternehmen in Richtung „dagegen“, dann hieß es, man arbeite doch daran. Doch das brauchte augenscheinlich seine Zeit. Ob Google sich auch durch die neue Gemini-KI-Partnerschaft mit Apple überreden ließ, ist bislang nicht durchgesickert.
Weiterlesen nach der Anzeige
Was der Client so alles kann
Zunächst: YouTube für visionOS ist eine native App. Man bekommt also nicht einfach die iPadOS-Version vorgesetzt, die Google bislang für die Vision Pro gesperrt hatte. Gleich zu Anfang bewirbt die Anwendung passend dazu auch Spatial-Videos bei dem Dienst, für die es ein eigenes Tab gibt. Wobei diese oftmals recht pixelig – weil eher für Quest & Co. gemacht – ausfallen, denn 8K-Aufnahmen findet man bei YouTube quasi nicht. Eventuell ändert sich dies durch die Vision-Pro-Anwendung nun aber.
Die Oberfläche ist einfach gestaltet und hält sich relativ weitgehend an visionOS-Standards. Man navigiert durch besagte Tabs, zu denen auch der Zugriff auf das eigene Profil gehört, bei Wiedergabe erscheint das Video im Großbild, das man auch entsprechend aufziehen kann. Bei Spatial-Videos schaltet YouTube in den Spatial Mode, ist also komplett immersiv. Den Bildausschnitt kann man per Zwickgeste anpassen. Der Player für 2D-Videos scheint hingegen keine Gesten zu unterstützen, für Pause, Scrubbing und Vor- und Zurückspulen um 15 Sekunden nutzt man die übliche Augensteuerung, was Google hätte besser machen können. Störend ist, dass sich die Größe der Untertitel nicht anpassen lässt. Darüber hinaus lassen sich über Kontextmenüs Tonspuren und Untertitelsprache sowie auch Auflösung anpassen. Über ein Kontextmenü kann man Videos auch in Wiedergabelisten schicken, nervige fehlende Menüs bei eingeblendeten Videovorschlägen während des Pausierens wie unter tvOS – die dortige App ist völlig anders gestaltet – gibt es nicht.
Meditatives YouTube-Schauen
Der Client wirkt insgesamt sehr zurückgenommen. So kann man sich bei 2D-Videos voll aufs Anschauen konzentrieren, was durchaus angenehm ist. Erst wenn man auf die Titelzeile eines laufenden Videos klickt, kommen weitere Infos wie Description, der Einblick in die Kommentare sowie Videovorschläge. Letztere füllen auch nicht den Bildschirm, wenn man ein Video anhält oder es fertig abgespielt wurde. Eine Autoplay-Funktion für die automatische Wiedergabe des nächsten Clips existiert aber.
Im Spatial Mode verteilt YouTube die Kommentare und die Beschreibung sowie weitere Videovorschläge in separaten Schwebefenstern, genauso wie die Wiedergabesteuerung. Environments, also 3D-Umgebungen, hat Google nicht extra angefertigt, stattdessen sieht man jene, die man für die Vision-Pro-Oberfläche ausgewählt hat. Alles in allem können sich Vision-Pro-Besitzer freuen: Im ersten Kurztest wirkte die YouTube-App stabil. Was nun noch fehlt, um Käufer des 3700-Euro-Headsets (Einstiegspreis) glücklich zu machen, wäre eine offizielle Netflix-App. Diese wird nach wie vor nicht angeboten, stattdessen muss man per Browser oder über Web-App-Werkzeuge gucken.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
Neue Waymo-Robotaxis Ojai besser für schlechtes Wetter geeignet
Waymo erweitert seine Flotte von Robotaxis um die 6. Generation autonomer Fahrzeuge. Die Ojai-Robotaxis basieren auf Minivans des chinesischen Autoherstellers Zeekr, einer Geely-Tochter. Technisch werden die Autos mit verbesserten Kameras, Lidar und Radar ausgestattet, was vor allem der Sicherheit beim Fahren in schlechten Wetterbedingungen zugutekommen soll. Das ist notwendig für die geplante Expansion Waymos sowohl in den Nordosten der USA als auch international. Gleichzeitig werden die Kosten gesenkt.
Weiterlesen nach der Anzeige
Dies hatte die Tochter des Google-Konzerns Alphabet bereits im Sommer 2024 angekündigt. Die neuen Waymo-Robotaxis brauchen weniger Kameras und Radare und basieren auf Elektroautos der Marke Zeekr des chinesischen Konzerns Geely. Derzeit ist Waymo mit umgebauten Fahrzeugen des ebenfalls batteriebetriebenen Jaguar-Modells iPace unterwegs. Diese werden aber nicht ersetzt, die Robotaxi-Flotte wird um die Ojai genannten Minivans ausgebaut.
Bessere Technik für Regen, Eis und Schnee
Die neuen Ojai-Robotaxis wurden insbesondere beim Kamerasystem verbessert, schreibt Waymo. Die Auflösung der Hauptkamera wurde auf 17 Megapixel erhöht, bislang wurden 5- oder 8-Megapixel-Sensoren verwendet. Zudem wurde die Lichtempfindlichkeit verbessert, sodass das Bildverarbeitungssystem auch bei schlechten Lichtverhältnissen etwa dunkel gekleidete Personen auf der Straße eher bemerken soll. Das ist auch nützlich bei Regen oder Schnee. Zudem integriert Waymo „Reinigungssysteme zur Aufrechterhaltung der Sichtbarkeit“. Angesichts der besseren Kameras hat Waymo gleichzeitig die Anzahl reduziert, was die Kosten reduziert.
Daneben wurden auch die Lidar- und Radar-Systeme der Robotaxis verbessert, wobei Waymo auch von den gesunkenen Kosten gerade bei lasergestützter Technik profitiert. Auch die Optimierungen in diesen Bereichen sollen bei schlechten Wetterbedingungen helfen. Zudem soll „die Leistung bei Regen oder Schnee durch den Einsatz neuer, intern entwickelter Algorithmen verbessert werden“. Weniger bekannt ist, dass die Robotaxis auch über Mikrofone verfügen, um etwa Sirenen von Einsatzkräften frühzeitig zu erkennen und zu lokalisieren, selbst wenn diese Fahrzeuge noch gar nicht zu sehen sind.
Das Fahren bei schlechtem Wetter wird wichtig bei Waymos Expansionsplänen, denn der Betreiber hat erst letzte Woche angekündigt, den autonomen Taxidienst künftig auch in Boston im amerikanischen Nordosten anzubieten, eine der schneereichsten Großstädte der USA. Der Bundesstaat Massachusetts muss zunächst allerdings vollständig autonome Fahrzeuge legalisieren. Die beschleunigte globale Expansion umfasst auch Tokio, wo im Winter ebenfalls mit Schnee gerechnet werden muss. Bislang ist Waymo vorwiegend in schneefreien Städten der USA unterwegs, nämlich in Austin, Atlanta, Phoenix und Miami sowie in Los Angeles und San Francisco, wo die ersten Ojai-Robotaxis jetzt den Betrieb aufnehmen.
Kritik an China-Basis, Waymo wiegelt ab
Weiterlesen nach der Anzeige
Die chinesische Basis der neuen Waymo-Robotaxis hat allerdings bereits politische Bedenken innerhalb der USA ausgelöst. Erst letzte Woche gab es eine Anhörung im Senat zur Zukunft selbstfahrender Autos, wo der republikanische Senator Bernie Moreno zum Waymo-Sicherheitschef sagte: „Wir befinden uns in einem Wettlauf mit China, aber es scheint, als ob Sie sich mit China verbünden.“
Waymo-Sprecherin Sandy Karp hat dies gegenüber CNBC aber zurückgewiesen. Waymo werde Zeekr keinen „Zugriff auf seine streng geschützte Technologie für autonomes Fahren, Sensordaten oder Fahrerinformationen“ gewähren. Der chinesische Autohersteller stelle lediglich die „Basisfahrzeuge“, Waymo installiere die Technik für autonomes Fahren in den Autos innerhalb der USA. Neben den Zeekr-Minivans soll die Technik künftig auch im Hyundai Ioniq 5 eingebaut werden.
Lesen Sie auch
(fds)
Künstliche Intelligenz
Android ermöglicht Mitschnitt von Anrufen
Mit einer neuen Funktion in Android ermöglicht Google, laufende Anrufe aufzuzeichnen. Wie im September 2025 angekündigt, soll die Funktion in allen Ländern verfügbar sein, „in denen Pixel unterstützt wird“. Laut Google soll das Feature aber auch auf Geräten anderer Hersteller bereitgestellt werden.
Weiterlesen nach der Anzeige
Anrufaufnahmen mit Bordmitteln
Für Google stellt die Integration der Anrufaufzeichnung in gewisser Weise eine Kehrtwende dar: Denn im Jahr 2022 hatte der Hersteller sämtliche Drittanbieter-Apps mit diesem Feature aus dem Play Store geworfen. Hintergrund war damals, dass Anbieter von Anrufaufnahme-Apps eine Accessibility-Schnittstelle (API) ausnutzen. Laut Google dürfen jedoch nur Anwendungen diese API nutzen, die nachweislich Menschen mit Behinderung helfen.

Einstellungen der Anrufaufnahme in der Android-Telefon-App.
(Bild: heise medien)
Nun bringt der Hersteller die Anrufaufnahmefunktion selbst: Sie wird Teil der Telefon-App, scheint derzeit hierzulande jedoch nur für Betatester bereitzustehen, wie anfänglich etwa auch die iPhone-ähnlichen „Kontaktposter“. Die neue Funktion zur Aufnahme von Telefonanrufen wurde uns gestern auf einem Pixel 10 Pro angeboten, später auch auf einem Pixel 8. Offenbar wird sie aber auch schon für Geräte anderer Hersteller freigegeben. Ein Leser von Stadt-Bremerhaven.de will die Funktion schon auf seinem Fairphone 6 gesehen haben.

Vor der Anrufaufnahme erscheint ein großer Warnhinweis.
(Bild: heise medien)
Nutzer der Phone-App können die Anrufaufnahmef direkt über ein Auswahlfenster während eines Anrufs aktivieren. In den App-Einstellungen steht Nutzern zudem die Möglichkeit zur Wahl, sämtliche Anrufe von unbekannten Nummern aufzuzeichnen. Ebenso kann man für bestimmte Rufnummern festlegen, dass Anrufe automatisch aufgezeichnet werden. Die aufgezeichneten Anrufe sind direkt in der Anrufübersicht anhör- und auch teilbar. Laut Google bleiben die gespeicherten Anrufe nur lokal auf dem Gerät und werden nicht extern gesichert. Um den Speicher zu schonen oder Daten zu schützen, können Nutzer in den Einstellungen festlegen, ob Aufnahmen nach 7, 14 oder 30 Tagen automatisch gelöscht werden sollen.
Mitschneiden nur mit Erlaubnis
Weiterlesen nach der Anzeige
In Deutschland darf man einen Anruf nicht heimlich und ohne Einverständnis des Gegenübers aufzeichnen: Nach Paragraph 201 Absatz 1 des Strafgesetzbuchs ist das unbefugte Mitschneiden von Telefongesprächen untersagt – es ist ansonsten eine „Verletzung der Vertraulichkeit des Wortes“. Um einen Anruf aufzeichnen zu dürfen, benötigt man die explizite Zustimmung des Gesprächspartners. Bei Verstoß drohen Freiheitsstrafen von bis zu drei Jahren.
Die Gesprächspartner werden beim Start „hörbar darüber benachrichtigt, dass der Anruf aufgezeichnet wird“, betont Google. Dieser Hinweis ersetzt keine Einverständniserklärung. Auch beim Beenden der Aufnahme werden laut Google beide Parteien darüber informiert, dass der Anruf nicht mehr aufgezeichnet wird.
Google macht in einem Support-Dokument zur Funktion zudem darauf aufmerksam, dass Nutzer vor der ersten Anrufaufzeichnung darauf hingewiesen wird, dass man die örtlichen Gesetze für die Aufzeichnung von Anrufen einhalten muss.
Einschränkungen
Google macht in dem Dokument zudem deutlich, dass auf unterstützten Pixel-Geräten Android 14 oder neuer installiert sein muss. Zudem funktioniere das Ganze nur ab einem Pixel 6 oder neuer. Überdies müsse die aktuelle Version der Telefon-App vorliegen (derzeit nur Beta), außerdem müsse man sich in einem der Länder oder einer der Regionen befinden, in denen die Anrufaufzeichnung unterstützt werde.
Dass die Funktion auch auf Nicht-Pixel-Modellen unterstützt wird, bestätigt Google in dem Support-Dokument auch. Auf den Smartphones muss mindestens Android 9 oder neuer installiert sein. Wir haben bei Google nachgefragt, ob die Funktion bald für alle freigeschaltet wird.
(afl)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 2 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
