Connect with us

Künstliche Intelligenz

39C3: Wie sich international sicher auf klinischen Daten rechnen lässt


Mit der elektronischen Patientenakte, Medizinregistern und weiteren Quellen sollen große Mengen sensibler Gesundheitsdaten für die Forschung nutzbar gemacht werden. Dafür entsteht auf nationaler Ebene das Forschungsdatenzentrum Gesundheit beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), dessen Daten perspektivisch Teil des Europäischen Gesundheitsdatenraums (EHDS) werden.

Weiterlesen nach der Anzeige

Gleichzeitig zeigt sich immer mehr, dass klassische Schutzmechanismen wie Pseudonymisierung, Anonymisierung oder reine Aggregation nicht ausreichen: Selbst aus veröffentlichten Statistiken lassen sich unter Umständen individuelle Gesundheitsinformationen rekonstruieren.

Eine alternative Herangehensweise beschreibt eine in npj Digital Medicine veröffentlichte Studie: Unter dem Titel „Privacy-friendly evaluation of patient data with secure multiparty computation in a European pilot study“ haben Forschende erstmals Patientendaten einer klinischen Studie mithilfe von Secure Multiparty Computation (SMPC) länderübergreifend ausgewertet – ohne die Daten zwischen den beteiligten Einrichtungen auszutauschen.

Die Studie wurde am Klinikum der Ludwig-Maximilians-Universität in München (LMU München) und am Policlinico Universitario Fondazione Agostino Gemelli in Rom durchgeführt. Insgesamt flossen die Daten von 48 Krebspatientinnen und ‑patienten ein, die wegen Metastasen der Nebenniere mit gezielter, hoch dosierter Strahlung behandelt wurden. Jeweils 24 Datensätze blieben physisch in München und Rom; für die gemeinsame Analyse wurden sie verschlüsselt in eine Secure‑Multiparty‑Computing‑Umgebung eingebracht. Weder die beteiligten Kliniken noch die auswertenden Forschenden konnten die Rohdaten der jeweils anderen Seite einsehen – sichtbar wurden ausschließlich die gemeinsam berechneten Ergebnisse.

Neben den medizinischen Resultaten – hohem lokalem Tumorkontrollgrad, geringer Toxizität und einer medianen Gesamtüberlebenszeit von 19 Monaten – steht vorwiegend der methodische Nachweis im Mittelpunkt: Die Studie zeigt, dass grenzüberschreitende klinische Forschung im europäischen Rechtsrahmen möglich ist, ohne sensible Patientendaten zentral zu sammeln oder weiterzugeben. Der organisatorische und rechtliche Aufwand war hoch, die eigentlichen Berechnungen dagegen schnell und effizient.


Hendrik Ballhausen

Hendrik Ballhausen

Hendrik ist Professor an der Ludwig-Maximilians-Universität München und leitet dort das Forschungsdekanat der Medizinischen Fakultät.

(Bild: Ballhausen)

Dass das Thema nicht nur die Medizin, sondern auch die Tech‑ und Zivilgesellschaft interessiert, zeigt sich auch daran, dass Hendrik Ballhausen von der LMU München den Ansatz der Secure Multiparty Computation auf dem 39. Chaos Communication Congress (39C3) vorgestellt hat. Wir haben mit ihm über die Studie gesprochen und darüber, warum Secure Multiparty Computation eine Antwort auf aktuelle Datenschutzdebatten sein kann.

Datenschutz im Gesundheitswesen wird viel diskutiert – gerade jetzt mit Blick auf den Europäischen Gesundheitsdatenraum und den sich damit ansammelnden besonders schützenswerten Daten. Warum ist jetzt ein guter Zeitpunkt, Ihre Studie auf dem 39C3 vorzustellen?

Weiterlesen nach der Anzeige

Der Trend geht dahin, große, zentralisierte Datenbanken aufzubauen. Das zu fordern ist sehr attraktiv für Wissenschaft, Politik und Wirtschaft. Es gibt aber auch Nachteile: große Datenbanken werden leicht zum Ziel für Angriffe, und sie verschieben das Gleichgewicht weg von denen, denen wir die Daten verdanken: Patient:innen und Wissenschaftler:innen. Wir wollen einen alternativen Ansatz zeigen: Kooperation und Forschung sind auch möglich, ohne Daten zu teilen. Das dient nicht nur dem Datenschutz, sondern ist auch ein Stück gelebter Föderalismus und macht unsere Infrastrukturen resilienter.

Wir haben erstmals eine klinische Studie über europäische Grenzen hinweg – zwischen München und Rom – gemeinsam ausgewertet, ohne dass eine Seite die Daten der anderen gesehen hat. Die Berechnungen liefen verschlüsselt über eine Secure‑Multiparty‑Computing‑Umgebung. Nach einem Pilotversuch in Deutschland in 2019 ist das nun der erste Einsatz dieser Technik im Europäischen Gesundheitsdatenraum.

Kritiker sagen oft: Datenschutz bremst Forschung aus. Stimmt das?

Das hören wir oft. Aber die Konsequenz kann nicht sein, dass der Datenschutz weg muss. Mit unserem Ansatz zeigen wir ja gerade: es geht beides. Und es gibt sogar Situationen, in denen Kooperation überhaupt erst möglich wird, wenn Schutzinteressen gewahrt bleiben.

In der Praxis war der technische Mehraufwand überschaubar. Zeit gekostet haben Verträge, Ethikvoten und Dokumentation. Die wären auch bei klassischem Datenaustausch nötig gewesen. Der technische Mehraufwand ist also geringer, als viele denken.

Es wird immer wieder gewarnt, dass selbst anonymisierte oder aggregierte Daten rekonstruierbar sein können. Wie ordnen Sie das ein?

Diese Warnungen sind primär bei sehr geringen Fallzahlen berechtigt, etwa bei seltenen Erkrankungen. SMPC geht einen anderen Weg: Die Daten werden gar nicht erst zusammengeführt. Es gibt keinen Punkt, an dem jemand einen vollständigen Datensatz sehen kann – nicht einmal die Forschenden.

Welche Rolle spielt dabei die Kontrolle durch die Datenhalter?

Eine sehr große. Bei SMPC müssen die Datenhalter – Kliniken oder perspektivisch auch Patienten – aktiv zustimmen, wenn eine neue Auswertung stattfinden soll. Es ist technisch unmöglich, die Daten „einfach weiterzuverwenden“. Wer nicht mehr mitmacht, dessen Daten sind raus. Das stärkt die Selbstbestimmung enorm. Wir wollen damit die Rolle der Akteure im System neu definieren – weg von passiven Datenlieferanten hin zu aktiven Teilnehmer:innen. Heute sind das die Universitätskliniken, die ihre Rolle verteidigen müssen. Morgen können das Bürgerinnen und Bürger sein, die im Sinne des Citizen Science selbst bestimmen werden, wem sie welche Daten zu welchem Zweck zur Verfügung stellen.

Ist das ein Modell für den EHDS oder das Forschungsdatenzentrum Gesundheit?

Zumindest ein möglicher Baustein. Aktuell setzt man dort stark auf zentrale Datenhaltung und Anonymisierung. Unser Ansatz zeigt, dass man auch dezentral forschen kann – datensparsam und DSGVO‑konform. Gerade bei seltenen Erkrankungen oder besonders sensiblen Daten könnte das sehr relevant werden. Und letztlich ist das auch im Sinne der Politik – heute entstehen die Daten in Krankenhäusern und „gehören“ staatlichen Einrichtungen. Aber wir müssen ein Angebot machen, wie man in Zukunft mit Daten umgeht, die wir sonst gar nicht zu sehen bekommen – Daten von Wearables beispielsweise. Die bekommen wir nur, wenn wir auf Augenhöhe agieren und Vertrauen schaffen.

Warum hat sich das noch nicht durchgesetzt?

Das Verfahren gilt unter Fachleuten als besonders sicher und mächtig – mathematische Sicherheits- und Vollständigkeitsbeweise gibt es schon seit den 1980ern. Aber auch als besonders komplex und schwierig in der Praxis umzusetzen. Zugänglichkeit für Nichtexperten ist definitiv ein Thema, das wir im Projekt adressiert haben. Davon abgesehen gibt es inzwischen sehr gute praxistaugliche Software-Lösungen.

Alles, was es braucht, ist ein Use Case, bei dem die Vorteile überwiegen – wie hier in der klinischen Forschung mit sensiblen Patientendaten. Wir haben bewusst auf eine etablierte Industrielösung gesetzt und dafür eine Middleware entwickelt, damit auch medizinische Forschende ohne Kryptografie‑Expertise damit arbeiten können.

Wie geht es jetzt weiter?

Wir haben gezeigt, dass es technisch und organisatorisch funktioniert. Gern bringen wir diese Expertise ein. Ob und wie das weitergeht, hängt vor allem vom politischen Willen ab. Moderner Datenschutz, made in Germany und medizinische Forschung sind kein Widerspruch.


(mack)



Source link

Künstliche Intelligenz

KI-Bilder statt Modefotografie | heise online


Die Fast-Fashion-Marke Zara unter dem Dach des spanischen Inditex-Konzerns setzt im großen Stil auf KI-unterstützte Bildproduktion. Der Modekonzern will Fotos realer Models per generativer Software variieren, statt für jede Produktvariante ein neues Shooting anzusetzen. Aus einmal aufgenommenen Fotos von Models sollen per KI zahlreiche Varianten entstehen, etwa mit anderen Farben, Schnitten oder Accessoires.

Weiterlesen nach der Anzeige

Pose, Körperform und Gesicht der realen Models bleiben dabei erhalten, während die Kleidung und die Hintergründe ausgetauscht werden. Das soll die Produktionszeit und die Kosten für neue Produktaufnahmen für Webshop und App drastisch reduzieren. Außerdem habe man so die Chance, quasi in Echtzeit auf der sich schnell bewegenden Modewelle zu reiten.

Zara ist nicht das erste einschlägige Unternehmen, das verstärkt auf KI setzt. Bereits vor einigen Monaten hatte H&M angekündigt, künftig verstärkt mit „digitalen Zwillingen“, KI-generierten Images seiner Models, arbeiten zu wollen. Die Rechte an den Klones sollen vollständig bei den Models bleiben, die Vergütung entspräche weitgehend herkömmlichen Honoraren. Auch Zalando hatte im Mai angekündigt, dem hohen Tempo, in dem sich Mode verändert, mit KI-Unterstützung zu begegnen.

Die Unternehmen betonen, dass die „Klon“-Strategie die menschliche Arbeit ergänzen und nicht vollständig ersetzen solle. Kritiker, darunter die britische Association of Photographers, sehen das anders. Es stehe zu befürchten, dass der Einsatz von generativer KI die Zahl klassischer Aufträge für Fotografen, Models und Produktionsteams verringern wird. Die Folge könnte ein schleichender Auftragsrückgang sein, der besonders jüngere und freischaffende Kreative trifft. Unklar ist auch, inwieweit künftig eine transparente Kennzeichnungspflicht für KI-generierte Bilder geregelt und durchgesetzt wird.


(swi)



Source link

Weiterlesen

Künstliche Intelligenz

China will anthropomorphe KI streng regulieren


Die chinesische Cybersicherheitsbehörde Cyberspace Administration of China (CAC) hat am 27. Dezember 2025 einen neuen Entwurf zur Regulierung von KI-Systemen zur öffentlichen Diskussion gestellt. Wie die Nachrichtenagentur Reuters berichtet, betreffen die Regeln an Endwanwender gerichtete KI-Systeme, die menschliches Verhalten nachahmen und zu emotionalen Interaktionen führen. Betroffen sollen Produkte und Dienste sein, die simulierte menschliche Persönlichkeitszüge oder Denkmuster aufweisen und mehr als eine Million insgesamt registrierte oder mehr als 100.000 monatlich aktive Nutzer haben Dabei spielt es keine Rolle, ob die Kommunikation über Text, Bilder, Sprache oder andere Medien erfolgt.

Weiterlesen nach der Anzeige

Die vorgeschlagene Regulierung soll die Anbieter verpflichten, während des kompletten Produkt-Lebenszyklus‘ Transparenz, Nachvollziehbarkeit, Datensicherheit und den Schutz persönlicher Nutzerdaten sicherzustellen.

Im Unterschied zu vielen anderen KI-Regulierungen betont das vorgeschlagene Regelwerk auch psychologische Risiken. Anbieter sollen Mittel zur Verfügung stellen, die Stimmungen und mögliche emotionale Abhängigkeiten der Nutzer erkennen und bei Bedarf intervenieren können. In extremen Situationen, etwa wenn Nutzer mit Suizid oder Selbstverletzung drohen, sollen menschliche Ansprechpartner übernehmen können. Minderjährige und ältere Menschen sollen zudem verpflichtet werden, vor Nutzung der Dienste Notfallkontakte zu hinterlegen.

Die Produkte oder Dienste müssen dem Vorschlag zufolge Anwender außerdem regelmäßig und an prominent platzierten Stellen darauf hinweisen, dass sie mit einer KI interagieren. Finden sich im Nutzerverhalten Muster, die auf Abhängigkeiten hindeuten, müssen zusätzliche Pop-ups diese Hinweise wiederholen. Übersteigt die Nutzungsdauer zwei Stunden, soll eine Zwangspause nötig werden.

Artikel 10 des Richtlinienvorschlags verpflichtet die Anbieter, für das Training der KI Datensätze zu verwenden, die „den Grundwerten des Sozialismus“ und den traditionellen Werten Chinas entsprechen. Anbieter sollen die Nachvollziehbarkeit der Trainingsdaten permament sicherstellen und dafür sorgen, dass die Systeme keine Inhalte generieren, die beispielsweise die nationale Sicherheit gefährden oder die soziale Ordnung stören.


(ulw)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop: Windows 11 im Unternehmen absichern


Der zweitägige Online-Workshop Windows 11 im Unternehmen absichern zeigt, wie Sie die Betriebssysteme Windows 11 Pro und Enterprise sicher im Unternehmensnetz betreiben. Dabei werden sowohl klassische On-Premises-Installationen von Windows 11 als auch hybride Modelle in Kombination mit Entra ID und Microsoft Endpoint Manager (Intune) berücksichtigt.

Weiterlesen nach der Anzeige

Anhand praktischer Demonstrationen typischer Bedrohungsszenarien lernen Sie Schwachstellen und die typischen Werkzeuge von Angreifern kennen und stellen diesen konkrete Härtungs- und Schutzmaßnahmen gegenüber. Microsoft bietet hierfür sinnvolle Sicherheitsfunktionen an, die jedoch nicht automatisch aktiv sind, sondern erst konfiguriert werden müssen. In diesem Workshop lernen Sie, wie Sie die Sicherheitsmechanismen und -tools einsetzen, um Ihre Systeme abzusichern. Dieser Workshop bietet viel Raum für Fragen und Austausch.

Februar
03.02. – 04.02.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 06. Jan. 2026
März
25.03. – 26.03.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 25. Feb. 2026
Mai
11.05. – 12.05.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 13. Apr. 2026
Juli
08.07. – 09.07.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 10. Jun. 2026
September
17.09. – 18.09.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 20. Aug. 2026

Referent Christian Biehler ist Experte für Informationsmanagement und IT-Sicherheit. Seine Themenschwerpunkte sind die Sicherheit von Netzwerken und Anwendungen sowohl in klassischen On-Premises-Umgebungen als auch im hybriden Windows-Umfeld.




(ilk)



Source link

Weiterlesen

Beliebt