Künstliche Intelligenz
Datenschutzgutachten zum Praxisregister Schmerz offenbart fragwürdige Praktiken
Gesundheitsdaten gelten als sehr wertvoll. Zunehmend werden Ärzten unter anderem Geld oder andere Vorteile im Tausch gegen Gesundheitsdaten angeboten. Erneut übt das Netzwerk Datenschutzexpertise in einem Gutachten scharfe Kritik an dieser Praxis – dieses Mal am Praxisregister Schmerz. Das Register wird von der Deutschen Gesellschaft für Schmerzmedizin (DGS) und der Firma O.Meany betrieben. Es sammelt seit 2014 mithilfe von Fragebögen und Arztinformationen umfangreiche Gesundheitsdaten von Schmerzpatientinnen und -patienten. Nach Einschätzung des Netzwerks werden dabei Datenschutzrechte missachtet und mit sensiblen Patientendaten erhebliche Gewinne erzielt.
„Rechtlich unwirksame Einwilligungserklärungen“
Die Daten würden unter dem Vorwand der Gemeinnützigkeit und mit wissenschaftlich fragwürdigen Auswertungen vor allem für die Pharmaindustrie vermarktet. „Mit intransparenten Informationen und rechtlich unwirksamen Einwilligungserklärungen beschaffen sich die Betreiber bei Patienten und Heilberufen mit dem Ziel einer guten Behandlung von den Patienten sensitive Gesundheitsdaten, die dann unter dem Deckmantel der Gemeinnützigkeit mit aus wissenschaftlicher Sicht fragwürdigen Auswertungen für die Pharmaindustrie zu Geld gemacht werden. Eine Offenlegung der Praktiken wird verweigert“, heißt es in dem Gutachten (PDF).
Die Information an die Patienten und Ärzte über die tatsächliche Verwendung der Daten sei intransparent. Eine Offenlegung der genauen Praktiken wird von den Verantwortlichen verweigert. Auf Fragen von heise online, etwa, an wen und unter welchen Umständen die Daten verkauft werden, hat die Deutsche Gesellschaft für Schmerzmedizin bisher nicht reagiert.
Die Dokumentation erfolge über die Online-Plattform iDocLive, die als Ergänzung zum Praxisverwaltungssystemen eingesetzt werde. Die im Register gespeicherten Daten dienen nicht nur der Behandlung und Abrechnung, sondern würden auch für Forschungszwecke genutzt. Hinter dem Handel mit den Daten steht Privatdozent Michael A. Überall, der in mehreren Funktionen an zentraler Stelle eingebunden ist. Das hatte der Spiegel im März offengelegt.
„Fragwürdiger Interessenkonflikt“
Aus den Recherchen ging hervor, dass Überall mit seiner Firma O.Meany eine Software namens iDocLive betreibt, die für die Verwaltung der Patientendaten dient. Die Patienten müssen für das Praxisregister Schmerz die Schmerz-Fragebögen und das Schmerz-Tagebuch ausfüllen. Den Interessenkonflikt fand die ehemalige DSG-Vorständin Astrid Gendolla fragwürdig. Kritische Nachfragen wurden abgetan. „Das ganze System dient vor allem dem Wohle desjenigen, der die Daten besitzt und damit Geld verdient. Das sind weder die Patienten noch die Ärzte“, sagte Gendolla gegenüber dem Spiegel.
„Gemäß der Darstellung des Spiegelberichts besteht eine zentrale Funktion des Praxisregisters darin, durch die Auswertung der gesammelten Daten der DGS mbH (20 Prozent) und der O.Meany (80 Prozent) lukrative Einnahmen zu generieren, ohne dass dies den die Daten liefernden Patienten und Ärzten bewusst ist“, steht dazu im Gutachten. Laut Spiegel werden die Daten unter anderem von Pharmaunternehmen genutzt, um die Wirksamkeit bestimmter Arzneimittel gegen Schmerzen zu belegen. Die Ergebnisse fielen im Beispiel des Schmerzmittels Tapentadol von der Pharmafirma Grünenthal positiv aus. Überall habe zudem zahlreiche Zuwendungen und Aufträge von Grünenthal und ähnlichen Unternehmen erhalten. Die Wissenschaftlichkeit der Ergebnisse wird infrage gestellt.
(mack)
Künstliche Intelligenz
Podcast: Kritische Infrastrukturen — wenn IT-Sicherheit zur Schwachstelle wird
Der aktuelle Angriff der USA auf iranische Uranaufbereitungsanlagen war nicht der erste seiner Art. Genau genommen war es schon der erste seiner Art: denn als die USA und Israel zuletzt versuchten, das iranische Atomprogramm zu stoppen, taten sie das auf minimalinvasive Art und Weise: mit einem ausgefeilten Cyberangriff. Stuxnet ging in die Geschichte ein als der erste cyberphysische Angriff und der Beginn einer neuen Ära: Der Angriff galt als der Auftakt des Cyberwar. „Damals dachte man, dass künftige Kriege reine Cyberkriege sein werden“, sagt Sarah Fluchs im c’t-Podcast „They Talk Tech“, „aber das ist so nicht eingetroffen.“ Die Expertin beschäftigt sich mit der Sicherheit kritischer Infrastrukturen und industrieller Kontrollsysteme. Wie angreifbar diese sind, wurde mit Stuxnet klar und ist angesichts der aktuellen geopolitischen Situation ein drängendes Thema.
Ein Grund dafür, dass man dennoch nur hin und wieder von Cyberangriffen auf kritische Infrastrukturen zum Beispiel im Energiesektor hört – unter anderem im Zuge der russischen Angriffe auf die Ukraine – sei sicherlich, dass es doch nicht ganz so einfach ist, mit rein digitalen Angriffen massive physische Zerstörungen anzurichten, sagt Fluchs. „Wenn wirklich schwarzer Rauch gefordert ist, also physische Zerstörung, dann ist ein Cyberangriff oft nicht die effizienteste Waffe.“
Wirklich verheerend werden digitale Angriffe erst in Kombination mit physischen Angriffen. Das zeigte sich etwa zu Beginn des russischen Angriffskriegs gegen die Ukraine. Noch bevor die ersten Bomben fielen, legte ein Cyberangriff auf das Satellitennetzwerk KA-SAT die Kommunikation lahm – mit Auswirkungen bis nach Westeuropa. „Das wirklich Bedrohliche ist nicht der einzelne Cyberangriff, sondern das Zusammenspiel“, sagt Sarah Fluchs. „Wenn etwa ein Angriff auf die Kommunikation einen Bombenangriff noch viel schlimmer macht.“
Gleichzeitig ist seit dem Bombenangriff der USA die Angst groß, dass der Iran mit Cyberangriffen auf kritische Infrastrukturen in den USA und Europa zurückschlägt. Deshalb sei es wichtig, sich jetzt intensiv mit der Sicherheit entsprechender Anlagen zu beschäftigen. Aber das ist gar nicht so einfach, denn die Sicherheit kritischer Infrastrukturen ist komplex – unter anderem gerade deshalb, weil in den vergangenen Jahren immer mehr Schichten an Sicherheitsmaßnahmen ergänzt wurden. „Die Best-Practice-Listen wachsen immer auch nur. Es hat ja nie jemand in den letzten 20 Jahren jemals eine Best- Practice wieder runtergenommen.“ Dadurch werden die Anforderungen für Menschen undurchsichtig.
„Wir haben mittlerweile mit den allerbesten Intentionen so komplizierte Systeme gebaut, dass wir sie nicht mehr durchblicken“, sagt Fluchs. Jede zusätzliche Sicherheitsmaßnahme erhöht die Komplexität – und damit auch das Risiko, dass etwas schiefläuft. Ein Beispiel dafür ist das Update der Sicherheitssoftware CrowdStrike, das im Sommer 2024 weltweit Systeme lahmlegte und unter anderem ein riesiges Chaos im Flugverkehr verursachte. Gerade bei Sicherheitsmaßnahmen sei es wichtig, gut zu überlegen, was man brauche und was vielleicht auch verzichtbar ist. Denn gerade bei industriellen Kontrollsystemen sei es unabdingbar, Sicherheit einfach zu gestalten, weil jedes Update auch ein Risiko mit sich bringt. KI und die verlockende Möglichkeit, immer mehr Daten auszuwerten, mache es nicht unbedingt besser – im Gegenteil: Je mehr Daten erhoben würden, umso unübersichtlicher werde alles. „Wir sehen das gerade bei Security Tools“, sagt Fluchs: Immer mehr Daten würden erhoben, ohne zu analysieren, wie sinnvoll diese wirklich seien für die Fragestellung. „Alles blinkt wie ein Tannenbaum und die Leute schauen drauf und haben keine Ahnung mehr, was sie damit tun sollen.“
Dazu kommt, dass auch Software angesichts vieler Komponenten, die in Systemen stecken, unüberschaubar und dadurch ebenfalls unsicher wird. Das zeigte sich etwa bei der manipulierten Open-Source-Bibliothek XZ Utils, deren Backdoor nur durch Zufall entdeckt wurde. „Wir müssen aufhören, Systeme zu bauen, die Menschen nicht mehr verstehen“, fordert Fluchs. Ein Kernproblem sei der leichtsinnige Einsatz von Open-Source-Produkten. Unternehmen verlassen sich auf freie Komponenten, ohne Verantwortung für deren Sicherheit zu übernehmen. „Wir können Open Source nicht mehr so nutzen, als sei sie kostenlos und niemand verantwortlich“, sagt Fluchs. Künftig, etwa durch den Cyber Resilience Act der EU, dürften Hersteller auch für die Sicherheit fremder Komponenten haften.
Besonders gefährlich findet Fluchs, dass viele neue Systeme die Transparenz weiter verschlechtern. Tools automatisieren Entscheidungen, die niemand mehr nachvollziehen kann. „KI kann Informationen aufbereiten, aber Entscheidungen müssen Menschen treffen“, sagt sie. „Sonst fliegt uns das irgendwann um die Ohren.“
Sicherheit bedeute nicht, alles technisch Mögliche umzusetzen. Im Gegenteil: Wer einfach nur Best Practices aufeinanderschichtet, schaffe oft ein undurchschaubares, wartungsintensives System. „Manchmal ist es besser, Dinge bewusst wegzulassen“, so Fluchs. Gerade im industriellen Umfeld sei Reduktion oft die bessere Strategie – auch, weil jedes Update eine Herausforderung ist: „Du kannst ein Atomkraftwerk nicht neu starten, nur weil Windows Patchday hat.“ Je deterministischer ein System in diesem Bereich funktioniert, umso einfacher ist es, es zu schützen – weil es für Menschen durchschaubar bleibt. „Weniger ist hier wirklich manchmal mehr“, so Fluchs.
Stuxnet hat 2010 eine Tür aufgestoßen. Seither haben sich Cyber- und physische Angriffe weiter verzahnt, während die Verteidigung Systeme weiter verkompliziert hat. Die größte Gefahr liegt vielleicht nicht mehr im gezielten Angriff, sondern in der Intransparenz der Verteidigung.
„They Talk Tech“ erscheint jeden Mittwoch überall, wo es Podcasts gibt. Svea Eckert und Eva Wolfangel diskutieren ein Tech-Thema oder treffen inspirierende Frauen aus und rund um die Tech-Welt.
(mond)
Künstliche Intelligenz
USA: Polizisten haben Kennzeichen-Scanner missbraucht
Kennzeichen-Scanner, die ohne Verdacht oder Anlass alle vorbeifahrenden Fahrzeuge erfassen und speichern, sind bei US-Polizisten besonders beliebt. Es gibt nur bescheidene Einschränkungen für die Auswertung der Daten. Und selbst die halten manche Polizeibehörden nicht ein. Flock, einer von mehreren Scannerbetreibern in den USA, ergreift jetzt behutsame Maßnahmen gegen Missbrauch: Daten aus Kalifornien, Illinois und Virginia können nur noch im Staat selbst abgefragt werden. Bald soll auch eine KI bei möglichem Missbrauch Mitteilung machen.
Flock hat in mehr als 5.000 US-Städten und Gemeinden Kennzeichenscanner installiert. Erklärtes Ziel ist, die Überwachungsgeräte in allen US-Kommunen auszurollen. Die Kameras erkennen neben Kennzeichen auch Modell, Farbe und besondere Merkmale aller erfassten Fahrzeuge und legen diese Informationen für spätere Abfragen in eine Datenbank. Gerichtliche Genehmigungen sind nicht erforderlich.
Die örtliche Polizeibehörde kann die Datenbank für Abfragen durch andere Polizeibehörden freigeben, entweder für bestimmte Partner, für alle in einem gewissen Umkreis, im selben Staat, oder überhaupt US-weit (National Lookup). Möchte eine Polizeibehörde selbst die landesweite Suche nutzen, muss sie ihre eigenen Daten ebenfalls für National Lookup zur Verfügung stellen. Und so ist das Netz für National Lookup stark gewachsen.
Einzelne US-Staaten haben Gesetze, die die Abfragen einschränken. Nach kalifornischem Recht dürfen die Daten nur innerhalb des Staates geteilt werden. Illinois schränkt die Datenweitergabe an Behörden außerhalb des Staates ein: Sie dürfen Illinois‘ Daten nicht zur Verfolgung von Frauen, die Abtreibungen in Anspruch genommen haben könnten, sowie zur Verfolgung von Menschen, deren Aufenthaltstitel abgelaufen sein könnte, verwenden. Und ab Juli beschränkt Virginia die Abfragen auf bestimmte Zwecke: Verdacht der Verletzung städtischer Verordnungen, des Strafrechts des Staates Illinois, des Diebstahls eines Fahrzeuges sowie bei Vermisstenmeldungen und Fahndungen. Damit sind Verletzungen des US-Aufenthaltsrechts wahrscheinlich nicht gedeckt. Zudem beschränkt Virginia die Speicherdauer auf 21 Tage.
Missbrauch aufgeflogen
404media hat aufgedeckt, dass sich manche Polizeibehörden über die bereits geltenden Regeln hinwegsetzen. Sie greifen durchaus von außerhalb auf kalifornische Daten zu oder suchen in Illinois‘ Datenbank nach Hinweisen auf Personen mit abgelaufenem Visum. Diese Erkenntnis geht ausschließlich auf die von den Polizisten im elektronischen Abfrageformular angegebenen Abfragegründe zurück. Dabei haben sie unmittelbar zuvor die Einhaltung der Vorschriften Illinois‘ per Mausklick bestätigen müssen.
Dabei sind die abfragenden Polizisten für Aufenthaltsrecht gar nicht zuständig. Sie versuchen offenbar aus eigenem Drang, der zuständigen Bundesbehörde zuzuarbeiten. 47 Polizeibehörden sind wegen solcher verbotenen Abfragen in Illinois aufgeflogen, als Flock in Folge des Berichts 404medias selbst ein Audit durchgeführt hat.
Reaktion des Betreibers
Als Reaktion hat Flock zuerst einen Filter installiert, der die Abfrage verhindern soll, wenn ein illegaler Abfragegrund (wie zum Beispiel „Immigration“ oder „Abortion“) angegeben wird. Das greift aber nur in Illinois. Inzwischen geht Flock noch einen Schritt weiter und sperrt Abfragen aus anderen US-Staaten in Kalifornien, Illinois und Virginia.
Aus Texas ist ein Fall bekannt geworden, in dem ein Polizist in Flocks Kennzeichendatenbank landesweit nach einer Frau gesucht hat, die eigenständig abgetrieben haben soll. In Texas sind Abtreibungen praktisch vollständig verboten. Der Polizist und Flock streiten ab, dass es bei der Suche um Strafverfolgung ging. Vielmehr habe sich die Familie der Frau Sorgen gemacht und Vermisstenmeldung erstattet, der der Polizist dann nachgegangen sei.
Noch dieses Jahr möchte Flock Künstliche Intelligenz auf Patrouille schicken. Sie soll verdächtige Abfragen erkennen und dann einen Mitarbeiter jener Polizeibehörde informieren, in dessen Gebiet die abgefragte Kamera steht. Automatische Sperren sind nicht vorgesehen. Zudem möchte Flock den einzelnen Polizeibehörden ermöglichen, das Abfrageformular zu verbessern: Sie können dann verlangen, dass Abfragende eine Aktenzahl angeben müssen, sodass theoretisch überprüft werden kann, für welchen Fall die Abfrage durchgeführt wird. Pläne, das landesweit verpflichtend zu machen, hat Flock nicht.
(ds)
Künstliche Intelligenz
Kein Verbot vorgesehen: Creative Commons arbeitet an Lizenzen fürs KI-Training
Die für die gleichnamigen Lizenzen verantwortliche Organisation Creative Commons arbeitet an Kennzeichnungen, um bei Datensätzen anzugeben, unter welchen Bedingungen die für das Training von KI-Modellen benutzt werden können. Das geht aus einem Blogeintrag hervor, in dem die „CC Signals“ vorgestellt werden. Erklärtes Ziel ist die Erhaltung des offenen Internets, indem klar geregelt wird, ob und wie Inhalte für KI-Training benutzt werden können. Andernfalls drohe eine Zukunft, in der die Daten weiter einfach benutzt würden und die Verantwortlichen versuchen, das technisch zu unterbinden. Das Ergebnis wäre ein Netz aus abgegrenzten Bereichen, die etwa von Paywalls geschützt würden.
Viel Kritik auf der Projektseite
Wie Creative Commons erklärt, wurden vier CC-Signale erarbeitet. Alle sehen vor, dass für die Benutzung des Datensatzes eine Anerkennung („Credit“) der Verantwortlichen fällig ist, dabei geht es also um eine Art Namensnennung. Weiterhin soll man vorschreiben können, dass für die Nutzung ein finanzieller Beitrag fällig ist. Dabei sieht Creative Commons zwei Formen vor. Einmal geht es um Geld für die Verantwortlichen selbst oder Geld für das Ökosystem, zu dem es gehört. Der Betrag solle jeweils nach Treu und Glauben ermittelt werden. Schließlich sollen die Verantwortlichen auch vorschreiben können, dass ihre Daten nur für das Training von KIs benutzt werden können, die offen sind. Ein komplettes Verbot von KI-Training ist nicht vorgesehen.
Ziel des Projekts ist die Entwicklung eines globalen Werkzeugs, so wie es die Creative-Commons-Lizenzen längst geworden sind. Es sollten keine neuen Besitzrechte entstehen, sondern mehr eine Art von „Manieren für Maschinen“, schreibt die Organisation. Die erkennt an, dass man darauf angewiesen sei, dass sich KI-Firmen daran halten. Natürlich könne man zynisch sein und daran Zweifel haben, aber es gebe viele Gründe, das Gegenteil zu erwarten. Den Signalen sollen zudem technische Standards zugrunde liegen, die von der Internet Engineering Task Force entwickelt werden. Zu dem Projekt gibt es eine eigene Seite auf GitHub, dort bittet die Organisation um Feedback. Bislang gibt es dort fast ausschließlich und teils harsche Kritik.
(mho)
-
Social Mediavor 2 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 2 Wochen
Aktuelle Trends, Studien und Statistiken
-
Online Marketing & SEOvor 2 Wochen
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
UX/UI & Webdesignvor 2 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 2 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
Online Marketing & SEOvor 2 Wochen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen
-
Apps & Mobile Entwicklungvor 2 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 2 Wochen
Wie gelingt eine einwandfreie Zusammenarbeit?