Datenschutz & Sicherheit
EU-Staaten einigen sich auf freiwillige Chatkontrolle
Die EU-Staaten haben sich auf eine gemeinsame Position zur Chatkontrolle geeinigt. Wir veröffentlichen den Gesetzentwurf.
Letzte Woche hat die Rats-Arbeitsgruppe das Gesetz besprochen. Wir veröffentlichen ein weiteres Mal das eingestufte Protokoll der Sitzung.
Morgen wollen die Ständigen Vertreter die Position offiziell beschließen.
Drei Jahre Streit
Seit dreieinhalb Jahren streiten die EU-Institutionen über die Chatkontrolle. Die Kommission will Internet-Dienste verpflichten, die Inhalte ihrer Nutzer anlasslos auf Hinweise zu Straftaten zu durchsuchen und diese bei Verdacht an Behörden zu schicken.
Das Parlament bezeichnet das als Massenüberwachung und fordert, nur unverschlüsselte Inhalte von Verdächtigen zu scannen.
Eine Mehrheit der EU-Staaten will eine verpflichtende Chatkontrolle. Eine Sperrminorität lehnt das jedoch ab. Jetzt hat sich der Rat auf einen Kompromiss geeinigt. Internet-Dienste werden nicht zur Chatkontrolle verpflichtet, dürfen aber eine freiwillige Chatkontrolle durchführen.
Absolute rote Linien
Die dänische Ratspräsidentschaft will den Gesetzentwurf „schnellstmöglich“ durch den Rat bringen, „damit die Trilogverhandlungen zeitnah begonnen werden können“. Das Feedback der Staaten soll sich auf „absolute rote Linien“ beschränken.
Die Mehrheit der Staaten „unterstützten den Kompromissvorschlag“. Mindestens 15 sprachen sich dafür aus, darunter Deutschland und Frankreich.
Deutschland „begrüßte sowohl die Streichung der verpflichtenden Maßnahmen als auch die dauerhafte Verankerung freiwilliger Maßnahmen“.
Italien sieht auch die freiwillige Chatkontrolle skeptisch. „Man befürchte, das Instrument könne auch auf andere Delikte ausgeweitet werden, daher habe man Schwierigkeiten, den Vorschlag zu unterstützen.“ Politiker haben bereits gefordert, die Chatkontrolle auf andere Inhalte auszuweiten.
Absoluter Minimalkonsens
Andere Staaten bezeichneten den Kompromiss „als absoluten Minimalkonsens“. Sie haben sich „eigentlich mehr gewünscht – insbesondere im Sinne von Verpflichtungen“. Einige Staaten „zeigten sich deutlich enttäuscht über die vorgenommenen Streichungen“.
Vor allem Spanien „sah verpflichtende Maßnahmen weiterhin als erforderlich an, leider sei eine umfassende Einigung dazu nicht möglich gewesen“. Auch Ungarn „sah Freiwilligkeit als alleiniges Konzept als zu wenig an“.
Spanien, Ungarn und Bulgarien schlugen „eine Verpflichtung für die Anbieter vor, zumindest in offenen Bereichen aufdecken zu müssen“. Die dänische Ratspräsidentschaft „bezeichnete den Vorschlag als ehrgeizig, griff ihn aber nicht auf, um weitere Diskussionen zu vermeiden“.
Dänemark wies explizit auf die Überprüfungsklausel hin. Damit „halte man sich die Möglichkeit von Aufdeckungsanordnungen zu einem späteren Zeitpunkt offen“. Ungarn betonte, „dass diese Möglichkeit auch genutzt werden müsse“.
Keine Verpflichtung
Die dänische Ratspräsidentschaft hatte öffentlich verkündet, dass die Chatkontrolle nicht verpflichtend sein soll, sondern freiwillig.
Der ausformulierte Kompromissvorschlag war jedoch widersprüchlich. Den Artikel zur verpflichtenden Chatkontrolle hatte sie gestrichen. Ein anderer Artikel sagte jedoch, dass Dienste auch freiwillige Maßnahmen durchführen sollen.
Mehrere Staaten haben gefragt, ob diese Formulierungen „zu einer faktischen Verpflichtung führen könnten“. Die Juristischen Dienste stimmten zu: „Die Formulierung sei in beide Richtungen auslegbar“. Die Ratspräsidentschaft „stellte klar, dass es im Text lediglich eine Verpflichtung zur Risikominderung gäbe, nicht aber eine Verpflichtung zur Aufdeckung“.
Am Tag nach der Sitzung verschickte die Ratspräsidentschaft den wahrscheinlich endgültigen Gesetzentwurf des Rats. Darin steht explizit: „Keine Bestimmung dieser Verordnung ist so auszulegen, dass sie den Anbietern Aufdeckungspflichten auferlegt.“
Schaden und Missbrauch
Die verpflichtende Chatkontrolle ist nicht das einzige Problem im geplanten Gesetz. Auch die freiwillige Chatkontrolle ist eigentlich verboten. Die EU-Kommission kann ihre Verhältnismäßigkeit nicht belegen. Viele lehnen die freiwillige Chatkontrolle ab, darunter die EU-Kommission, der Europäische Datenschutzbeauftragte und die deutsche Datenschutzbeauftragte.
Eine Reihe an Wissenschaftlern kritisiert den Kompromissvorschlag. Die freiwillige Chatkontrolle bezeichnen sie als nicht angemessen. „Ihr Nutzen ist nicht nachgewiesen, während das Potenzial für Schaden und Missbrauch enorm ist.“
Das Gesetz fordert auch verpflichtende Altersprüfungen. Die Wissenschaftler kritisieren, dass Altersprüfungen „ein inhärentes und unverhältnismäßiges Risiko schwerwiegender Datenschutzverletzungen und Diskriminierung mit sich bringen, ohne dass ihre Wirksamkeit garantiert ist“. Auch die Bundesdatenschutzbeauftragte befürchtet eine „weitgehende Abschaffung der Anonymität im Netz“.
Jetzt folgt Trilog
Die EU-Staaten werden diese Punkte nicht weiter diskutieren. Die dänische Ratspräsidentschaft „bekräftigte, am Kompromissvorschlag ohne die spanischen Vorschläge festzuhalten“.
Morgen tagen die Ständigen Vertreter der EU-Staaten. Im Dezember tagen die Justiz- und Innenminister. Diese beiden Gremien sollen den Gesetzentwurf als offizielle Position des Rats beschließen.
Danach folgt der Trilog. Dort verhandeln Kommission, Parlament und Rat, um aus ihren drei eigenen Gesetzentwürfen einen Kompromiss zu erzielen.
Hier ist das Dokument in Volltext:
- Geheimhaltungsgrad: Verschlusssache – Nur für den Dienstgebrauch
- Datum: 13. November 2025
- An: Auswärtiges Amt
- Kopie: BKAmt, BMI, BMJV, BMF, BMWE, BMBFSFJ
- Betreff: Sitzung der RAG Strafverfolgung am 12. November 2025
- Zweck: Zur Unterrichtung
- Geschäftszeichen: 350.80
Sitzung der RAG Strafverfolgung am 12. November 2025
I. Zusammenfassung und Wertung
Schwerpunkt der Sitzung bildete TOP 3 – Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse (11596/25). Grundlage der Aussprache bildete der mit Dok. 14092/25 am 6. November von der DNK Präsidentschaft übermittelte Kompromisstext.
Die Mehrzahl der wortnehmenden MS brachten ihre Unterstützung für den jüngsten Kompromissvorschlag zum Ausdruck.
Nachdem Vorsitz eine ausreichende Mehrheit für den Kompromisstext festgestellt hatte, kündigt er Vorlage im AStV am 19. November (I-Punkt) sowie im JI-Rat im Dezember an.
II. Im Einzelnen
TOP 1: Adoption of the agenda
Annahme ohne Änderungen.
TOP 2: Information by the Presidency
Präs. verwies auf die nächsten Sitzungen der Temporary Core Group zu den Polizei-Netzwerken (als VSK) am 25.11. und der RAGS-P am 03.12.2025. Schriftliche Bemerkungen zu dem Papier der Präs. zu den Polizei-Netzwerken vom 06.11. würden bis 13.11.2025 erbeten.
TOP 3: Proposal for a Regulation of the European Parliament and of the Council laying down rules to prevent and combat child sexual abuse (14092/25)
Vorsitz eröffnete die Sitzung zunächst mit einer Zusammenfassung der am Text vorgenommenen inhaltlichen Änderungen, verwies auf den äußerst knappen Zeitplan aufgrund des Auslaufens der Interims-VO und kündigte eine schnellstmögliche Behandlung im AStV und Dezember-JI-Rat an, damit die Trilogverhandlungen zeitnah begonnen werden können. MS seien ausdrücklich gebeten, sich auf eine kurze Bewertung des Kompromisstextes und absolute rote Linien zu beschränken.
Zahlreiche wortnehmende MS (DEU, FRA, AUT, LUX, SVN, LVA, LTU, SVK, MLT, ROU, IRL, CYP, wohl auch POL, FIN, EST) unterstützten den Kompromissvorschlag, wenngleich der Regelungsumfang teilweise als absoluter Minimalkonsens betrachtet wurde (ESP, LTU, BGR) und man sich eigentlich mehr – insbesondere im Sinne von Verpflichtungen – gewünscht habe.
DEU trug weisungsgemäß vor und begrüßte sowohl die Streichung der verpflichtenden Maßnahmen als auch die dauerhafte Verankerung freiwilliger Maßnahmen sowie die Beibehaltung des EU-Zentrums und bekräftigte dessen Bedeutung.
ESP sah verpflichtende Maßnahmen weiterhin als erforderlich an, leider sei eine umfassende Einigung dazu nicht möglich gewesen. Daher schlage man – unterstützt von BGR und HUN – eine Verpflichtung für die Anbieter vor, zumindest in offenen Bereichen aufdecken zu müssen. Es sei zahlreiches CSAM offen abrufbar. Um zumindest dessen Verbreitung zu verhindern, müsse eine Verpflichtung der Anbieter möglich. Zudem solle in Artikel 43 eine Funktion des EU-Zentrums verankert werden, die es dem EU-Zentrum ermögliche, die Anbieter zur Ordnung zu rufen, wenn diese ihren Verpflichtungen nicht nachkommen.
Vorsitz bezeichnete den Vorschlag ESPs als ehrgeizig, griff ihn aber nicht auf, um weitere Diskussionen zu vermeiden. Mittels Überprüfungsklausel halte man sich die Möglichkeit von Aufdeckungsanordnungen zu einem späteren Zeitpunkt offen.
POL unterstützte grundsätzlich die Richtung des Textes, legte aber weiterhin einen Prüfvorbehalt ein und kündigte an, die endgültige Positionierung nachzuliefern.
Auch HUN sah Freiwilligkeit als alleiniges Konzept als zu wenig an und legte PV ein. Zudem bitte man den JD-Rat um Einschätzung, ob nach dem jüngsten Textvorschlag innerhalb E2EE Kommunikation aufgedeckt werden könne (ähnlich HRV). Ein Ausschluss freiwilliger Maßnahmen in E2EE sei eine rote Linie. Generell dürfe es keinen Rückschritt hinter den status quo geben.
Vorsitz entgegnete daraufhin, Rechtsgrundlage sei weiterhin die DSGVO. Der aktuelle Textvorschlag sei keine Verschlechterung, sondern eine Verbesserung, da er gewährleiste, dass die Anbieter das, was sie bisher erfolgreich täten, auch weiterhin tun könnten und zudem die Zusammenarbeit auf EU-Ebene gefördert werde.
FIN verwies auf die Notwendigkeit der Befassung des eigenen Parlaments (auch SWE), sah den Vorschlag aber grundsätzlich positiv. CZE legte ebenfalls PV mit Hinweis auf die laufende Regierungsbildung ein.
ITA legte Prüfvorbehalt ein und verwies auf seine Ausführungen im AStV am 05.11.. Zu überlegen sei, ob im Rahmen ausschließlich freiwilliger Aufdeckungen das Recht auf Privatsphäre der Nutzer ausreichend gewahrt werden könne. Man befürchte, das Instrument könne auch auf andere Delikte ausgeweitet werden, daher habe man Schwierigkeiten, den Vorschlag zu unterstützen.
Vorsitz verwies diesbezüglich auf die soliden Rechtssysteme mit entsprechenden Garantien in den MS, die die Basis des Vorschlages bilden.
FRA erinnerte eindringlich, dass man schnell vorankommen und eine Lösung finden müsse.
SVN, LTU, SVK, NLD und LVA sahen die Verhinderung einer Regelungslücke als oberste Priorität und begrüßten die Streichung der verpflichtenden Aufdeckungsanordnungen. Das EU-Zentrum werde unterstützt.
NLD bat zudem JD-Rat um Einschätzung, ob die Formulierungen in Artikel 4 und 5 ggf. zu einer faktischen Verpflichtung führen könnten.
Vorsitz stellte klar, dass es im Text lediglich eine Verpflichtung zur Risikominderung gäbe, nicht aber eine Verpflichtung zur Aufdeckung.
ROU, SWE und HRV zeigten sich deutlich enttäuscht über die vorgenommenen Streichungen, erklärten sich aber aufgrund der eingefügten Überprüfungsklausel dennoch mit dem Vorschlag einverstanden. HRV ergänzte, dass diese Möglichkeit auch genutzt werden müsse. SWE sah die Überprüfungsklausel jedoch als zu komplex an.
IRL unterstrich, der Ergänzung in Art. 14a und 18aa betreffend die Notwendigkeit einer richterlichen Bestätigung innerhalb 72 Stunden nicht zustimmen zu können, da dies im common law System nicht möglich sei (ebenso MLT).
HUN bemängelte, die Frage nach E2EE sei nicht angemessen beantwortet worden. Probleme diesbezüglich habe es bislang nur im Rahmen privater Kommunikation gegeben, der ESP Vorschlag beziehe sich aber ausschließlich auf open spaces.
Vorsitz stellte klar, dass man nicht vorhabe, diese Punkte erneut zu diskutieren. Es solle weiterhin möglich bleiben, was auch jetzt möglich sei und bat JD-Rat um Beantwortung zu Art. 1 Abs 5.
JD-Rat führte zu Art. 1 Abs. 5 aus, dass er keine Änderung der Interims-VO sähe. Die Ausnahmen dürften angewendet werden, wenn eine Rechtsgrundlage dafür gegeben ist. Den Providern werde nicht verboten, Maßnahmen innerhalb E2EE Inhalten zu ergreifen. Art. 1 Abs 5 ändere nichts an der jetzigen Rechtslage. Die Frage von NLD zu einer faktischen Verpflichtung sei schwierig zu beantworten. Es sei zwar nicht verpflichtend, eine bestimmte Maßnahme zu ergreifen, aber die Formulierung sei in beide Richtungen auslegbar.
KOM betonte den Mehrwert und die Relevanz des EU-Zentrums und stimmte ESP zu, in Bezug auf Aufdeckungsanordnungen in öffentlich zugänglichen Bereichen. Auch öffentlich sei viel CSAM verfügbar, daher sei der Vorschlag gut und wichtig und es sei nur schwer vorstellbar, dass eine aktive Suche nach CSAM durch das EU-Zentrum auf Widerstand stoßen könnte.
Vorsitz bedankte sich für die breite Unterstützung und bekräftigte, am Kompromissvorschlag ohne die ESP Vorschläge festzuhalten. Man werde jedoch versuchen, vor Übersendung an den AStV eine textliche Lösung – z.B. einen Verweis auf nationales Recht – zu den von MLT und IRL vorgetragenen Bedenken zu finden.
[…]
Datenschutz & Sicherheit
Mexiko: Roboterhund-Brigade für die Fußball-WM
Die Stadtverwaltung von Guadalupe, einem Vorort der mexikanischen Großstadt Monterrey, hat die Einführung einer Polizeistaffel von vier Roboterhunden angekündigt. Die als Division K9-X bezeichnete neue Einheit soll bei Sicherheitsmaßnahmen während der Fußball-Weltmeisterschaft 2026 zum Einsatz kommen. Mexiko ist neben den Vereinigten Staaten und Kanada Co-Gastgeber. Im Estadio BBVA in Guadelupe (Monterrey) im nordmexikanischen Bundesstaat Nuevo León werden vier WM-Partien ausgetragen.
Weiterlesen nach der Anzeige
Nach Angaben der Stadtverwaltung werden die Roboterhunde für Präventions- und Abschreckungsaufgaben zur Unterstützung von Überwachungs-, Betreuungs- und Kontrollaufgaben konzipiert. „Auf dem Boden werden diese Roboterhunde von K9-X die Polizei bei einem ersten Einsatz mit Videoaufnahmen unterstützen und schließlich gefährliche Orte betreten, d. h. bevor die Sicherheitskräfte eintreffen und um die körperliche Unversehrtheit der Beamten zu gewährleisten, werden die Roboter im Falle einer Auseinandersetzung oder bei alkoholisierten Personen eingreifen.“, lobte Guadelupes Bürgermeister Héctor García García bei der Vorstellung der neuen Division in der vergangenen Woche die Vorzüge dieser Technologie und ihre Einsatzmöglichkeiten.
Mithilfe der Roboterhunde soll die städtische Polizei ungewöhnliche Situationen erkennen und schneller und sicherer auf potenzielle Risiken reagieren könne. Die Roboter unterstützen demnach bei der Überwachung großer Gebiete, seien in der Lage, ungewöhnliches Verhalten oder Objekte zu erkennen, ungewöhnliche Menschenansammlungen zu identifizieren und sofort die Sicherheits- und Zivilschutzbehörden zu alarmieren.
Jeder der Roboterhunde ist aus widerstandsfähigem Material gefertigt, um auch in unwegsames Gelände gelangen zu können. Darüber hinaus verfügen sie über Videokameras, Nachtsichtgeräte, Sprachsteuerung und Warnsysteme. Die Investitionen für die Anschaffung der Roboter beliefen sich auf 2,5 Millionen Pesos (rund 123.000 Euro).
Am vergangenen Donnerstag hatte die Roboterhund-Brigade bereits ihren ersten offiziellen Großeinsatz, als sie bei einem Heimspiel des lokalen Erstligavereins CF Monterrey gegen CSD Xelajú MC aus Guatemala im CONCACAF Champions Cup, der zentralamerikanischen Champions League, im Estadio BBVA patrouillierte. Die Einheit führte präventive Rundgänge außerhalb des Stadions durch und überprüfte dabei Zugänge und Bereiche mit hohem Personenaufkommen. Ferner überprüfte sie im Stadion Gänge und Gemeinschaftsbereiche und verstärkte die Überwachung an stark frequentierten Stellen, wie die Stadt Guadelupe mitteilte. Und weiter: „Im Rahmen der strategischen Überwachung vor dem Spiel überprüften die Roboter-Einheiten auch die Unterseite von Fahrzeugen“ rund um das Stadion, was eine bessere Beobachtung und frühzeitige Erkennung möglicher Straftaten ermöglichte.
(akn)
Datenschutz & Sicherheit
Wie „Künstliche Intelligenz“ unser Gesundheitswesen verändern soll – und welche Fragen das aufwirft

Die Versprechungen, die mit „Künstlicher Intelligenz“ („KI“) und mit Digitalisierung einhergehen, sind gewaltig. Das ist auch im „Update der Digitalisierungsstrategie für das Gesundheitswesen und die Pflege“ nicht anders, die Bundesgesundheitsministerin Nina Warken (CDU) am 11. Februar vorstellte. Ein „gesünderes und längeres Leben für alle“ soll die Digitalisierung ermöglichen, sie soll die medizinische Versorgung und Pflege „besser und effizienter“ machen, heißt es darin zum Beispiel.
Die Strategie hatte der damalige Minister Karl Lauterbach ursprünglich im Jahr 2023 vorgelegt. Der Aufbau des Europäischen Gesundheitsdatenraums (EHDS), neue Erwartungen im Bereich der „Künstlichen Intelligenz“ sowie der Plan eines neuen Systems für die Erstversorgung machten das nun vorgelegte Update notwendig.
Die wichtigsten Elemente: Die ePA soll zur zentralen Anwendung für Gesundheitsthemen ausgebaut werden, Digitalisierung der Schlüssel zu einem erfolgreichen Primärärzt*innensystem sein und „KI“ soll „sicher, flächendeckend und wirksam“ eingesetzt werden.
Digitalisierung und „KI“ werden das Gesundheitswesen fraglos verändern. Doch es ist wichtig, jetzt die richtigen Fragen zu stellen.
Wie weit hilft „KI“ dem Gesundheitswesen?
Während Digitalisierung und „KI“ durchaus das Potenzial haben, Prozesse im Gesundheitswesen zu vereinfachen und die Versorgung zu verbessern, kommt es auf eine gewissenhafte Abwägung bei der Umsetzung an.
Dabei dürfen wir vor allem nicht vernachlässigen, wie weitreichend die Auswirkungen auf Menschen in Gesundheitsberufen, auf Patient*innen und auf das Verhältnis zwischen ihnen sein können. Dazu braucht es mehr strategische Auseinandersetzung und Debatten.
Den großen Hoffnungen, mit denen der Einsatz von „KI“ derzeit verbunden ist, müssen wir realistisch begegnen. Weder wird „KI“ alle strukturellen Probleme im Gesundheitswesen wie Personalmangel oder Kostenexplosion lösen können. Noch sind die großen Versprechungen medizinischer Spitzenleistungen und Effizienzgewinne bisher eingetreten – oder auch nur auf absehbare Zeit erwartbar.
Die technische Architektur der KI-Systeme gründet auf massenhaften Daten plus Stochastik, also der mathematischen „Kunst des Vermutens“. Das begrenzt diese Systeme dauerhaft. Es gibt keine Garantie dafür, dass Aussagen der „KI“ wahr und richtig sind.
Anders als bei einem Algorithmus, der nach festen Regeln funktioniert und bei gleichen Bedingungen wiederholbare Ergebnisse liefert, ist diese Wiederholbarkeit bei „KI“ gerade nicht gewährleistet. Auch ist es nicht nachvollziehbar, was genau den jeweiligen Antworten zugrunde liegt.
Welche Zwecke soll und kann Dokumentation erfüllen?
„KI“-gestützte Dokumentation soll in wenigen Jahren bei mehr als 70 Prozent der Einrichtungen der Standard sein, heißt es in der Strategie.
Sicherlich: Dokumentation ist oft lästig, aber sie kann auch dabei helfen, ein gemeinsames Verständnis zwischen Patient*in und Ärzt*in herzustellen, Angaben zu überprüfen oder eine wichtige abschließende Reflexion über einen Fall darstellen.
Was bewirkt Automatisierung mit „KI“?
Doch selbst wenn eine Entlastung durch Automatisierung in diesem Fall naheliegt: Schafft sie am Ende tatsächlich mehr qualitativ hochwertige Zeit für die Behandlung von Patient*innen? Oder wird sie am Ende die Arbeit von Menschen in Gesundheitsberufen noch weiter verdichten?
Das ist gerade angesichts des demografischen Wandels erwartbar. Er wird in den nächsten Jahren dazu führen, dass viele ältere Patient*innen größere Behandlungsbedarfe in die Praxen und Krankenhäuser bringen, während zugleich viele Menschen in Gesundheitsberufen in Rente gehen. Weniger Ärzt*innen müssen also künftig mehr Patient*innen behandeln – wenn nicht gegengesteuert wird.
Dabei entscheidet eine gute Beziehung zwischen Ärzt*innen und Patient*innen über den Heilungsverlauf mit, auch bei körperlichen Erkrankungen. Doch dafür braucht es vor allem eines: Zeit.
So umfassend will Warken die Gesundheitsdaten aller Versicherten verknüpfen
Wie wichtig ist uns digitale Souveränität?
Bei der Automatisierung der Dokumentation strebt die Ministerin ein hohes Tempo an. Mit Blick auf die bisher auf dem Markt dominierenden Anbieter könnte das dazu führen, dass schon bald OpenAI, Google Gemini und Co. regelmäßig ebenfalls im Sprechzimmer anwesend sind. Die Abhängigkeit von den US-amerikanischen Tech-Konzernen wächst bei verstärktem Einsatz dieser Dienste also weiter an.
Große Anbieter von Praxisverwaltungssystemen werben bereits mit „KI“-Tools zur Dokumentation und Automatisierung. Schaut man genauer in deren Datenschutzbestimmungen, bestätigt sich diese Vermutung.
Doctolib setzt Anthropic und Google Gemini als „KI“ ein und hostet bei Amazon Web Services. Konkurrent Jameda begrüßt die neue Strategie als „wichtiges Signal für die Branche“ und verweist auf das eigene Dokumentationstool Noa Notes, das ebenfalls auf Amazon Web Services sowie Microsoft Azure setzt und auch OpenAI in seiner Datenschutzerklärung stehen hat.
VIA Health verspricht als „erster virtueller Assistent speziell für die Psychotherapie“ besten Datenschutz. Gleichzeitig weist das Unternehmen in seiner Datenschutzerklärung darauf hin, zur „Transkribierung der Audiospur sowie […] Erstellung der Sitzungsprotokolle“ verschiedene Drittanbieter von „Large Language Models (LLMs)“ einzusetzen.
Das alles spiegelt die gegenwärtige Realität weiter Teile unserer digitalen Infrastruktur wider. Zugleich passt es nicht zusammen mit politischen Forderungen nach mehr digitaler Souveränität, die auch von der Bundesregierung selbst regelmäßig vorgetragen werden.
Wie verändern Sprachmodelle die Beziehung zwischen Ärzt*innen und Patient*innen?
Auch zu „KI“-gestützten Systemen der medizinischen Ersteinschätzung müssen wir uns Gedanken machen. Künftig sollen Symptome in ein Computersystem eingegeben werden, danach erfolgt eine technische Einschätzung.
Dieses Verfahren soll Teil des Erstversorgungssystems werden und so den Zugang ins Gesundheitswesen (mit)regeln. Noch ist nicht klar, ob regelbasierte Algorithmen oder „KI“ die technische Grundlage dafür bilden werden.
Es kann grundsätzlich sinnvoll sein, vor dem Besuch einer Praxis die Symptome in ein technisches System einzugeben und sich gegebenenfalls aufgrund einer besseren Steuerung Wartezeit zu ersparen.
Eines genaueren Blicks bedürfen allerdings Themen, die sensibler und oft schambesetzt sind. Einfühlsam und ohne Vorurteile über Sexualität zu reden, fällt Menschen oft schwer. Viele Patient*innen sprechen das Symptom einer Geschlechtskrankheit daher erst am Ende einer Sprechstunde an. Oder eine psychische Belastungssituation wird erst im Laufe eines Gesprächs deutlich.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Öffnen wir mit digitalen Angeboten also tatsächlich neue Wege für Patient*innen? Oder verlieren wir etwas, wenn wir auf standardisierte digitale Ersteinschätzungen setzen? Und wie können geschützte Räume entstehen für sensible Themen wie Sexualität, Geschlechtskrankheiten, Substanzkonsum oder psychische Störungen, wenn das vertrauliche Gespräch mit einer behandelnden Person von einem „KI“-Tool mitgeschnitten wird?
Wie gut sind Sprachmodelle als Gesundheitsassistenzen wirklich?
„KI“ soll zur ständigen Begleiterin für Patient*innen werden und perspektivisch „individualisierte Gesundheitsempfehlungen“ geben, heißt es in der Strategie. Das Bundesgesundheitsministerium möchte so die Eigenverantwortung der Versicherten stärken.
Dabei hat gerade erst eine in der wissenschaftlichen Zeitschrift „Nature“ veröffentlichte Studie gezeigt, dass „KI“-Systeme faktisch daran scheitern, richtige Ergebnisse hervorzubringen, sobald man sich von theoretischem Lehrbuchwissen verabschiedet und reale Patient*innen auf sie loslässt.
Hinzu kommt: Bei Sprachmodellen, der Grundlage von KI-Systemen, werden die Eingaben nicht über Standardfragen geleitet. Sondern das Verfahren hängt stark von den Eingaben der User*innen ab – und damit die Ausgaben der Systeme.
Weil aber die Anzahl möglicher Nutzer*inneneingaben unbegrenzt ist, lässt sich damit auch nicht verlässlich für alle Anwendungsfälle überprüfen, wie gut ChatGPT und Co. im Einzelfall reagieren. Die Erwartung an Verlässlichkeit von Software-Programmen, die sich aus Zeiten regelbasierter Programmierung speist, ist bei auf Stochastik gründenden Ansätzen nicht haltbar – denn da sind immer Wahrscheinlichkeiten oder sogar der Zufall im Spiel.
Zwar gibt es mittlerweile Beispiele, in denen Menschen sagen: „KI“ hat mir dabei geholfen, dass es mir gesundheitlich wieder besser geht. Gerade bei seltenen Erkrankungen, denen Ärzt*innen in ihrem Berufsalltag nur überaus selten begegnen, wird den Sprachmodellen ein solches Potenzial zugesprochen.
Gleichzeitig gibt es jedoch groteske Beispiele, in denen ChatGPT bei der Bewertung von Daten eines Gesundheitstrackers die Note „ungenügend“ – also kurz vor Herzinfarkt – „erraten“ hat, während zwei Ärzte keine Anhaltspunkte für eine Erkrankung finden konnten.
Menschen handeln als Menschen und sind damit – auch in der Interaktion mit Maschinen und bei der Interpretation „maschineller“ Antworten – oft unberechenbar.
Das wiederum kann weitreichende Auswirkungen für Interaktionen zwischen Mensch und Mensch im Behandlungszimmer haben. Fragen Ärzt*innen in der Sprechstunde künftig mit ab, ob Patient*innen bereits vorab mit „KI“ recherchiert haben? Wie gehen Versicherte damit um, wenn sich Empfehlungen von „KI“-Systemen von denen realer Mediziner*innen unterscheiden? Oder wenn die von der „KI“ vorgeschlagenen Behandlungen nicht von den Kassen gedeckt werden?
Wie bleibt das Gesundheitswesen menschlich?
Wenn sie gut gemacht sind, bieten Technologien die Chance, Medizin besser zu machen. Dafür müssen wir uns allerdings die richtigen Fragen stellen – jenseits von Heilsversprechen und Technikgläubigkeit sowie im Wissen um den hochkomplexen Faktor Mensch.
Der Mensch ist dabei kein „nerviges Beiwerk“. Am Ende sollen es ja wir alle sein, die von den neuen Technologien profitieren – und nicht nur die Tech-Milliardäre, die sie mit den größten Versprechungen bewerben.
Manuel Hofmann ist Referent für Digitalisierung der Deutschen Aidshilfe. Offenlegung: Der Autor hat im vergangenen Jahr auf Einladung der Gematik am Fachforum „Technologien und Anwendungen“ für die Weiterentwicklung der Digitalisierungsstrategie „Gemeinsam Digital“ teilgenommen.
Datenschutz & Sicherheit
Populäre Chrome-Erweiterungen spähen Nutzer aus
Eine IT-Forschergemeinschaft mit dem Namen „Q Continuum“ hat automatisiert zigtausende der beliebtesten Chrome-Erweiterungen untersucht. Knapp 300 davon, teils mit je vielen Millionen Installationen, liefern den Browserverlauf von Nutzerinnen und Nutzern an ihre Hersteller aus. Den Usern ist meistens wohl nicht klar, dass sie ausspioniert werden.
Weiterlesen nach der Anzeige
Die Analyse und ihre Ergebnisse stellt „Q Continuum“ in einem Github-Projekt bereit. Beim Versuchsaufbau haben sie Chrome in einen Docker-Container verfrachtet und den Traffic durch einen Man-in-the-Middle-Proxy geschleust. Dabei beobachteten sie die ausgehenden Anfragen unter dem Aspekt, wie sie mit der Länge der URLs korrelieren, die dem Chrome-Browser vorgesetzt wurden. Dabei haben die IT-Forscher synthetische Browser-Daten eingesetzt, konkret konsistent geformte Anfragen an google.com, die jedoch nie den Docker-Container verlassen. Dann untersucht ein Skript die ausgehenden Daten darauf hin, wie umfangreich der abgehende Traffic ist.
Die Idee dahinter: Wenn eine Erweiterung lediglich den Seitentitel liest oder eigenes CSS in die Seite einbaut, sollte der Netzwerk-Fußabdruck niedrig bleiben, egal, wie lang die besuchte URL ist. Wenn der abgehende Traffic jedoch linear mit der URL-Länge ansteigt, liefert die Erweiterung mit hoher Wahrscheinlichkeit die URL oder die gesamte HTTP-Anfrage an einen Server ins Internet aus. Damit konnten sie Erweiterungen eingrenzen, die sehr wahrscheinlich sensible Daten ausspähen.
Hunderte teils populäre Erweiterungen spionieren
Insgesamt haben die Analysten die 32.000 populärsten Chrome-Erweiterungen von den 240.000 im Chrome-Webstore verfügbaren untersucht. Dabei haben sie 287 teils sehr populäre Kandidaten aufgespürt, die Daten exfiltrieren. Insgesamt 37,4 Millionen User haben diese Plug-ins in ihren Webbrowser installiert und werden davon ausgeforscht.
Diese Daten können zur Profilbildung und gezielter Werbung genutzt werden, aber auch zu Wirtschaftsspionage oder dem Abziehen von Zugangsdaten, erklärt das „Q Continuum“ die potenziellen Gefahren. Andererseits ist nicht jede Erweiterung automatisch auch mit bösartiger Absicht unterwegs. Auf Platz 1 findet sich etwa „Avast Online Security & Privacy“ mit sechs Millionen Installationen, ein Plug-in zur Reputationsprüfung von Webseiten. Offenbar nutzt es keine lokale Datenbank, sondern sendet die URLs zur Prüfung an die Herstellerserver. Allerdings hat gerade Avast da eine wenig rühmliche Vergangenheit: Wegen Datenweitergabe musste das Unternehmen 2024 16,5 Millionen US-Dollar Strafe in den USA zahlen, da die gesammelten Daten von mehr als 100 Millionen Nutzern über die Tochterfirma Jumpshot verkauft wurden. An zweiter Stelle folgen mit je 3 Millionen Nutzern die Erweiterungen „Ad Blocker: Stands AdBlocker“ sowie „Monica: ChatGPT AI Assistant | DeepSeek, GPT-4o, Claude 3.5, o1 &More“.
Die Webseite hält eine Liste der beim Ausspähen beobachteten Chrome-Erweiterungen vor. Detaillierte Einblicke gibt das rund 260-seitige PDF, wovon die letzten etwa 150 Seiten jedoch lediglich Details zu den betroffenen Erweiterungen wie IDs, Namen, Nutzerzahlen und Ähnliches umfassen. Wer nicht möchte, dass die eigenen Browser-Erweiterungen den eigenen Browser-Verlauf an die Anbieter senden, sollte die Erweiterungsliste prüfen und gegebenenfalls die Add-ons deinstallieren.
Weiterlesen nach der Anzeige
Browser-Erweiterungen sind oft nützliche Helferlein, sie können jedoch auch Datenschleudern sein, die die Privatsphäre verletzen. Einige Akteure nutzen das zur eigenen Bereicherung aus, indem sie die gewonnenen Daten monetarisieren. Das Phänomen selbst ist bereits älter. Etwa 2019 hat der IT-Sicherheitsforscher Sam Jadali 200 Chrome- und Firefox-Erweiterungen angeschaut und diese ebenfalls beim Datensammeln erwischt. Auf diese übertragenen Daten hatten zudem Dritte Zugriff. Bei dieser Späh-Masche mit dem Namen „DataSpii“ waren Surf-Daten von 4,1 Millionen Menschen betroffen.
(dmk)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 6 TagenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
