Connect with us

Künstliche Intelligenz

iX-Workshop: Microsoft 365 sicher einrichten und datenschutzkonform betreiben


Die Nutzung von Microsoft 365 ist für viele Unternehmen unverzichtbar, wenn es um moderne Arbeitsplatzlösungen geht. Dennoch äußern Datenschutzexperten immer wieder Bedenken hinsichtlich des datenschutzkonformen Einsatzes der cloudbasierten Version von Microsoft 365 im Rahmen der DSGVO.

In diesem eintägigen Online-Workshop M365: Baselines für Tenant Settings, Informationssicherheit und Datenschutz lernen IT-, Sicherheits- und Datenschutzverantwortliche oder Administratoren, mit welchen technischen und organisatorischen Maßnahmen sie den Einsatz von Microsoft 365 in Ihrem Unternehmen absichern können. Sie erfahren, welche Daten Microsoft erfasst, wie sie die Compliance-Richtlinien Ihres Unternehmens in M365 umsetzen können und wie sich die verschiedenen Maßnahmen auf die einzelnen Funktionen in Microsoft 365 auswirken.

September
25.09.2025
Online-Workshop, 09:00 – 17:00 Uhr
Oktober
30.10.2025
Vor Ort in Hannover, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 1. Okt. 2025
November
20.11.2025
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 22. Okt. 2025

Der nächste Workshop findet am 25. September 2025 statt und richtet sich an Administrierende, Datenschutzbeauftragte und Informationssicherheitsbeauftragte aus kleineren Unternehmen, die M365 nutzen möchten oder bereits damit arbeiten.

Durch den Workshop führt M365-Consultant Daniel Dreeser von der Rewion GmbH. Als Berater und Projektleiter unterstützt er Unternehmen bei großen Modern-Workplace-Projekten. Sein Kollege David Morva, ein erfahrener Datenschutzexperten, unterstützt ihn dabei.


Upgrade für Ihre IT-Skills - Von Experte zu Experte

Upgrade für Ihre IT-Skills - Von Experte zu Experte


(ilk)



Source link

Künstliche Intelligenz

Kinderarzt zur ePA und Co.: Warum Eltern nicht alles wissen dürfen


Elektronische Patientenakten, E-Rezepte, Apps und Künstliche Intelligenz sollen die medizinische Versorgung moderner und effizienter machen. Gleichzeitig wächst die Sorge um Datenschutz und Vertraulichkeit – auch bei sensiblen Gesundheitsdaten von Kindern und Jugendlichen.

Weiterlesen nach der Anzeige

Nach Kritik aus der Praxis wurden inzwischen erste Verbesserungen auf den Weg gebracht: So müssen Kinderärzte besonders heikle Informationen, etwa aus psychotherapeutischen oder sexualmedizinischen Behandlungen, künftig nicht mehr verpflichtend in die elektronische Patientenakte eintragen, „sofern dem erhebliche therapeutische Gründe entgegenstehen“ oder „gewichtige Anhaltspunkte für die Gefährdung des Wohles eines Kindes oder eines Jugendlichen vorliegen und die Befüllung der elektronischen Patientenakte den wirksamen Schutz des Kindes oder Jugendlichen in Frage stellen würde“.

Und auch die Abrechnungsdaten sollen mit Änderungen am Gesetz zur Befugniserweiterung und Entbürokratisierung in der Pflege nicht mehr automatisch für alle am Behandlungsprozess Beteiligten sichtbar sein.


Michael Achenbach

Michael Achenbach

Michael Achenbach ist Kinderarzt und Vorstandsmitglied im Landesverband der Kinder- und Jugendärzt*innen (BVKJ) Westfalen Lippe und hat unter anderem Technik in der Medizin studiert.

(Bild: BVKJ)

Warum das so wichtig ist und über Chancen, Grenzen und offene Fragen bei der Digitalisierung spricht Dr. Achenbach mit heise online. Er ist Kinder- und Jugendarzt sowie langjährig engagierter Experte für digitale Gesundheitsanwendungen.

Besteht die Sorge zu Recht, dass sensible Daten in der elektronischen Patientenakte (ePA) zu leicht und unkontrolliert zur Verfügung stehen?

Ja, und das gilt besonders bei Jugendlichen. Viele denken, Eltern dürften alles wissen, was ihre jugendlichen Kinder betrifft. Dem ist aber nicht so. Sobald man einsichtsfähig ist – und das kann schon vor dem 15. Geburtstag sein –, gilt die ärztliche Schweigepflicht auch gegenüber den Eltern. Wenn dann sensible Daten, etwa aus psychotherapeutischen Behandlungen oder welche, die die sexuelle Gesundheit betreffen, automatisch in der ePA landen, kann das fatale Folgen haben. Dann sehen Eltern mit Zugriff Dinge, die vertraulich bleiben müssten. Ärztliche Schweigepflicht bedeutet eben auch, den Kindern Schutz gegenüber den Eltern zu ermöglichen, sobald das Kind reif genug ist, eigenständig über Behandlungen zu entscheiden.

Die Patienten sollen ihre Gesundheitsinformationen dank der ePA selbst verwalten können. Ist das Ihrer Meinung nach realistisch?

Grundsätzlich ja, aber nur, wenn die Rahmenbedingungen stimmen. Momentan fehlt die Möglichkeit, alte oder überholte Daten wirklich zu löschen. Das sogenannte Recht auf Vergessenwerden existiert für die ePA bislang nur sehr eingeschränkt. Wenn beispielsweise ein Kind wegen einer psychischen oder sozialen Auffälligkeit behandelt wurde – sagen wir, einer Störung des Sozialverhaltens – bleibt diese Diagnose in der Akte stehen, selbst wenn sie Jahre später keinerlei Relevanz mehr hat – sofern sie niemand selbst löscht oder löschen lässt. Solche Einträge können später bei Versicherungen oder Bewerbungen problematisch werden. Da braucht es klare, rechtlich abgesicherte Löschmechanismen – auch für Kinder, deren Eltern das vielleicht gar nicht bedenken. Wer sich selbst um seine Akte oder im Bedarfsfall die seiner Angehörigen kümmert, den betrifft das selbstverständlich nicht.

Weiterlesen nach der Anzeige

Die Versicherungen können unter bestimmten Umständen aber auch Daten austauschen?

Versicherungen tauschen Daten aber nicht über die ePA untereinander aus, das ist ein Trugschluss. Die Krankenkassen haben nämlich gar keinen direkten Zugriff auf die Inhalte der ePA; sie können zwar Dokumente einstellen, sie aber nicht betrachten. Ein eventueller Datenaustausch unter den Kassen läuft an der ePA vorbei, ist also davon gar nicht betroffen.

Ärzte sind gesetzlich zur Befüllung der ePA, aber auch zur Dokumentation verpflichtet. Gibt es da Herausforderungen?

Die ePA ersetzt die herkömmlichen Patientenakten nicht, sondern ist lediglich aus Informationen aus den herkömmlichen Patientenakten, die Ärztinnen führen müssen, gespeist. Daher eignet sich die ePA nicht, um gesetzliche Aufbewahrungserfordernisse der Ärzte zu erfüllen. Diese haben gesetzliche Aufbewahrungspflichten, Patienten dagegen ein Löschrecht in ihrer ePA – das passt schlicht nicht zusammen. Wenn Behandlungsunterlagen vom Patienten gelöscht werden können, kann die Ärztin ihre Dokumentationspflicht nicht mehr erfüllen. Die ePA ist daher nur ein zusätzliches Instrument, um Informationen abzubilden, nicht aber dazu geeignet, die originäre ärztliche Dokumentation zu ersetzen oder aufzubewahren.

Die Aufbewahrungspflichten sind umfangreich: Sie betragen meist zehn, teils bis zu 30 Jahre, bei Minderjährigen oft noch länger. Die Archive dürfen zwar elektronisch geführt werden, doch wer garantiert, dass Daten auch nach Jahrzehnten noch zugänglich sind? Die sichere elektronische Langzeitarchivierung ist bisher kaum etabliert. Eine Herausforderung dabei ist auch die Findbarkeit der Daten, die entsprechend – je nach Archivierungszeitraum – gekennzeichnet sein müssen, damit diese auch ordnungsgemäß gelöscht werden können.

Die ärztliche Dokumentation ist ein rechtsverbindlicher Teil des Behandlungsvertrags und dient im Streitfall auch der Beweissicherung – etwa wenn Jahre später Behandlungsfehler behauptet werden. Patientinnen und Patienten hingegen sollen in ihrer ePA frei entscheiden dürfen, welche Daten sie behalten oder löschen. Deshalb brauchen wir zwei getrennte Systeme: eines für die rechtssichere medizinische Dokumentation und ein zweites, flexibles für den patientengesteuerten Informationsaustausch.

Hinzu kommen gesetzliche Regelungen wie im Gendiagnostikgesetz, das nach zehn Jahren sogar eine Vernichtungspflicht vorsieht. Das zeigt, wie widersprüchlich und komplex der Umgang mit medizinischen Daten in der Praxis geworden ist. Wie man Daten aus Backups tatsächlich löscht oder durch Schlüsselvernichtung unzugänglich macht, ist technisch und organisatorisch noch wenig durchdacht – sowohl in vielen Praxen als auch bei den Softwareanbietern.

Besonders diskutiert werden regelmäßig die sogenannten F-Diagnosen, also Diagnosen aus dem psychiatrischen ICD-Kapitel. Dies betrifft uns Kinder- und Jugendärzte ebenfalls, denn in diesem Kapitel finden sich auch die kindlichen Entwicklungsstörungen. Also nicht nur die eben schon genannte Störung des Sozialverhaltens, sondern zum Beispiel auch die Entwicklungsstörung der Fein- und Graphomotorik, die Artikulationsstörung und so weiter. Diagnosen, die also bei Kindern oft über Jahre – korrekterweise – in der arztgeführten Patientenakte dokumentiert sind, somit klassische Dauerdiagnosen. Wenn aber Patienten die Problematik überwunden haben, bleiben die Diagnosen dennoch in der Akte – denn sie wirken sich oftmals auf die weitere Betreuung aus. Viele Studien zu Entwicklungsstörungen zeigen longitudinale Zusammenhänge zwischen Problemen im frühen Kindesalter und späteren Problemstellungen, zum Beispiel im Jugendalter.

Ist die ePA rechtlich genauso geschützt wie die klassische Patientenakte?

Nein. Die ePA ist eine patientengeführte Akte und fällt damit nicht unter den ärztlichen Beschlagnahmeschutz. Man kann sie sich wie einen privaten Ordner vorstellen – auch der darf von Ermittlungsbehörden beschlagnahmt werden. Eine arztgeführte Fallakte dagegen wäre vor dem Zugriff durch Behörden geschützt. Das ist ein gravierender Unterschied, über den viele gar nicht Bescheid wissen.

Wie erleben Sie die Technik im Alltag?

Das E-Rezept funktioniert inzwischen halbwegs zuverlässig. Die Einlösung über die Versichertenkarte hat sich durchgesetzt. Aber die dazugehörige App spielt in der Praxis kaum eine Rolle. Die meisten nutzen sie gar nicht – sie gehen einfach mit der Karte in die Apotheke. Das bedeutet aber auch, dass sie oft nicht wissen, was auf dem Rezept steht, zum Beispiel oder wie das Medikament dosiert werden soll. Der Informationsvorteil für die Patientinnen und Patienten, den man sich mit der Einführung des E-Rezepts erhofft hatte, ist also ausgeblieben.

Die Systeme, sowohl für das E-Rezept als auch für die ePA, sind allerdings immer noch nicht stabil. Wenn man sieht, wie selten Kartenterminals im Supermarkt ausfallen, ist der Unterschied frappierend. In der Medizin tragen die Praxen die finanziellen Auswirkungen der durch Dritte ausgelösten Ausfälle selbst, obwohl sie die Technik nicht einmal frei wählen konnten. Das ist teuer, frustrierend und innovationsfeindlich. Ein konkretes Beispiel ist unser Kartenlesegerät in der Praxis. Ich habe noch keine einzige Arbeitswoche erlebt, in der es ohne Absturz durchgelaufen wäre.

Dabei haben Sie sich in der Vergangenheit immer sehr begeistert für die Digitalisierung gezeigt, beispielsweise für die App „Meine pädiatrische Praxis“. Was macht diese Anwendung anders?

Diese App ist tatsächlich ein gutes Beispiel dafür, wie Digitalisierung im Arzt-Patienten-Alltag funktionieren kann, wenn sie sinnvoll umgesetzt wird. Sie wurde vom Berufsverband der Kinder- und Jugendärzt*innen e.V. herausgegeben und dient als direkter Kommunikationskanal zwischen Praxis und Familien. Eltern können darüber Termine buchen, Erinnerungen an Vorsorgeuntersuchungen oder Impfungen erhalten und sogar Videosprechstunden starten. Ich kann Push-Nachrichten an bestimmte Altersgruppen oder Patientinnen und Patienten schicken, zum Beispiel, um über Grippeimpfungen zu informieren oder geänderte Sprechzeiten weiterzugeben.

Das System ist bewusst geschlossen und datensparsam aufgebaut – keine Cloud, keine unnötigen Drittanbieter. Die Nutzenden entscheiden selbst, welche Funktionen sie nutzen. So habe ich ein digitales Werkzeug, das zur Versorgung beiträgt, ohne den Datenschutz zu gefährden. Für mich ist das ein Schritt in die richtige Richtung: Digitalisierung nahe am praktischen Nutzen, nicht als bürokratische Pflichtübung.

Sie experimentieren außerdem mit KI-Modellen. Was genau testen Sie da?

Ich probiere zurzeit an Dummy-Daten aus, ob eine KI Dokumenttypen automatisch erkennen kann – also ob sie unterscheiden kann, ob ein Schreiben ein Arztbrief, ein Therapiebericht oder etwa ein Versicherungsnachweis ist. Das alles geschieht lokal, auf eigenen Servern, ohne Patientendaten im Netz. Ich nutze aktuelle Modelle, wie zum Beispiel „Qwen 3“ von Alibaba oder „gpt-oss“ von OpenAI. Sie arbeiten verhältnismäßig effizient und kommen mit wenig Rechenleistung aus, also ideal für den lokalen Einsatz. Wichtig ist mir dabei nämlich vor allem, dass ich die volle Kontrolle über die Daten habe und sie nicht an unbekannte Dritte weitergebe. Deshalb kommt Cloud-Computing für medizinische Informationen aktuell für mich nicht infrage.

Ist KI Ihrer Einschätzung nach reif für den Einsatz in Praxen?

Ja, mit Einschränkungen. In kritischen Bereichen – etwa bei Diagnosen oder Therapieentscheidungen – darf sie keine autonome Rolle spielen. Aber sie kann Prozesse erleichtern: zum Beispiel Arztbriefe vorsortieren oder Gesprächsnotizen zusammenfassen. Wichtig ist, dass ich als Arzt jederzeit kontrollieren kann, was die KI macht. Wenn ich selbst im Gespräch dabei bin, erkenne ich sofort, ob eine Zusammenfassung richtig ist. Wenn die KI dagegen fremde Texte auswertet, verliere ich diese Kontrolle. Dann wird’s riskant.

Ein anderes Thema, das beschäftigt, sind medizinische Register, wozu ein Registergesetz geplant ist. Warum ist das in Deutschland eine Herausforderung?

Wir haben über 400 verschiedene Register, aber alle sind freiwillig und voneinander isoliert. Länder wie Dänemark oder Schweden machen das besser – dort gibt es eine einheitliche Identifikationsnummer, über die Gesundheitsdaten pseudonymisiert zusammengeführt werden können. So konnten sie – die Dänen, nicht die Deutschen – zum Beispiel nachweisen, dass die Masernimpfung kein Autismusrisiko verursacht. Solche Erkenntnisse sind bei uns in Deutschland kaum möglich, weil die Datenbasis fehlt.

Würden Sie also sagen, ein zentrales Gesundheitsregister wäre der ePA vorzuziehen?

Für Forschungszwecke: ja, sofern der Datenschutz stimmt. Für die individuelle Versorgung: nein, da sollte alles freiwillig sein. Ich halte nichts von einer automatischen Befüllung der Patientenakte. Gesundheitsdaten sind persönlichstes Eigentum. Wenn jemand sie speichern will – gerne. Wenn nicht, dann eben nicht.

Sehen Sie bei seltenen Krankheiten Chancen in der Mustererkennung?

Ja, absolut. Wir Ärztinnen und Ärzte erkennen im besten Fall ein paar Hundert Krankheitsmuster, vielleicht 500. Es gibt aber mehrere Tausende seltener Erkrankungen. Eine gut trainierte KI kann helfen, Muster zu finden, die wir übersehen würden. Das erweitert unseren Blick. Ich habe das in meiner eigenen Familie erlebt. Eine nahe Verwandte litt jahrelang an Schmerzen, bis ich – durch Zufall – erkannte, dass sie an einer seltenen Bindegewebsschwäche erkrankt ist. Eine KI mit entsprechender Datenbasis hätte diesen Zusammenhang vielleicht früher erkannt.

Wie sehen Sie persönlich die digitale Zukunft der Medizin?

Ich finde die Zeit unglaublich spannend. Wir haben gewaltige Chancen – etwa durch offene KI-Modelle oder smarte Praxislösungen. Aber wir müssen sie sicher und verantwortungsvoll nutzen. Die ärztliche Schweigepflicht muss auch im digitalen Zeitalter gelten und die Daten der Patientinnen und Patienten dürfen nie heimlich zum Rohstoff für Dritte werden. Heimlichkeit umgeht das Recht auf selbstbestimmte Entscheidungen. Wenn Digitalisierung den Alltag wirklich erleichtert und die Versorgung verbessert, bin ich sofort dabei. Aber sie darf kein Selbstzweck sein.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Müll in US-Urteilen aufgeflogen | heise online


Generative Künstliche Intelligenz neigt zu sogenannten Halluzinationen. Oft fällt das nicht auf, speziell dann, wenn das Ergebnis dem Nutzer zusagt. Von KI erfundene Behauptungen, Studien, Zitate oder Präzedenzfälle landen immer häufiger in Eingaben zu Gericht; dafür sind mehrfach sich selbst vertretende Parteien und Anwälte bestraft worden. Leider sind auch Richter nicht gegen die Versuchungen Künstlicher Intelligenz gefeit. In den USA sind jetzt zwei Fälle KI-verschmutzter Urteile aufgeflogen. Persönliche Verantwortung übernehmen die zuständigen Richter keine.

Weiterlesen nach der Anzeige

Die beiden US-Bundesbezirksrichter, Henry Wingate vom Bundesbezirksgericht für den Süden Mississippis, und Julien Neals vom Bundesbezirksgericht für New Jersey, haben Entscheidungen ausgefertigt, die so offensichtlich fehlerhaft waren, dass es den Verfahrensparteien gleich auffiel. Nach deren Rüge haben die beiden Richter ihre fehlerhaften Entscheidungen aus dem Akt gelöscht und durch verbesserte Versionen ersetzt.

Diese Vorfälle riefen US-Senator Charles Grassley auf den Plan, der sich um die Integrität der US-Justiz sorgt. Er richtete Fragen an die beiden Bundesrichter. Ihre nun vorliegenden Antwortschreiben zeigen, dass Verantwortungsbewusstsein bei den beiden Richtern gering ausgeprägt ist.

An keiner Stelle gestehen sie ein, selbst Schuld zu tragen. Richter Neals lässt Selbstmitleid durchblicken, wenn er schreibt, dass seine „Erfahrung“ in dem Fall „höchst unglücklich und unvorhersehbar“ gewesen sei.

Richter Wingate schiebt den Fehler auf einen juristischen Mitarbeiter, der das Große Sprachmodell Perplexity genutzt habe, „ausschließlich als Unterstützung für einen grundlegenden Entwurf, um im Akt öffentlich verfügbare Informationen zusammenzustellen.“

Laut Neals soll gar ein Rechtswissenschaften studierender Praktikant Schuld tragen. Dieser habe ChatGPT genutzt, „ohne Genehmigung, ohne Offenlegung, entgegen nicht nur der Gerichtsregeln, sondern auch anwendbarer Regeln (seiner) Universität“. Dazu verweist der Richter ausdrücklich auf eine Mitteilung der Uni, die ihm dies bestätige.

Beide Richter betonen, dass solche Entwürfe normalerweise einer mehrstufigen Prüfung unterzogen würden (unter anderem mit Software, die Verweise auf Präzedenzfälle prüft und dabei selbst KI einsetzt). In diesen Fällen seien die Prüfungen vor Veröffentlichung unterblieben. Sie geloben Besserung, verraten den Grund für das Unterlassen der Überprüfung aber nicht.

Weiterlesen nach der Anzeige

Die Löschung ihrer fehlerhaften Entscheidung aus dem Akt begründen beide Männer damit, vermeiden zu wollen, dass die fehlerhaften Entscheidungen später als Präzedenzfälle herangezogen würden. In Wingates Verfahren ist die zurückgezogene Entscheidung noch als Anhang zu einer Eingabe einer Partei im Akt erhalten.

Ein verschriftlichtes Regelwerk zum Einsatz von KI hatten beide Gerichte offenbar nicht. Neals will KI-Einsatz mündlich untersagt haben; jetzt hat er einen schriftlichen Regelentwurf, wartet aber noch auf Vorgaben der Bundesgerichtsverwaltung.

Diese hat einen Arbeitskreis zum Thema eingerichtet, der im Sommer vorläufige Richtlinien für alle US-Bundesgerichte herausgegeben hat. Diese Richtlinien sind erstaunlich schwammig. Sie verbieten nicht etwa, das Fällen von Urteilen an Künstliche Intelligenz auszulagern, sondern regen lediglich „Vorsicht“ (caution) an. Besondere Vorsicht (extreme caution) wird „empfohlen“, wenn es um neue Rechtsfragen geht.

Nicht einmal die Offenlegung des Einsatzes Künstlicher Intelligenz ist demnach verpflichtend. Richtern und Justizbediensteten wird lediglich nahegelegt, darüber nachzudenken, ob KI-Nutzung offengelegt werden sollte.

Die Justizverwaltung sammelt auch ausdrücklich keine Daten darüber, ob und wie oft Richter Maßnahmen gegen Verfahrensparteien wegen irreführenden Einsatzes von KI ergreifen. Öffentlich konsultiert wird derzeit eine Novelle der Beweisregeln für Bundesgerichte. Laut Entwurf der Rule 707 sollen KI-erzeugte Beweise den gleichen Regeln unterliegen wie Aussagen Sachverständiger. Das bedeutet, dass Gerichte KI-Erzeugnisse als Beweise akzeptieren sollen, wenn die Wahrscheinlichkeit überwiegt (more likely than not), dass das Vorbringen Richter oder Geschworenen hilft und auf ausreichend Fakten oder Daten sowie auf verlässlichen Prinzipien und Methoden beruht, die auf die Fakten des Falles angewendet wurden.

Das betroffene Verfahren am US-Bundesbezirksgericht für New Jersey heißt In re CorMedix Inc. Securities Litigation, Az. 2:21-cv-14020. Das betroffene Verfahren am US-Bundesbezirksgericht für den Süden Mississippis heißt Jackson Federation of Teachers, et al v Lynn Fitch, et al, Az. No. 3:25-cv-00417.


(ds)



Source link

Weiterlesen

Künstliche Intelligenz

KI-Offensive: Krankenhäuser fordern Datenzugang, Rechtssicherheit und Förderung


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Krankenhäuser sehen in Künstlicher Intelligenz (KI) große Zukunftschancen, warnen aber vor strukturellen Hürden. In einem Positionspapier fordert die Deutsche Krankenhausgesellschaft (DKG), dass Bund und Länder gezielt rechtliche, technische und finanzielle Grundlagen schaffen, um KI-Anwendungen in der Versorgung sinnvoll und sicher einsetzen zu können. „Eine erfolgreiche Implementierung von KI erfordert klare rechtliche Rahmenbedingungen, eine breite, interoperable Datenbasis, KI-fähige Infrastrukturen, effektive Vernetzung und gezielte Unterstützungsprojekte für Kliniken“, sagt dazu die stellvertretende Vorstandsvorsitzende der Deutschen Krankenhausgesellschaft (DKG) Prof. Dr. Henriette Neumeyer.

Weiterlesen nach der Anzeige

KI-Systeme könnten laut DKG helfen, Diagnosen zu verbessern, Behandlungsprozesse zu personalisieren und Ärzte sowie Pflegepersonal von Routineaufgaben zu entlasten. Schon heute werden Algorithmen in Bereichen wie der Radiologie oder der Pathologie eingesetzt. Das eigentliche Problem liege aber nicht in der Technik, sondern in der Umsetzung.

Kritik äußert die DKG etwa am Krankenhauszukunftsgesetz (KHZG), das zwar digitale Anwendungen fördert, aber keine Mittel für den Aufbau von KI-fähigen Infrastrukturen vorsieht. Auch beim Gesundheitsdatennutzungsgesetz (GDNG) gebe es Lücken – so müsse klargestellt werden, wie pseudonymisierte Patientendaten auch zum Training von KI-Modellen verwendet werden dürfen. Dafür schlägt die DKG einen Broad Consent vor – eine einmalige, transparente Einwilligung der Patienten zur Datenverwendung für Forschungszwecke.

Um vertrauenswürdige Modelle zu entwickeln, brauche es laut DKG „hochwertige, vielfältige und interoperable Real-World-Daten“ aus Forschung und Versorgung. Hier verweisen die Krankenhäuser auf bereits bestehende Initiativen wie die vom Bund geförderte Medizininformatik-Initiative (MII) oder das Netzwerk Universitätsmedizin (NUM), die jedoch dringend ausgebaut und mit anderen Einrichtungen und Leistungserbringern verknüpft werden müssten.

Zudem verlangt die DKG eine klare Linie bei der Haftung für fehlerhafte oder schwer nachvollziehbare KI-Entscheidungen. Die neue EU-KI-Verordnung weise zwar den Weg, lasse aber noch viele Fragen offen – etwa, wo die Verantwortung von Herstellern ende und die der Anwender beginne. Wichtig sei auch, Mechanismen gegen einen „Automation Bias“ zu entwickeln, damit der KI nicht blind vertraut werde.

Weiterlesen nach der Anzeige

Die Therapiehoheit von Ärzten, Pflegekräften und Mitgliedern anderer Gesundheitsfachberufe in Krankenhäusern müsse zudem geschützt werden. „Aus der Nutzung von KI-Anwendungen ein Rechtfertigungsdruck für den Anwender bzw. die Anwenderin entstehen, insbesondere wenn dieser/diese von den Vorschlägen der KI abweicht“, heißt es im Positionspapier (PDF).

Ein weiterer Punkt des Papiers ist der Aufbau von KI-Kompetenz. Krankenhäuser sollen Beschäftigte systematisch schulen können, um Anwendungen sicher zu bedienen und Risiken zu erkennen. Dies müsse in der Finanzierung berücksichtigt werden. Die DKG schlägt darüber hinaus vor, „KI-Hubs“ als Unterstützungsstrukturen auf Länder- oder Bundesebene aufzubauen, die Kliniken bei Strategie, Entwicklung und Vernetzung helfen.

Auch im ambulanten Bereich wächst das Interesse an anwendungsnaher KI-Schulung: Die Kassenärztliche Bundesvereinigung (KBV) startet im November ihre KI-Roadshow, um Ärzten und Psychotherapeutinnen Grundlagen und rechtliche Aspekte des KI-Einsatzes zu vermitteln. „Anwendungen der Künstlichen Intelligenz bieten große Chancen, die Patientenversorgung nachhaltig zu verbessern“, sagte KBV-Vorständin Dr. Sibylle Steiner. Die Veranstaltungsreihe soll praktische Impulse für den verantwortungsvollen Umgang mit KI geben – von Datenschutz über die EU-KI-Verordnung bis zu Haftungsfragen.

Besonders hohe Erwartungen richtet die Branche auf generative KI und personalisierte Medizin. Anwendungen, die Arztbriefe automatisiert erstellen oder genetische Daten auswerten, könnten laut DKG Versorgungsqualität und Effizienz erhöhen – vorausgesetzt, ethische Standards und Datenschutz blieben gewahrt. KI sei ein Werkzeug, das helfen könne, Fachkräftemangel zu lindern und die Versorgung zu verbessern. Dafür brauche es aber klare politische Prioritäten.

Wie KI im Klinikalltag praktisch eingesetzt werden kann, zeigen große Häuser. So betreibt das Universitätsklinikum Essen mit seinem Institut für Künstliche Intelligenz in der Medizin (IKIM) eine der größten FHIR-Implementierungen Europas. Das Institut analysiert Daten über Milliarden klinischer Ressourcen und nutzt KI, um medizinische Dokumente automatisiert zu strukturieren und durchsuchbar zu machen.

Auch am Universitätsklinikum Hamburg-Eppendorf (UKE) ist KI längst Teil des Alltags. Die dortige Tochtergesellschaft IDM gGmbH hat unter anderem mit Orpheus eine KI-Spracherkennung für den Medizinbereich und mit Argo ein Modell zur automatischen Erstellung von Arztbriefen entwickelt – beide werden im Klinikbetrieb eingesetzt und sollen auch anderen Einrichtungen und Interessenten offenstehen.


(mack)



Source link

Weiterlesen

Beliebt