Connect with us

Künstliche Intelligenz

Trotz Verbesserungen: E‑Patientenakte für besonders sensible Daten ungeeignet


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Diskussionen um IT-Sicherheit und Datenschutz bei der elektronischen Patientenakte (ePA) reißen nicht ab. Zwar gab es zuletzt Verbesserungen beim Datenschutz für Informationen rund um den Medikationsprozess und künftig sollen auch Abrechnungsdaten nicht mehr automatisch für alle Leistungserbringer sichtbar sein, doch grundlegende Fragen bleiben offen. Das zeigt eine Antwort der Bundesregierung auf eine Kleine Anfrage der Fraktion „Die Linke“ (Drucksache 21/2238). Viel Verantwortung sieht die Regierung bei den Krankenkassen, etwa bei der Nutzerfreundlichkeit und Barrierefreiheit.

Weiterlesen nach der Anzeige

Kritische Nachfragen zur Zusammenarbeit mit Unternehmen wie IBM und den Auswirkungen auf die digitale Souveränität wurden nur eingeschränkt beantwortet. Nach eigener Aussage hat das Bundesgesundheitsministerium (BMG) keine Kenntnis über die Verträge zwischen den Betreibern und den Krankenkassen. Es verweist stattdessen auf bestehende Sicherheitsvorkehrungen: Die ePA‑Daten würden verschlüsselt auf Servern in Deutschland gespeichert und seien ohne den Schlüssel der Versicherten nicht lesbar.

Eine eigene Überprüfung der Abhängigkeiten von nicht‑europäischen Anbietern plant die Bundesregierung nicht. Stattdessen verweist sie auf das Gesetz über das Bundesamt für Sicherheit in der Informationstechnik (BSIG), das Schutzanforderungen für sogenannte kritische Infrastrukturen – darunter auch das Gesundheitswesen – festlegt. Nach § 9b BSIG kann das Bundesministerium des Innern (BMI) den Einsatz einer technischen Komponente untersagen, wenn deren Hersteller als nicht vertrauenswürdig gilt, etwa wegen staatlicher Kontrolle aus dem Ausland.

Laut Antwort sind derzeit keine Evaluationen zum Opt‑out‑Verfahren der elektronischen Patientenakte (ePA) vorgesehen, allerdings evaluiere die Gematik das Verfahren. „Abgestimmte Regelungen oder Vereinbarungen mit den Krankenkassen“ gebe es jedoch nicht. Die Bundesregierung betonte, in regelmäßigem Austausch mit Fachorganisationen und Verbänden zu stehen, die die Nutzer der ePA auf Seiten der Leistungserbringer und Versicherten vertreten, um das Verfahren zu beurteilen – eine systematische wissenschaftliche Überprüfung sei aber nicht geplant. Dabei scheint eine offizielle Evaluierung angesichts immer wieder trotz Widersprüchen angelegter Patientenakten angebracht.

Die Bundesregierung bestätigt zudem, dass Versicherte Zugriffsrechte in der ePA nur „institutionsbezogen“ vergeben oder entziehen können. Einzelne Dokumente lassen sich nicht gezielt nur für bestimmte Praxen oder Ärztinnen und Ärzte sperren oder freigeben – sie können ausschließlich vollständig verborgen werden, was dann für alle gilt. Diese Abschwächung des sogenannten „feingranularen Berechtigungsmanagements“, das es in der früheren Opt-in-Version der ePA noch gab, begründet die Bundesregierung mit mangelnder Praxistauglichkeit. Die alte ePA sei zu komplex gewesen und von zu wenigen Versicherten genutzt worden. Bisher verfügen rund 3,7 Millionen Versicherte über eine für die aktive Nutzung der ePA notwendige GesundheitsID.

Weiterlesen nach der Anzeige

Wenn Dokumente wie Arztbriefe verborgen werden, gilt dies für alle Leistungserbringer, es kann derzeit nicht nur gezielt für einzelne gesperrt werden. Den Zeitraum, in welchem ein Leistungserbringer Einsicht hat, können Versicherte selbst festlegen oder vorzeitig beenden – entweder über die ePA‑App oder über die Ombudsstelle ihrer Krankenkasse. Ab dem 1. Januar 2030 soll zudem protokolliert werden, welche Personen auf die Daten zugegriffen haben, und nicht nur welche Einrichtung.

Laut einem Änderungsantrag (PDF) zum Gesetzentwurf zur Befugniserweiterung und Entbürokratisierung in der Pflege sollen künftig Abrechnungsdaten, die von den Krankenkassen in die elektronische Patientenakte eingestellt werden, nicht mehr automatisch für alle einsehbar sein. Das hatte das Bundesgesundheitsministerium gegenüber heise online bestätigt. Damit soll verhindert werden, dass Leistungserbringer, die an der jeweiligen Behandlung gar nicht beteiligt sind, Zugriff auf sensible Abrechnungsinformationen erhalten.

In Notfällen gelten dieselben Zugriffsregeln wie im regulären Behandlungsfall: Ärzte dürfen auf gespeicherte Daten zugreifen, wenn dies für Diagnose oder Behandlung erforderlich ist und keine ausdrückliche Ablehnung des Patienten vorliegt. Die Bundesregierung betont den potenziellen Nutzen der ePA für einen „medienbruchfreien Austausch“ zwischen ambulanten Praxen, Kliniken und psychiatrischen Einrichtungen. In der Praxis ist das bislang jedoch kaum Realität, da nur wenige Krankenhäuser die ePA technisch integriert und aktiv in die Abläufe eingebunden haben.

Besonders sensiblen Daten – etwa zu psychischen Erkrankungen, Schwangerschaftsabbrüchen oder sexuell übertragbaren Infektionen – misst die Bundesregierung zwar einen „besonderen Schutzbedarf“ bei. Ärzte müssen Patienten demnach vor der Speicherung solcher Daten ausdrücklich auf ihr Recht zum Widerspruch hinweisen. Dennoch sind darüber hinausgehende Schutzmechanismen nicht geplant.

Konkrete Hinweise auf Missbrauchsfälle mit ePA-Daten liegen der Bundesregierung derzeit nicht vor. Experten kritisieren jedoch seit Langem, dass gerade psychisch erkrankte Patientinnen und Patienten oft nicht in der Lage seien, komplexe Datenschutzentscheidungen selbst zu treffen. „Es gibt Patienten, die es vielleicht gar nicht schaffen, einer Datenspeicherung zu widersprechen, da sie die schriftlichen Hinweise in den Aufnahmeunterlagen aufgrund von Konzentrationsproblemen nicht vollständig lesen können“, sagte Susanne Berwanger vom Berufsverband Deutscher Psychologinnen und Psychologen Ende 2024 gegenüber heise online. Und auch andere Themen lassen Wünsche von Datenschützern offen, etwa der fehlende Beschlagnahmeschutz.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier eine externe Umfrage (Opinary GmbH) geladen.


(mack)



Source link

Künstliche Intelligenz

TDWI München 2026: Vorträge für die Konferenz zu Data, Analytics und KI gesucht


Vom 23. bis 25. Juni 2026 findet die TDWI München statt. Die Konferenz hat sich als Wissensdrehscheibe und Netzwerkplattform für die Daten-Community etabliert.

Weiterlesen nach der Anzeige

Bis Ende Januar 2026 sucht der Veranstalter heise conferences nach Vorträgen für die TDWI München zu Themen von Datenarchitektur und Strategie über Data Science und KI bis zur Datenkultur.

Ein Programmbeirat aus Fachexpertinnen und -experten kuratiert das Programm und sucht aus den Einreichungen etwa 120 Vorträge für die TDWI München aus.

Der Call for Contributions ist bis zum 26. Januar 2026 geöffnet. Die Konferenz bietet zwölf thematische Tracks. Als neue Schwerpunkte kommt 2026 Industrial Data & AI hinzu. Daneben gibt es unter anderem folgende Tracks:

  • Data Architecture
  • Data Management
  • Data Culture
  • Data Science & AI
  • Data Strategy & Data Governance
  • Self-Service BI & Analytics
  • Branchentrack Finanzindustrie

Projekterfahrungen und -berichte sind ebenso gewünscht wie Trends und Ausblicke zu den Themen der TDWI München. Wer mit einem Vortrag auf der Konferenz dabei sein möchte, aber noch keine Speaker-Erfahrung hat, hat die Chance, auf einen Mentor aus der Community zurückzugreifen.

Anwenderstorys sind besonders gern gesehen. Die Programmgestalter freuen sich zudem über Vorträge zu innovativen Formaten. So gab es in den letzten Jahren beispielsweise eine Chess Clock Debate und ein Dashboard-Karaoke.

Weiterlesen nach der Anzeige


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

Missing Link: Hubble Deep Field – ein Foto und seine Geschichte


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.

Weiterlesen nach der Anzeige

Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.

Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.


Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

(Bild: NASA)

Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.

Weiterlesen nach der Anzeige

Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.

Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.

1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.



Source link

Weiterlesen

Künstliche Intelligenz

ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test


Lenovos ThinkBook Plus G6 Rollable ist ein Hingucker, weil es nur auf den ersten Blick ein normales Notebook ist. Drückt man eine Sondertaste neben F12, so fährt das Notebook seinen Bildschirm motorisiert nach oben aus. Er gewinnt dadurch in etwa nochmal die Hälfte an zusätzlicher Höhe. Das funktioniert dank eines flexiblen OLED-Displays.

Anders als herkömmliche Monitore benötigt es keinen mehrlagigen Schichtaufbau mit starrer Hintergrundbeleuchtung, sondern lässt sich auf flexiblen Folien fertigen. Gerätehersteller benutzen diese technische Besonderheit für Smartphones mit faltbaren Displays, aber auch für Gaming-Bildschirme, die man jederzeit zwischen planer und gekrümmter Oberfläche umbauen kann. Das ThinkBook Plus G6 Rollable hat auch keine nervige Unterbrechung der Bildfläche, die man bei bisherigen Dual-Display-Notebooks zwangsläufig antrifft.

Anders als dort muss man obendrein keine Kompromisse bei den Eingabegeräten hinnehmen. Sie sind in gängiger Position fest im Rumpf verbaut: Tastatur hinten, Touchpad mittig davor. Dies ist bei Notebooks mit ungewöhnlichen oder mehreren Bildschirmen keinesfalls selbstverständlich. Dort sind abnehmbare Bluetooth-Tastaturen gängig oder welche, die ganz nach vorne gezogen sind und die Handballenablage verdrängen.


Das war die Leseprobe unseres heise-Plus-Artikels „ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt