Connect with us

Künstliche Intelligenz

Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten


Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.

Weiterlesen nach der Anzeige

Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.

Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.

Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.

Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.

Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.

Weiterlesen nach der Anzeige

Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.

Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.

Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.

Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.

Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.

In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.

Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.

Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.

Lesen Sie auch


(mack)



Source link

Künstliche Intelligenz

iX-Konferenz: Software und KI-Projekte praxisnah testen


Die Online-Konferenz betterCode() Testing von iX und dpunkt.verlag am 8. Juni 2026 widmet sich der Frage, wie sich Softwarequalität sichern lässt, wenn KI immer mehr Code erzeugt und sich die Entwicklungsprozesse drastisch ändern. Ergänzend zum Konferenztag bieten mehrere Online‑Workshops Gelegenheit, einzelne Themen praxisnah zu vertiefen.

Weiterlesen nach der Anzeige

Mit der zunehmenden Verbreitung von KI‑gestützter Entwicklung stehen Teams vor neuen Herausforderungen. Code entsteht schneller, stammt teilweise aus automatisierten Systemen und ist nicht immer vollständig nachvollziehbar. Die betterCode() Testing 2026 greift diese Veränderungen auf und zeigt, welche Rolle Testing, Testautomatisierung und menschliche Expertise in modernen Entwicklungsprozessen spielen. Die Veranstaltung richtet sich insbesondere an Testerinnen, Testmanager, Testautomatisierer und Quality Engineers.

Die Veranstalter haben zusammen mit dem Testexperten und Podcaster Richard Seidl als Beirat das Programm mit sechs Vorträgen und einer Paneldiskussion zusammengestellt:

  • Richard Seidl: Schluss mit Qualitätstheater – Was Testing im KI‑Zeitalter wirklich braucht
  • Maud Schlich: Exploratives Testen schlau einsetzen
  • Benjamin Hummel: Copiloten für Agenten: Qualitätssicherung in der Ära der Coding Agents
  • Dehla Sokenou: Let’s play! Gamification und Qualitätssicherung – ein perfektes Match
  • Florian Fieber: Kollaborative Intelligenz: Menschliche Tester im Zeitalter der KI
  • Richard Seidl (Panel-Moderation): So funktioniert Testautomatisierung in der Praxis – wirklich?

Neben dem Konferenztag gibt es mehrere Online‑Workshops, in denen Teilnehmerinnen und Teilnehmer einzelne Themen intensiver in der Praxis einüben:

  • Teststrategie reloaded mit Richard Seidl (12. Juni 2026, halbtags)
  • So geht’s: Exploratives Testen schlau einsetzen mit Maud Schlich (18. Juni 2026, ganztags)
  • Let’s play! Gamification selbst anwenden mit Dehla Sokenou (19. Juni 2026, halbtags)

Weiterlesen nach der Anzeige

Die betterCode() Testing 2026 findet vollständig online im Browser statt. Während der Veranstaltung können sich Teilnehmende und Referenten per Chat und Video austauschen. Nach der Veranstaltung erhalten sie Zugriff auf die Aufzeichnungen der Vorträge und die Präsentationen.

Tickets gibt es bis zum 18. Mai 2026 zum Frühbuchertarif für 249 Euro (alle Preise zzgl. 19 % MwSt.), danach 299 Euro. Der Ticketshop berechnet für Teams automatisch einen Mengenrabatt bei der Anmeldung. Schülerinnen, Schüler, Studierende und Hochschulangehörige erhalten auf Anfrage ebenfalls einen Nachlass. Der ganztägige Online-Workshop kostet 549 Euro, die halbtägigen je 399 Euro.

Wer sich über den Fortgang der Konferenz auf dem Laufenden halten möchte, meldet sich auf der Konferenz-Website zum Newsletter an.


(who)



Source link

Weiterlesen

Künstliche Intelligenz

Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland


Wer schon einmal auf der Suche nach dem passenden Neuwagen war, dürfte das Gefühl kennen: Der unvernünftige Teil in uns würde gerne zum leistungsstarken Modell mit opulenter Ausstattung greifen, der pragmatische Teil hingegen zum günstigen. Doch das zu finden, wird angesichts von mehr als 5000 in Deutschland erhältlichen Fahrzeugen und Varianten schnell zur Sisyphusarbeit. Hinzu kommt, dass sich „günstig“ ganz unterschiedlich interpretieren lässt: Der eine schaut nur auf den Kaufpreis, der andere auf die laufenden Ausgaben. Hier kommt unsere Übersicht ins Spiel, die ausgehend von Kaufpreis und Unterhaltskosten die jeweils erschwinglichsten Verbrenner und Elektroautos der fünf wichtigsten Segmente nennt.

  • Vor allem in der Mittelklasse und oberen Mittelklasse gehören mit Blick auf Kauf und Unterhalt einige in Deutschland weniger stark vertretene Modelle zu den günstigsten.
  • Der Wertverlust ist der mit Abstand wichtigsten Punkt, wenn es um die laufenden Kosten geht.
  • In bestimmten Segmenten sind Sie mit einem Elektroauto deutlich günstiger als mit einem Verbrenner unterwegs.

Bei den Segmenten handelt es sich um Minis, Kleinwagen, Modelle der Kompakt- und Mittelklasse sowie der oberen Mittelklasse. Bei der Einstufung haben wir uns am Kraftfahrt-Bundesamt (KBA) orientiert, das jedes in Deutschland erhältliche Fahrzeug einsortiert. Allerdings weichen wir in einem wichtigen Punkt ab. Denn während das KBA jedes SUV unabhängig von Größe, Gewicht und Preis als SUV oder Geländewagen einstuft, unterscheiden wir zwischen den Fahrzeuglängen. Zusätzlich differenzieren wir zwischen Kombis und Limousinen. Das Ergebnis: 59 Modelle von 17.600 und 71.500 Euro und einer Länge zwischen 3,7 bis rund 5 m.

Die Kaufpreise stimmen mit den in den jeweiligen Preislisten genannten Werten für die Basisvariante überein. Hersteller- oder händlerseitige Rabatte haben wir nicht berücksichtigt. Für Elektroautos gibt es wieder eine Förderung, die seit dem 1. Mai beantragt werden kann. Ihre Höhe lässt sich aber nicht pauschal berechnen. Denn je nach zu versteuerndem Haushaltseinkommen und Anzahl der Kinder unter 18 Jahren kann ihre Höhe Null, 4000, 5000 oder 6000 Euro betragen. Die Unterhaltskosten enthalten Wartung, Verschleiß, Kfz-Steuer und -Versicherung, Fahrenergie und Wertverlust. Alle Werte stammen aus dem ADAC Profi-Autokostenrechner und beziehen sich auf fünf Jahre Nutzung und eine Laufleistung von insgesamt 75.000 km. Da die Ausgaben für Fahrenergie bei einigen Modellen einen großen Anteil an den Gesamtkosten ausmachen, spielen die durch den Iran-Krieg gestiegenen Preise für Super und Diesel durchaus eine Rolle. Pro Liter Super E5 rechnen wir mit 2,17 Euro, bei Diesel mit 2,26 Euro. Beides entspricht dem bundesweiten Durchschnitt im April 2026. Für Strom setzen wir 30 Cent pro Kilowattstunde an, was dem Laden an der heimischen Wallbox entspricht. Mit einer eigenen PV-Anlage sinkt der Preis, an öffentlichen Ladesäulen müssen Sie hingegen mit höheren Ausgaben rechnen.


Das war die Leseprobe unseres heise-Plus-Artikels „Kaufpreis und Unterhalt im Vergleich: Die günstigsten Autos in Deutschland“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

KI-Bots als Täter-Software: Wenn Algorithmen Kindesmissbrauch simulieren


Die Versprechen Künstlicher Intelligenz klingen nach Fortschritt: effizientere Arbeitsabläufe, Hilfe bei der Kreation oder empathische digitale Assistenten. Doch abseits der bekannten Pfade von ChatGPT & Co. hat sich eine Schattenwelt etabliert, in der generative Sprachmodelle für besonders verstörende Zwecke missbraucht werden: Eine Recherche der Süddeutschen Zeitung wirft ein Schlaglicht auf Plattformen, auf denen KI-generierte Kinder-Charaktere gezielt erstellt werden, um virtuelle Missbrauchsszenarien zu simulieren.

Weiterlesen nach der Anzeige

Ein Beispiel, auf das die Reporter gestoßen sind, ist die Figur „Karin“. Dabei handelt es sich um ein fiktives 13-jähriges, obdachloses Mädchen, dessen Profil anhand vieler Details auf Hilflosigkeit und sexuelle Verfügbarkeit programmiert wurde.

Dieses Phänomen ist laut dem Bericht kein Nischenprodukt des Darknets. Vielmehr findet es auf frei zugänglichen Diensten für KI-Charaktere wie Chub AI statt. Dort sind keine technischen Hürden oder Altersprüfungen vorgeschaltet, was den Zugang zu solchen Inhalten sehr einfach macht. Die Interaktion mit den Bots folgt einer perfiden Logik: Die KI ist darauf trainiert, dem Nutzer zu gefallen und das Gespräch aktiv in Richtung sexualisierter Gewalt zu lenken. Allein mit dem Charakter „Karin“ wurden bereits fast 17.000 Chats geführt. Die Community findet das offenbar gut, worauf eine erschreckend hohe Zahl an positiven Bewertungen hindeutet.

Hinter solchen Angeboten steht offenbar ein Geschäftsmodell, bei dem Gewalt an Kindern schon ins Design eingebaut ist. Chub AI & Co. setzen auf nutzergenerierte Inhalte: Je mehr Charaktere erstellt werden, desto höher steigen die Interaktionsraten, die Datenmengen und die Reichweite. Die Betreiber bieten die Werkzeuge an, die Nutzer liefern die Inhalte. Das System unterstützt dabei sogar die gezielte Suche nach Missbrauchsdarstellungen durch eindeute Schlagworte, welche sexualisierte Gewalt gegen Kinder beschreiben.

Wettbewerber wie Character AI versuchen, durch Inhaltsfilter und Moderation gegenzusteuern. Sie wollen nicht anonym agieren und ihre Marke schützen. Auf Plattformen wie Chub AI bleibt die Kontrolle dagegen oft eine Sisyphusarbeit. Einmal gelöschte Bots tauchen durch Forks – das Kopieren und Abändern bestehender Charaktere – innerhalb kurzer Zeit in mehrfacher Ausführung wieder auf. Das führt dazu, dass Aufsichtsbehörden etwa in Australien solche Services als hohes Risiko für Kinder einstufen.

Weiterlesen nach der Anzeige

Die Dringlichkeit des Problems unterstreichen aktuelle Zahlen der Freiwilligen Selbstkontrolle Multimedia-Diensteanbieter (FSM). Ihr Jahresbericht 2025 verzeichnete mit 28.598 Meldungen die zweithöchste Anzahl an Hinweisen seit Gründung der Beschwerdestelle. Dabei hat sich die Darstellung sexuellen Missbrauchs von Kindern (CSAM) mit 58 Prozent der begründeten Fälle zur größten Kategorie entwickelt. Ein signifikanter Teil dieser Meldungen – rund 19 Prozent – entfällt mittlerweile auf virtuelle Darbietungen. Dabei nehmen KI-generierte Inhalte stetig zu.

Laut FSM verschwimmen hier die Grenzen zwischen Realität und Fiktion, was den Jugendschutz vor völlig neue Herausforderungen stelle. Dennoch bleibe die rechtliche Einordnung in Deutschland unmissverständlich: Auch virtuelle, mittels KI erstellte Darstellungen seien unzulässig und strafbar.

Die rechtliche Einordnung dieser virtuellen Gewalt gestaltet sich dennoch komplex. Das Bundeskriminalamt (BKA) stellt zwar klar, dass es für die strafrechtliche Bewertung in Deutschland unerheblich sei, ob es sich um reale oder KI-generierte Darstellungen handele. Beide würden vom Begriff der Kinderpornografie erfasst. Doch es gibt Unterschiede in der Handhabung von Bild- und Textmaterial. Während der Besitz von missbräuchlichen Bildern strafbar ist, gilt dies für rein textbasierte Beschreibungen („Fiktivpornographie“) bisher nicht. Hier ist nur das öffentliche Zugänglichmachen oder Verbreiten sanktioniert.

Eine Gesetzesverschärfung ist auf dem Weg. Bis Juni 2027 muss Deutschland eine EU-Richtlinie umsetzen, die das Erstellen und Verbreiten KI-generierter sexualisierter Inhalte explizit unter Strafe stellt. Ferner einigten sich die EU-Gesetzgeber vor wenigen Tagen auf ein Verbot von KI-Anwendungen, die sexualisierte Deepfakes produzieren („Nudifier-Apps“). Ob diese Vorgaben auch rein fiktive Text-Charaktere wie „Karin“ voll erfassen, ist noch unklar.

Auf Anfragen reagieren Betreiber oft ausweichend oder mit regionalen Zugriffssperren, wie sie Chub AI im Fall von „Karin“ nach der journalistischen Konfrontation für Deutschland umgesetzt hat. In anderen Ländern bleibt der Zugriff auf solche Bots weiterhin bestehen, da die globalen Plattformen oft unter unklarem Firmensitz oder US-Recht agieren. So geht der Wettlauf zwischen den Möglichkeiten der KI-Entwicklung und der staatlichen Fähigkeit, wirksame Leitplanken gegen digitalen Missbrauch einzuziehen, vorerst weiter.


(nen)



Source link

Weiterlesen

Beliebt