Künstliche Intelligenz
KIare Regeln statt Blackbox: Deterministische Steuerung von KI-Agenten
Salesforce erweitert seine Plattform Agent Fabric um Funktionen zur Integration, Verwaltung und Kontrolle von KI-Agenten. Somit sollen sich mehrere Agenten über verschiedene Systeme und Plattformbetreiber hinweg zentral steuern lassen.
Weiterlesen nach der Anzeige
Die zentrale Neuerung zur Orchestrierung von KI-Agenten ist die Integration von Agentforce Script in Agent Broker. Damit überträgt Salesforce den sogenannten geführten Determinismus auf die plattformübergreifende Multi-Agenten-Steuerung. Dabei definieren Entwickler ihre Übergaben als festen Code, dazwischen übernehmen Sprachmodelle die Verarbeitung.
Über eine grafische Oberfläche lassen sich alle Multi-Agenten-Workflows mittels Drag-and-Drop steuern und menschliche Freigabepunkte einsehen. Ebenfalls gibt es eine Integration von MuleSoft Vibes zur Steuerung der Abläufe in natürlicher Sprache. Unabhängige Daten zur Leistungsfähigkeit des Brokers liegen bislang nicht vor. Für die Abrechnung nutzt Salesforce die sogenannten „Agentic Work Units“. Sie erfassen Nutzung und Interaktionen, nicht aber den Geschäftswert.

Übersicht über die Verwaltung von Agenten, Richtlinien und Modellen in Agent Fabric
(Bild: Salesforce)
Governance und Integration für Agenten
Mit dem AI Gateway führt Salesforce eine zentrale Instanz zur Steuerung von Sprachmodellen ein. Routing zwischen Modellen, Token-Budgets sowie Sicherheits- und Compliance-Vorgaben lassen sich in einem Werkzeug festlegen. Dabei bleibt die Plattform modellagnostisch. Neben vordefinierten Modellen können Unternehmen selbst gewählte LLMs anbinden. Neben Modellen von OpenAI, Anthropic oder Google lassen sich so auch eigene Sprachmodelle verwenden.
Außerdem erhält die Plattform mit MCP Bridge eine Schnittstelle zur Integration bestehender Systeme. Sie setzt vorhandene REST-APIs ohne Codeänderung als MCP-Endpunkte um. Zudem übernimmt Agent Fabric die Authentifizierung und das Rate Limiting. Darüber hinaus führt Salesforce mit Trusted Agent Identity ein Berechtigungsmodell für KI-Agenten ein. Aktionen erfolgen im Kontext konkreter Benutzerrechte. Für kritische Vorgänge, etwa finanzielle Transaktionen oder rechtliche Freigaben, ist zudem eine Bestätigung über das Smartphone erforderlich. Zusätzlich protokolliert Agent Fabric alle Aktionen.
Externe Agenten in der Registry
Weiterlesen nach der Anzeige
Die Agent Scanner erfassen externe KI-Agenten und tragen sie in eine zentrale Registrierungsdatenbank ein. Über OAuth unterstützen sie nun Agenten von Amazon Bedrock, Microsoft Foundry und GoDaddy. Dabei regelt eine sogenannte „Controlled Registration“, welche Agenten das Tool in die Registry aufnimmt. Ebenfalls liefern MCP-Server Datenqualitäts- und Governance-Funktionen direkt aus der Registry. Alle registrierten Agenten sowie deren Richtlinien und Modellnutzung lassen sich über Dashboards einsehen.
Salesforce nennt als Praxisbeispiel eine Anbindung an den Instant-Messaging-Dienst Slack. Hier geben Anwender einen Prompt ein und anschließend wählt Agent Fabric passende Agenten oder externe Systeme über MCP-Schnittstellen aus. Das US-Unternehmen führt auch weitere mögliche Einsatzzwecke an. So sollen Anwender etwa mit KI-Unterstützung Workshops vorbereiten, Softwareanforderungen erstellen oder sich bei der Entwicklung unterstützen lassen können.
Stärkerer Fokus auf Multi-Vendor-Umgebungen
Mit den Erweiterungen in Agent Fabric überträgt Salesforce bestehende Konzepte aus dem API-Management auf agentische Systeme, darunter Gateway, Registry und Policy Engine. Gleichzeitig wolle man sich stärker auf Multi-Vendor-Umgebungen ausrichten, erklärt John Kucera, SVP Product Management bei Salesforce. Kunden würden nicht auf eine einzige Agenten-Plattform setzen.
Dennoch bleibt die Agent Fabric durch die MuleSoft-Infrastruktur und das Agentforce-Script-Format eng an die Infrastruktur von Salesforce gebunden. Bislang unklar ist die Reife der Protokolle MCP und A2A, die beide weniger als zwei Jahre alt und zwischen Anbietern uneinheitlich umgesetzt sind.
AI Gateway, MCP Bridge und Trusted Agent Identity sind ab sofort allgemein verfügbar. Die deterministische Orchestrierung im Agent Broker startet im April 2026 als Beta, mit visuellem Authoring-Canvas und Unterstützung für Salesforce-Modelle soll sie ab Juni 2026 für alle Kunden bereitstehen.
Die Agent Scanner für Amazon Bedrock, Azure AI Foundry und GoDaddy sind ab sofort nutzbar, MCP-Server-Support folgt im Mai, die breitere OAuth-Integration im Juni 2026. Ebenfalls ist Agent Fabric nun in den Serverregionen Kanada und Japan verfügbar und erlaubt den Betrieb auf MuleSoft Runtime Fabric in Private-Cloud- und On-Premises-Umgebungen.
(sfe)
Künstliche Intelligenz
Rheinmetall-Tochter Blohm+Voss baut Überwasserdrohnen | heise online
Überwasserdrohnen für zivile und militärische Anwendungen baut Blohm+Voss. Der deutsche Rüstungskonzern Rheinmetall hat angekündigt, dass auf der Hamburger Werft die Serienfertigung des Unmanned Surface Vessel (USV) Kraken K3 Scout angelaufen ist.
Weiterlesen nach der Anzeige
Kraken K3 Scout ist 8,50 Meter lang und knapp 2 Meter breit. Als Antrieb dient ein Dieselmotor, der das Boot auf maximal 55 Knoten, knapp 102 Kilometer pro Stunde beschleunigt. Bei einer Geschwindigkeit von 25 Knoten (etwa 46 Kilometer pro Stunde) soll die Reichweite 650 Seemeilen, etwa 1200 Kilometer betragen.
Empfohlener redaktioneller Inhalt
Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.
Kraken K3 Scout
Das unbemannte Überwasserfahrzeug kann für militärische oder zivile Zwecke ausgestattet werden. Die Einsätze sollen, ja nach Mission, bis zu 30 Tage dauern. Dabei wird das USV ferngesteuert. In Zukunft soll es aber operieren können.
Zivile und militärische Anwendungen
Je nach Ausstattung kann es laut Rheinmetall „zur Überwachung von Seegebieten, zum Schutz kritischer Infrastruktur oder als Waffenträger für militärische Operationen eingesetzt werden.“
Auch der Transport von Menschen und Material soll möglich sein. Die maximale Zuladung beträgt 600 Kilogramm, die maximale Verdrängung 2,5 Tonnen. Für die Nutzlasten stehen zwei unterschiedlich ausgelegte Bereiche zur Verfügung.
Blohm+Voss werde zunächst rund 200 Stück der USVs pro Jahr bauen, sagte Tim Wagner, Chef von Rheinmetall Naval Systems. „Je nach Auftragslage können wir die Produktion auf bis zu 1000 Einheiten jährlich hochfahren.“
Weiterlesen nach der Anzeige
Kraken K3 Scout wurde von dem britischen Unternehmen Kraken Technology entwickelt. Das Unternehmen stellte das USV im vergangenen Jahr vor. Für die Serienfertigung haben Kraken Technology und Rheinmetall im vergangenen Jahr das Joint Venture Rheinmetall Kraken GmbH gegründet. Blohm+Voss wurde von der Bremer Lürssen Werft übernommen. 2025 kaufte Rheinmetall die Marinesparte von Lürssen, zu der neben weiteren Werften auch Blohm+Voss gehört.
(wpl)
Künstliche Intelligenz
n8n: Wichtiges Sicherheitsupdate in Sicht
Die n8n-Entwickler kündigen für kommenden Mittwoch (22. April) zur Mittagszeit einen Sicherheitspatch für ihre Automatisierungsplattform mit KI-Funktionen an. Zu den Schwachstellen ist derzeit so gut wie nichts bekannt.
Weiterlesen nach der Anzeige
Sicherheitspatch in Sicht
In einer Mail an n8n-Nutzer steht, dass es sich um mehrere kürzlich entdeckte Sicherheitslücken mit den Bedrohunsgraden „kritisch“ und „hoch“ handelt. Was nach erfolgreichen Attacken passieren kann, ist bislang unklar. In der Nachricht steht auch nichts von bereits laufenden Attacken.
Die Entwickler raten Betreibern von On-Premises-Instanzen, das Update, wenn es draußen ist, so schnell wie möglich zu installieren. Wenn der Sicherheitspatch da ist, wollen sie weitere Informationen zu den Lücken und zur Absicherung von Systemen veröffentlichen.
(des)
Künstliche Intelligenz
DMEA-Standortwechsel: „Wir wollen wachsen und neue Themen integrieren“
Die DMEA findet ab 2027 nicht mehr in Berlin, sondern in München statt. Die Messe Berlin plant parallel eine eigene Veranstaltung – ausgerechnet zum gleichen Termin. Über den Standortwechsel der DMEA und andere Themen wie die elektronische Patientenakte und über weitere Pläne der Veranstalter spricht Matthias Meierhofer mit heise online. Er ist Vorstandsmitglied des Bundesverbands Gesundheits-IT (bvitg) und Chef der Meierhofer AG, die IT-Dienstleistungen für Krankenhäuser anbietet.
Weiterlesen nach der Anzeige

Vorstandsvorsitzender des bvitg und Vorstandsvorsitzender der Meierhofer AG.
(Bild: Meierhofer AG)
Die DMEA verlässt Berlin und zieht nach München. Auch von einem Ende war schon die Rede. Wie sehen Sie das?
Weder wird etwas abgerissen, noch wird die DMEA verabschiedet. Die DMEA wechselt 2027 den Standort. Deswegen bricht weder die Welt in Berlin zusammen, noch ist künftig alles nur noch in München. Man muss da schon die Kirche im Dorf lassen. Die DMEA bleibt die DMEA. Wir wollen sie als Verband weiterentwickeln, wachsen und neue Themen integrieren. Dafür haben wir mit der Messe München einen Partner gefunden, der uns diese Perspektive bietet.
Gleichzeitig kündigt die Messe Berlin eine eigene Veranstaltung an – am identischen Termin. Wie bewerten Sie das?
Zur anderen Messe kann ich wenig sagen, weil sie ohne uns gestaltet wird. Wir wurden darüber über die Presse informiert. Mit uns wurde darüber nicht gesprochen. Das ist insofern bemerkenswert, als wir mit der Messe Berlin über viele Jahre hinweg gemeinsam die DMEA ausgerichtet haben. Dass nun eine eigene, am gleichen Termin konkurrierende Veranstaltung entsteht, davon wussten wir nichts. Wir hätten uns gewünscht, dass man mit uns spricht, bevor man solche Pläne macht.
Die Messe Berlin spricht davon, eine „Lücke“ schließen zu wollen. Welche Lücke meinen sie?
Das müssen Sie die Messe Berlin fragen. Aus unserer Sicht gibt es keine Lücke. Die DMEA deckt das gesamte Spektrum der Digitalisierung im Gesundheitswesen ab: Krankenhaus-IT, niedergelassene Versorgung, Pflege, Telemedizin, KI, Datenanalyse und regulatorische Rahmenbedingungen – und das zunehmend auch mit internationaler Perspektive. Wir haben in den letzten Jahren ein stetiges Wachstum erlebt, sowohl bei Besuchern als auch bei Ausstellern. Das zeigt, dass das Konzept funktioniert. Wenn die Messe Berlin meint, hier etwas ergänzen zu müssen, dann bitte, aber warum ausgerechnet am gleichen Termin?
Weiterlesen nach der Anzeige
Warum hat man sich für München entschieden?
Es gab mehrere Gründe. Einerseits die internationale Anbindung. München ist für viele europäische Partner besser erreichbar – insbesondere für Österreich und die Schweiz. Andererseits die moderne Infrastruktur. Das Messegelände München ist neuer und technisch besser ausgestattet als das in Berlin. Das ermöglicht uns, neue Formate auszuprobieren – etwa im Bereich Networking oder hybride Veranstaltungen. Außerdem haben wir bereits neue Kooperationsanfragen erhalten, und zwar aus Ländern, die bisher weniger präsent waren.
Berlin gilt als politisch näher dran. Ist das ein Nachteil?
Nein, das ist kein Nachteil. Berlin ist Regierungssitz, das stimmt. Aber Bayern spielt gesundheitspolitisch ebenfalls eine wichtige Rolle. Und am Ende hängt politische Präsenz nicht nur vom Standort ab, sondern von der Relevanz der Themen. Wenn wir über Telematikinfrastruktur, KI oder digitale Souveränität sprechen, dann sind das Themen, die bundesweit und europaweit diskutiert werden. Das wichtige ist nicht, ob die Veranstaltung in Berlin oder München stattfindet. Entscheidend ist, dass wir die richtigen Themen und Akteure zusammenbringen.
Die Telematikinfrastruktur ist ein zentrales Thema. Wie ist da der Stand?
Die TI ist das Rückgrat der digitalen Gesundheitsversorgung. Ohne sie funktioniert weder die elektronische Patientenakte noch der TI-Messenger oder das E-Rezept. Aber sie ist noch nicht fertig. Es gibt weiterhin technische, organisatorische und regulatorische Herausforderungen. Wir haben hier einen langen Weg vor uns, und bei der Stabilisierung und Weiterentwicklung der Infrastruktur haben wir noch viel zu tun.
Wird die TI irgendwann „fertig“ sein?
Die TI ist kein statisches System, sondern ein dauerhafter Prozess. Die Technologie entwickelt sich weiter – etwa durch KI, Cloud-Lösungen oder neue Sicherheitsstandards. Das bedeutet, dass die Infrastruktur kontinuierlich angepasst werden muss. Es wird immer etwas zu tun geben. Wichtig ist, dass wir realistische Zeitpläne bei der Testung von Spezifikationen und Funktionen im realen Versorgungsalltag einhalten. Das Positionspapier „Digitale Versorgung und Gesundheitsdaten in Deutschland: Stabilität, Innovation, Umsetzung“ des bvitg vom März 2026 betont zu Recht, dass wir hier mehr Augenmaß brauchen.
Wo liegen die größten Probleme?
Bei der Interoperabilität. Die verschiedenen Systeme müssen miteinander kommunizieren – zwischen Krankenhäusern, Arztpraxen, Apotheken und Krankenkassen. Das ist technisch komplex, weil es unterschiedliche Standards gibt. Außerdem sind noch nicht alle Leistungserbringer vollständig an die TI angebunden. Regulatorische Vorgaben gibt es ebenfalls. Die Gematik hat klare Spezifikationen vorgegeben, aber die Umsetzung ist langsam. Gleichzeitig gibt es politischen Druck, weil die Digitalisierung des Gesundheitswesens zu langsam vorankommt. Die Finanzierung ist ebenfalls ein Thema und für Praxen und Krankenhäuser bislang nicht zufriedenstellend geklärt.
Müsste die Branche besser zusammenarbeiten, um die Spezifikationen umzusetzen?
Die Branche muss enger zusammenarbeiten – zwischen Softwareanbietern, Leistungserbringern und der Gematik. Auch wenn sich das die letzten Jahre bereits deutlich intensiviert hat, besteht hier noch Luft nach oben. Was wir dabei dringend brauchen, sind realistische Zeitpläne bei der Testung und Umsetzung von Spezifikationen und Funktionen im realen Versorgungsalltag. Zu oft werden Anforderungen definiert, ohne dass die praktische Umsetzbarkeit ausreichend geprüft wurde. Prozesse müssen neu gedacht werden. Das kostet allen Beteiligten Zeit, Geld und Vertrauen.
Wie könnte eine Reduzierung der technischen Komplexität konkret aussehen?
Wir brauchen eine Fokussierung auf Basistechnologien mit weniger und einfacheren Hardwarekomponenten. Die hochfrequente Einführung neuer Technologien wie Zero Trust oder Health Confidential Computing parallel zur Implementierung neuer Anwendungen verursacht enorme Komplexität und hohe Aufwände. Wir müssen die Abhängigkeiten in digitalen Prozessketten reduzieren, um die Störanfälligkeit zu verringern. Gleichzeitig müssen Leistungserbringer TI-Dienste auch mobil nutzen können, etwa bei Hausbesuchen oder in der ambulanten Pflege.
Was werden die Themen der jetzigen DMEA sein?
KI ist kein Zukunftsthema mehr, sondern Realität und in der Versorgung angekommen. Es gibt bereits zahlreiche Anwendungen – etwa in der Bildanalyse, der Therapieplanung oder der Früherkennung von Krankheiten. Aber die Umsetzung ist langsamer als in anderen Branchen. Das hat mehrere Gründe: regulatorische Hürden, Haftungsfragen, Finanzierung und teilweise auch fehlende Akzeptanz in der Ärzteschaft.
Gleichzeitig geht es bei der DMEA natürlich um weit mehr als nur KI. Besonders wichtig sind Themen wie Interoperabilität, die eine vernetzte und durchgängige Versorgung überhaupt erst möglich macht. Ebenso stehen souveräne Cloud-Lösungen sowie IT-Sicherheit im Fokus – beide sind zentrale Voraussetzungen, damit digitale Innovationen zuverlässig, skalierbar und vertrauenswürdig eingesetzt werden können.
Die elektronische Patientenakte ist ein zentrales Projekt. Warum hat das Opt-in-Modell nicht funktioniert?
Mit freiwilligen Modellen sind wir über Jahre kaum vorangekommen. Die Nutzung lag bei unter 1 Prozent. Erst mit dem Opt-out-Modell – also der automatischen Anlage einer ePA für jeden Versicherten – hat sich das geändert. Jetzt haben wir über 70 Millionen angelegte Akten. Freiwilligkeit reicht in diesem Bereich nicht aus.
Aber ist die ePA wirklich das zentrale Element?
Das ist eine interessante Frage. Vielleicht ist sie das nicht. Vielleicht geht es vielmehr um die sektorübergreifende Kommunikation. Die ePA ist ein Instrument, aber nicht das einzige. Wenn wir über digitale Versorgung sprechen, dann geht es um viel mehr: um den Austausch von Informationen zwischen Ärzten, Krankenhäusern, Apotheken und Patient*innen. Die ePA ist ein Teil davon, aber nicht der einzige Baustein. Vielleicht müssen wir uns fragen: Was wollen wir eigentlich erreichen? Geht es um die Akte selbst – oder um den Informationsfluss? Vielleicht ist die ePA nur ein Mittel zum Zweck. Bisher sind vor allem klinische Prozesse unzureichend berücksichtigt.
Kritiker sagen, die ePA sei noch nicht ausgereift. Was entgegnen Sie?
Die ePA ist kein fertiges Produkt, sondern ein Prozess. Wir sprechen von Hunderttausenden Praxen, 2000 Krankenhäusern und 70 Millionen Versicherten. So etwas lässt sich nicht über Nacht umsetzen. Aber die Grundlagen sind gelegt. Jetzt geht es darum, die Nutzung zu steigern und die technischen Hürden abzubauen.
Wird die ePA irgendwann verpflichtend?
Das ist eine politische Frage. Aus technischer Sicht wäre eine verpflichtende Nutzung sinnvoll – etwa für Medikationspläne oder Notfalldaten. Aber ob das gesellschaftlich akzeptiert wird, ist eine andere Frage. Hier müssen wir abwarten, wie sich die Diskussion entwickelt. Das Positionspapier fordert, dass die ePA auch für Patientinnen und Patienten ohne aktive Nutzung verfügbar sein muss – etwa für elektronische Überweisungen.
Die Gematik soll künftig eine stärkere Rolle spielen. Warum?
Wir brauchen eine Instanz, die sektorenübergreifende Standards setzt. Bisher gibt es zu viele unterschiedliche Systeme – etwa bei der Abrechnung, der Dokumentation oder der Kommunikation. Die Gematik soll klare Regeln vorgeben, damit alle Beteiligten miteinander kommunizieren können. Das ist dringend notwendig, um die Digitalisierung voranzubringen. Das Positionspapier fordert zu Recht, dass die Gematik auf ihre Kernaufgaben fokussiert wird: die Entwicklung und Pflege der TI-Referenzarchitektur, transparente Zulassungsverfahren und das Monitoring der TI.
Soll die Gematik auch die Selbstverwaltung regulieren?
Ja. Bisher haben Kassenärztliche Vereinigungen, Krankenkassen und Krankenhäuser eigene technische Standards entwickelt. Das führt zu Inkompatibilitäten und Doppelstrukturen. Eine starke Gematik könnte hier für mehr Einheitlichkeit sorgen. Das heißt nicht, dass die Selbstverwaltung keine Rolle mehr spielt – aber sie muss sich an gemeinsame Standards halten. Das Positionspapier betont, dass die Gematik als Rahmengeberin agieren sollte, nicht als Marktakteurin.
Bedeutet das nicht mehr Zentralisierung und weniger Wettbewerb?
Nicht unbedingt. Die Gematik soll kein Monopol innehaben, sondern klare Rahmenbedingungen setzen. Innerhalb dieser Rahmenbedingungen kann es weiterhin Wettbewerb geben – etwa bei der Entwicklung von Softwarelösungen. Wettbewerb ist wichtig, aber er braucht klare Regeln. Sonst entsteht ein Flickenteppich, der niemandem nützt. Das Positionspapier fordert zu Recht, dass die Gematik technologieoffene Leitplanken setzt, aber nicht selbst als Entwicklerin auftritt.
Sie sind ein Befürworter von Wettbewerb. Warum?
Wettbewerb fördert Innovation. Wenn mehrere Anbieter um die beste Lösung konkurrieren, führt das zu besseren Produkten, niedrigeren Preisen und mehr Auswahl. Unser Markt ist vielfältiger, als viele denken. Neben großen Konzernen gibt es viele mittelständische Unternehmen – teilweise mit nur 40 oder 50 Mitarbeitenden. Diese Vielfalt ist wichtig, weil sie unterschiedliche Lösungen hervorbringt. Monopole führen selten zu Innovation. Das Positionspapier betont zu Recht, dass wir mehr Wettbewerb brauchen – aber mit klaren Rahmenbedingungen.
Aber der Gesundheitsmarkt ist stark reguliert.
Ja, und das hat Vor- und Nachteile. Die Vorteile sind Sicherheit, Qualität und Finanzierung. Die Nachteile sind gebremste Innovation, hohe Markteintrittsbarrieren und eingeschränkter Preiswettbewerb. Wir brauchen mehr Flexibilität – etwa schnellere Zulassungsverfahren für KI-Systeme, ohne dabei die Sicherheit zu vernachlässigen. Der Markt ist zu stark reguliert, aber wir können nicht einfach alles deregulieren. Es geht um die richtige Balance. Das Positionspapier fordert zu Recht, dass wir bürokratische Hürden abbauen müssen – etwa bei der Regulierung medizinischer KI.
Industrieverbände stehen oft unter Lobbyismus-Verdacht. Wie sehen Sie das?
Industrie bleibt Industrie – das ist so, aber wir sind keine Pharma-Lobby. Die Pharmaindustrie hat ganz andere finanzielle und politische Möglichkeiten. Unsere Aufgabe ist es, technische Realitäten und politische Rahmenbedingungen zusammenzubringen. Das ist manchmal unbequem, aber notwendig. Wir vertreten die Interessen unserer Mitglieder – das ist legitim. Aber wir müssen transparent sein. Das Positionspapier ist ein gutes Beispiel dafür: Wir legen unsere Positionen offen dar und begründen sie fachlich.
Wo liegen die Grenzen zwischen Interessenvertretung und Einflussnahme?
Die Grenze ist fließend. Aber Transparenz ist der beste Weg, um Vertrauen zu schaffen. Wenn wir sagen: „Wir vertreten die Interessen der IT-Branche“, dann ist das ehrlicher, als wenn wir uns als neutrale Berater darstellen. Wir sind kein neutraler Akteur – wir vertreten unsere Mitglieder. Aber wir versuchen, das im Rahmen der demokratischen Spielregeln zu tun. Das Positionspapier zeigt: Wir bringen fachliche Expertise ein und machen konkrete Vorschläge – etwa zur Nutzung von Gesundheitsdaten oder zur Weiterentwicklung der TI.
Cyberangriffe auf Krankenhäuser nehmen zu. Wie sicher ist die digitale Gesundheitsversorgung?
Gesundheitsdaten sind ein attraktives Ziel für Hacker, weil sie besonders sensibel sind. Gleichzeitig sind viele Einrichtungen nicht ausreichend geschützt. Cybersecurity ist kein einmaliges Projekt, sondern ein dauerhafter Prozess. Viele Praxen und Krankenhäuser haben nicht die Ressourcen, um sich ausreichend zu schützen. Hier brauchen wir mehr Unterstützung – etwa durch zentrale Sicherheitsstandards und finanzielle Förderung. Das Positionspapier betont zu Recht, dass wir die technische Komplexität der TI reduzieren müssen, um die Sicherheit zu erhöhen.
Was muss passieren?
Es braucht mehr Unterstützung – etwa durch zentrale Sicherheitsstandards, finanzielle Förderung und Bewusstseinsbildung. Die Gematik könnte hier eine stärkere Rolle spielen. Aber am Ende muss jede Einrichtung selbst Verantwortung übernehmen. Cybersecurity ist kein Luxus – sie ist eine Notwendigkeit. Das Positionspapier fordert zu Recht, dass Leistungserbringer TI-Dienste auch mobil nutzen können müssen – etwa bei Hausbesuchen.
Was würden Sie sich für die digitale Gesundheitsversorgung wünschen?
Mehr Tempo bei der Umsetzung. Die Digitalisierung des Gesundheitswesens kann nicht warten. Wir brauchen schnellere Entscheidungen, klarere Regeln und mehr Investitionen. Außerdem mehr Akzeptanz bei Ärzten und Patienten. Digitale Lösungen bringen nur etwas, wenn sie auch genutzt werden. Dafür braucht es Aufklärung, Schulungen und Anreize. Und ich wünsche mir mehr Wettbewerb und Innovation, damit neue, bessere Lösungen schneller in die Versorgung gelangen.
(mack)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
