Connect with us

Künstliche Intelligenz

Neovim 0.12 mit nativem Plugin-Manager


Neovim ist in Version 0.12 erschienen. Unter dem Motto „The year of Nvim OOTB“ (Out of the box) baut das Release den Funktionsumfang des Open-Source-Editors aus. Die wichtigsten Neuerungen: ein nativer Plugin-Manager und das Ende störender UI-Blockaden.

Weiterlesen nach der Anzeige

Neovim ist ein Fork des Texteditors Vim. Das Projekt hat zum Ziel, die historische Codebasis zu modernisieren, und setzt auf eine asynchrone Architektur sowie eine API-getriebene Erweiterbarkeit. Als Konfigurations- und Skriptsprache dient Lua.

Die zentrale Neuerung ist der in den Core integrierte, minimalistische Plugin-Manager vim.pack. Bislang mussten Nutzer für fast jedes Setup externe Paketmanager wie packer oder lazy.nvim per Skript herunterladen und initialisieren – das sogenannte Bootstrapping. Mit vim.pack genügt eine deklarative Lua-Konfiguration, um Erweiterungen direkt von GitHub zu laden und zu verwalten. Externe Manager bleiben nur noch für komplexe Setups nötig, etwa mit umfangreichem Lazy-Loading.

Außerdem ersetzt Neovim 0.12 die berüchtigte „Press ENTER“-Meldung durch eine experimentelle Nachrichten-UI. Die neue Oberfläche (vim._extui) ersetzt rund 3000 Zeilen alten C-Code und muss manuell aktiviert werden:


require('vim._extui').enable({})


Ohne Aktivierung bleibt das alte Verhalten erhalten – Nutzer können es aber über :set cmdheight=0 deaktivieren. In der neuen UI werden lange Nachrichten standardmäßig in der Kommandozeile mit einem Überlauf-Indikator (...) angezeigt. Bei cmdheight=0 oder expliziter Konfiguration (msg.pos = 'box') erscheinen sie stattdessen in einem Floating Window unten rechts.

Wer die vollständige Nachrichten-Historie oder lange Listen – etwa geöffnete Puffer via :ls – einsehen möchte, öffnet über das Tastenkürzel g< künftig ein reguläres, interaktives Editor-Fenster. Es ersetzt den bisherigen starren Pager. Die neue UI nutzt den Tree-sitter-Parser für Vimscript, um die Kommandozeile farblich hervorzuheben – etwa für Befehle und Argumente. Dieses Feature ist jedoch nur aktiv, wenn vim._extui eingeschaltet ist.

Weiterlesen nach der Anzeige

Hinzu kommen zwei neue Befehle: :restart startet den Editor-Prozess mitsamt Konfiguration neu, ohne dass die Terminal-Session geschlossen werden muss. :connect vereinfacht das Anbinden externer GUIs oder Headless-Instanzen über RPC.

Unter der Haube überarbeitet Neovim aktuell das System für Remote-Plugins. Diese Erweiterungen laufen in externen Sprachen wie Python oder Node.js und kommunizieren über MessagePack-RPC mit dem Editor. Bisher erforderte ihre Installation einen manuellen Registrierungsschritt: Der Befehl :UpdateRemotePlugins aktualisierte eine Manifest-Datei – ein fehleranfälliger Zwischenschritt. Für Version 0.13 plant das Projekt, Lua als nativen Plugin-Host einzusetzen – :UpdateRemotePlugins soll dann entfallen.

Alle Informationen zu Neovim 0.12 und zu den geplanten Updates finden sich auf der Webseite des Projekts und in den Release Notes auf GitHub.


(fo)



Source link

Künstliche Intelligenz

Kommentar: Die SaaSpocalypse hat begonnen


Als der Hedgefonds TCI jüngst seinen Microsoft-Anteil drastisch zusammenstrich, klang das erst einmal nach einer dieser Meldungen, die im Strom der Finanznachrichten untergehen. Doch diesmal lohnt der zweite Blick. TCI-Gründer Chris Hohn gehörte jahrelang zu den großen Profiteuren des Microsoft-Booms, fast 400 Prozent Kursgewinn seit 2017 sprechen eine deutliche Sprache. Wenn ausgerechnet so ein Investor kalte Füße bekommt, geht es nicht um schwache Quartalszahlen. Dann steht die ökonomische Grundlage der Softwareindustrie zur Debatte.

Weiterlesen nach der Anzeige


Ein Kommentar von Moritz Förster

Ein Kommentar von Moritz Förster

Moritz Förster schreibt seit 2012 für die iX und heise online. Er betreut neben dem iX-Channel den Bereich Arbeitsplatz.

Die Sprengkraft der KI-Revolution liegt nicht darin, dass sie eine bestimmte Software ersetzt. Sondern darin, dass sie das Geschäftsmodell dahinter pulverisiert. Willkommen in der SaaSpocalypse.

Zwei Jahrzehnte lang funktionierte Unternehmenssoftware nach einem stabilen Prinzip. Jede Aufgabe bekam ihre eigene Anwendung: Texte in Word, Tabellen in Excel, Kundendaten in Salesforce, Bildbearbeitung in Photoshop. Unternehmen zahlen Lizenzen pro Nutzer, pro Arbeitsplatz, pro Monat. Je tiefer die Software in die Arbeitsabläufe einsickerte, desto verlässlicher sprudelten Umsatz und Margen. Der Wert lag dabei nie nur im Programmcode, sondern in einer schlichten Tatsache: Menschen mussten ihre Arbeit innerhalb dieser Anwendungen erledigen.

Genau diese Logik bröckelt nun. KI-Assistenten verändern nicht bloß einzelne Funktionen, sondern die Schnittstelle zur Arbeit selbst. Wer heute Copilot, Gemini oder ChatGPT nutzt, klickt sich nicht mehr durch klassische Menüs. Stattdessen formuliert der Nutzer Ziele: „Fasse die wichtigsten Punkte aus diesen Mails zusammen.“ „Bau eine Präsentation aus den Quartalszahlen.“ Die Arbeit wandert Schritt für Schritt vom Menschen zur Maschine. Und je besser diese Systeme werden, desto unwichtiger wird die Anwendung im Hintergrund.

Das zeigt sich ausgerechnet bei Microsoft selbst. Seinen Copilot präsentiert der Konzern längst nicht mehr als Zusatzfunktion für Word oder Excel. Das Ziel ist ein Assistent, der quer über alle Anwendungen arbeitet. Der Nutzer redet mit dem Agenten – nicht mehr mit dem Programm. Wird die KI zur Bedienoberfläche der Wissensarbeit, verliert die klassische Anwendung ihre Rolle als zentraler Zugangspunkt. Sie wird zur Infrastruktur.

Weiterlesen nach der Anzeige

Aus Nutzersicht klingt das verlockend. Für die Softwareindustrie ist es eine Bedrohung. Denn Software-as-a-Service-Modelle leben davon, dass jeder Mitarbeiter Zugang zu einzelnen Anwendungen braucht. KI-Agenten lösen diese Kopplung auf. Warum Hunderte Vollzugänge bezahlen, wenn ein paar Agenten einen Großteil der Arbeit erledigen?

Die Nervosität an den Börsen kommt nicht von ungefähr. Microsoft, Salesforce, Adobe und Oracle verdienen weiterhin Milliarden. Aber die Zweifel wachsen, ob die fetten Margen der SaaS-Ära dauerhaft Bestand haben. Bemerkenswert dabei: Die Disruption entsteht innerhalb der Plattformen selbst. Microsoft demonstriert mit Copilot genau die Entwicklung, die das klassische Softwaremodell untergräbt. Der Konzern treibt die Entkopplung von Nutzer und Anwendung selbst voran.

Börsen handeln spekulative Erwartungen, keine Gegenwart. Für Investoren genügt die Aussicht auf sinkende Preissetzungsmacht, um Bewertungen neu zu sortieren. Die Machtfrage lautet deshalb nicht mehr, wer die beste Software baut. Sondern wer künftig die Bedienoberfläche der Arbeit kontrolliert.

Das erklärt, warum TCIs Teilverkauf mehr ist als ein gewöhnliches Börsensignal. Der Fonds stößt Microsoft-Aktien nicht ab, weil Office schwächelt oder Azure plötzlich Verluste schreibt. TCI reagiert auf eine tiefere Unsicherheit: KI löst eben nicht einfach Programme ab. Sie ersetzt die ökonomische Logik, auf der die Softwareindustrie aufgebaut wurde. Und genau deshalb droht die SaaSpocalypse.

Bei diesem Kommentar handelt es sich um das Editorial der iX 6/2026, die am 22. Mai erscheint.


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

Code lesen statt Code schreiben: Die unterschätzte Senior-Disziplin


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im April 2000 veröffentlichte Stack-Overflow-Gründer Joel Spolsky einen Aufsatz mit dem Titel „Things You Should Never Do, Part I“. Anlass war die Entscheidung von Netscape, den Code des damaligen Browsers von Grund auf neu zu schreiben, statt den vorhandenen weiterzuentwickeln.

Weiterlesen nach der Anzeige


the next big thing – Golo Roden

the next big thing – Golo Roden

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.

Spolskys These: Diese Entscheidung sei der schlimmste strategische Fehler, den eine Softwarefirma machen könne. Sie beruhe auf einem fundamentalen Missverständnis darüber, was Programmierarbeit eigentlich ist. Programmiererinnen und Programmierer schrieben lieber neu, weil das Lesen fremden Codes mühsam sei und sich das Schreiben produktiv anfühle. Doch dieser Eindruck täusche. Die Verlockung, neu anzufangen, sei eine der teuersten Versuchungen der Branche.

Über 25 Jahre später hat dieser Text nichts von seiner Aktualität verloren. Im Gegenteil. Mit dem Auftauchen von Large Language Models (LLM) hat sich die Asymmetrie zwischen Schreiben und Lesen so verschoben, dass die Frage akut wird, ob wir die eigentliche Senior-Disziplin der Softwareentwicklung systematisch unterschätzen. Das Tippen ist nicht das, was Teams in den nächsten Jahren ihren Atem rauben wird. Das Lesen ist es. In diesem Beitrag möchte ich zeigen, warum das so ist, woher die Asymmetrie kommt, wie sie sich durch generative KI verschärft und wie aus einer beiläufigen Begleitfähigkeit eine eigenständige Disziplin werden müsste.

Beim Schreiben hat man alles gleichzeitig im Kopf: die Anforderung, das Datenmodell, die geplante Architektur, die Stelle, an der man gerade arbeitet, die Annahmen, die man trifft, die Trade-offs, die man eingeht. Diese mentale Gesamtsicht macht das Schreiben schnell. Sie ist gleichzeitig das, was beim Lesen fehlt.

Wer drei Wochen später denselben Code wieder vor sich hat, ohne den Kontext mitzubringen, muss diese Gesamtsicht rekonstruieren. Variablennamen geben Hinweise, Tests sagen mehr, ein Pull-Request-Kommentar liefert im Bestfall den fachlichen Anlass, eine Commit-Message mit Glück die letzte Begründung. Die eigentliche Intention, das gedachte Modell, die verworfenen Alternativen, all das ist verloren. Rekonstruieren kostet Zeit und Konzentration, und beides ist teurer als das Schreiben.

Spolskys Anekdote ist deshalb so anschaulich, weil sie diese Asymmetrie auf Organisationsebene zeigt. Bei Netscape stand man vor einer alten Codebasis, die niemand mehr durchschauen wollte. Die Verlockung lag nahe, das Ganze einfach neu zu schreiben. Das Ergebnis ist bekannt: drei Jahre Stillstand, ein verlorener Browser-Markt, eine Firma im Niedergang. Der vermeintlich einfachere Weg war der teuerste.

Weiterlesen nach der Anzeige

Auf individueller Ebene zeigt sich dasselbe Muster täglich. Es zeigt sich in Stack-Overflow-Antworten, die statt der Frage einen anderen Lösungsansatz vorschlagen. Es zeigt sich in Kolleginnen und Kollegen, die Refactorings vorschlagen, ohne den vorhandenen Code wirklich verstanden zu haben. Es zeigt sich in der eigenen Versuchung, ein Modul lieber zu ersetzen als zu verbessern. Lesen ist und bleibt unbequem.

Ein modernes LLM erzeugt mehrere Hundert Zeilen Code in der Zeit, in der eine Person diese Zeilen einmal überfliegen kann. Generieren ist billig geworden. Token sind billig, Wartezeiten kurz, und das mentale Modell für die Aufgabe ist auf das Formulieren eines Prompts geschrumpft. Der Aufwand auf der Schreibseite ist faktisch zusammengebrochen.

Auf der Leseseite hat sich nichts geändert. Verstehen kostet noch immer das, was es immer gekostet hat: konzentrierte Aufmerksamkeit, Zeit, Geduld. Die menschliche Verarbeitungsgeschwindigkeit für Code liegt grob bei einigen Zeilen pro Minute, je nach Komplexität deutlich darunter. Diese Größenordnung lässt sich nicht durch Werkzeuge beschleunigen, weil sie an der menschlichen Kognition selbst hängt.

Das Resultat ist eine groteske Verschiebung. Wo früher eine Tagesarbeit etwa hundert Zeilen Code produzierte, die ein Reviewer in einer halben Stunde durchgehen konnte, kann heute eine Stunde Promptarbeit Tausende Zeilen erzeugen. Die zu verstehende Menge wächst dramatisch, die Geschwindigkeit des Verstehens bleibt konstant. Was früher ein Engpass beim Schreiben war, wird zum Engpass beim Verstehen.

Diese Verschiebung wird in vielen Diskussionen ignoriert. Man feiert die Produktivität auf der Generierungsseite und schweigt über die Bilanz, die sich auf der Leseseite auftut. Was nicht gelesen wird, wird nicht verstanden. Was nicht verstanden wird, wird nicht zuverlässig betrieben. Die Schulden verschieben sich nur in die Zukunft, sie verschwinden nicht.

Sichtbar wird das spätestens dort, wo Code-Review-Prozesse, die für die Geschwindigkeit der Vor-LLM-Ära konzipiert waren, plötzlich mit Pull-Requests konfrontiert sind, deren Umfang ein menschlicher Reviewer in einem ganzen Tag nicht durchdringen könnte. Die Reaktion ist meistens nicht eine vertiefte Auseinandersetzung, sondern ein verkürztes Daumen-hoch. Damit verlagert sich der Code-Review von einem inhaltlichen zu einem zeremoniellen Schritt, und genau in dieser Verlagerung entstehen die Probleme, die später teuer werden.

Eine ambitionierte Schule propagiert, die Beschäftigung mit Code werde überflüssig: Mit genug Skills, Harness-Engineering und einer präzisen Markdown-Spezifikation lasse sich die Arbeit vollständig auf die Spec-Ebene verlagern. Der generierte Code sei eine Implementierungsfrage, die niemand mehr ansehen müsse. Diese Vorstellung wird mit Anlauf gegen eine Wand laufen.

Wer Code nur generiert, ohne ihn zu lesen, hat von Anfang an fremden Code vor sich. Reviewen geht nicht, Fehler suchen geht nicht, beides setzt Verstehen voraus. Mit jeder weiteren Generierung wächst die Codebasis schneller, als sie sich durchdringen lässt. Die Lücke zwischen „vorhanden“ und „verstanden“ öffnet sich in atemberaubender Geschwindigkeit, und mit ihr die Anzahl der Stellen, an denen man später fragen muss, was hier eigentlich passiert.

Die einzige verbliebene Instanz, die diesen Code noch erklären, prüfen oder reparieren kann, ist die KI selbst. Damit ist man ironischerweise auf genau das System angewiesen, das die Lage herbeigeführt hat. Aus einem Werkzeug wird eine Abhängigkeit, aus einer Beschleunigung eine Falle. Wer keine eigene Verstehenskompetenz aufbaut, hat nur noch eine externe und entscheidet über diese externe Kompetenz nicht mehr selbst.

Dieses Muster ist nicht neu, neu ist nur seine Geschwindigkeit. Ein Team besitzt eine unzugängliche Codebasis nicht mehr. Im klassischen Fall geschah die Unzugänglichkeit über Jahre, durch personelle Wechsel und unzureichende Dokumentation. Im KI-gestützten Fall kann das innerhalb weniger Monate geschehen, weil die Generierungsgeschwindigkeit die Aufnahmegeschwindigkeit hoffnungslos übersteigt.

Der typische Auslöser ist nicht spektakulär. Ein Bug taucht in Produktion auf, niemand im Team versteht den betroffenen Code, also befragt man die KI. Die KI liefert eine Erklärung und einen Fix, beides plausibel, beides ungeprüft. Im günstigen Fall stimmt es. Im weniger günstigen baut man neue Schulden auf alte und merkt es erst, wenn der nächste Bug genau in dieser Schicht entsteht. Aus Reparatur wird Übermalung.

Was zunächst wie eine Befreiung wirkt, ist also eine Verlagerung der Last. Statt selbst zu schreiben, formuliert man Prompts. Statt selbst zu verstehen, fragt man die KI. Beides scheint produktiv. Beides erodiert die Souveränität über die eigene Codebasis.



Source link

Weiterlesen

Künstliche Intelligenz

Ärztetag fordert strengere Regeln für KI und Cloud-Nutzung im Gesundheitswesen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Der 130. Deutsche Ärztetag hat weitere Beschlüsse zur Digitalisierung, Datenschutz und Künstlicher Intelligenz im Gesundheitswesen gefasst. Neben der bereits intensiv diskutierten elektronischen Patientenakte (ePA) und dem geplanten Gesetz für Daten und digitale Innovation im Gesundheitswesen (GeDIG) beschäftigten sich die Delegierten insbesondere mit Risiken der Datenverarbeitung, autonom handelnder KI-Systeme und der Nutzung cloudbasierter Infrastrukturen.

Weiterlesen nach der Anzeige

Besonders deutlich fiel die Kritik an den aktuellen Plänen der Europäischen Kommission aus. Hintergrund ist das laufende EU-Gesetzgebungsverfahren zum sogenannten Digital-Omnibus, das Datenschützer bereits deutlich kritisierten. Nach Auffassung der Antragsteller des Antrags „Anonym muss wirklich anonym sein“ soll dabei der Begriff personenbezogener Daten neu definiert werden. Vorgesehen sei, Daten künftig bereits dann als anonym anzusehen, wenn sie einmal anonymisiert wurden – selbst dann, wenn nach einer Weitergabe an Dritte eine spätere Reidentifizierung der betroffenen Personen möglich oder sogar wahrscheinlich sei.

Die Delegierten sehen darin eine erhebliche Schwächung des Datenschutzes. „Trotz einer faktisch unwirksamen Anonymisierung gelten solche Daten zukünftig nicht mehr als personenbezogene Daten und werden deshalb nicht mehr durch die DSGVO geschützt“, heißt es in der Begründung des angenommenen Beschlusses. Der Ärztetag warnt, dass damit die Nutzung medizinischer Behandlungsdaten ihre Legitimation verlieren könnte.

„Ohne eine wirksame Anonymisierung verliert die Nutzung ärztlicher Behandlungsdaten von Patienten, mit und ohne Künstliche Intelligenz, jede Legitimation“, erklärten die Antragsteller. Besonders kritisch sei, dass kommerzielle Datennutzer dadurch faktisch von ihrer Verantwortung gegenüber Patienten entbunden würden. Das hatte in der Vergangenheit auch der Ethik-Professor Rainer Mühlhoff kritisiert. Die Delegierten rund um den Berliner Arzt Stefan Streit sehen durch die geplante Begriffsverschiebung auch die ärztliche Schweigepflicht berührt. „Es ist fraglich, ob Ärztinnen und Ärzte in der Patientenbehandlung ihrer Verschwiegenheitspflicht gegenüber den Patientinnen und Patienten nachkommen, wenn sie mitwirken, obwohl klar ist, dass ein faktischer Persönlichkeitsschutz fehlt“, heißt es im Antrag weiter. „Unabhängig davon entsteht ein gravierender Vertrauensverlust für den Schutzraum der ärztlichen Behandlung“, erklärten die Delegierten.

Im ebenfalls angenommenen Beschluss zum „Schutz vor Reidentifizierung bei anonymisierten/pseudonymisierten Behandlungsdaten aus der elektronischen Patientenakte im Gesundheitsdatenraum“ warnten die Delegierten zudem vor neuen Risiken durch KI-gestützte Mustererkennung. Bereits wenige Angaben wie Geschlecht, Alter, Postleitzahl und Behandlungstage könnten laut Antrag ausreichen, um anonymisierte Gesundheitsdaten wieder einzelnen Personen zuzuordnen. Besonders sogenannte Kalendermuster aus Arztterminen gelten den Antragstellern als problematisch. Mit dem Einsatz von KI entstehe dabei zusätzlich ein „unkalkulierbares KI-Risiko“ für die Reidentifizierung medizinischer Daten.

Weiterlesen nach der Anzeige

Kritisch wurde auf dem Ärztetag auch die Entwicklung autonom handelnder KI-Systeme diskutiert. Im Beschluss „Digitale KI-Agenten regulieren, bevor sie im Gesundheitswesen genutzt werden“ (PDF) verwiesen die Antragsteller auf wissenschaftliche Veröffentlichungen, die bereits Fälle dokumentierten, in denen KI-Systeme sich Menschen widersetzt haben. Der Ärztetag fordert deshalb strengere regulatorische Vorgaben für selbstständig agierende KI-Anwendungen im Gesundheitswesen.

Die Ärztinnen und Ärzte fordern daher vom Bundesgesundheitsministerium (BMG), der Gematik, der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) „eine detaillierte Darstellung, welche Maßnahmen zu ergreifen sind, bevor digitale KI-Agenten in der ärztlichen Patientenversorgung eingesetzt werden“.

Skeptisch äußerten sich die Delegierten außerdem zu „Confidential Computing“-Ansätzen in Cloud-Infrastrukturen. Im Beschluss „Cloudbasierte Künstliche Intelligenz von ärztlichen Behandlungsdaten – nur auf vertrauensvoller Infrastruktur“ heißt es, aus Sicht von IT-Experten gebe es keine belastbare Grundlage mehr für die Annahme, dass ein sicherer und vertraulicher KI-Betrieb auf fremden Cloud-Servern dauerhaft gewährleistet werden könne.

Deshalb seien außereuropäische Cloudstandorte für die KI-Verarbeitung von Behandlungsdaten ungeeignet. Das gelte auch für europäische oder deutsche Cloudangebote von US-Unternehmen, da diese laut Antrag „Daten von Nicht-US-Bürgern im Ausland an US-Behörden herauszugeben“ verpflichtet werden könnten. Aktuell nutzen einige Kliniken und Praxen bereits KI-Agentensysteme, teilweise bei den großen Hyperscalern wie AWS und Microsoft Azure.

Auch „Ressourcenverbrauch und Kosten der Anwendung von Künstlicher Intelligenz“ waren Thema der Beratungen. Der Ärztetag verwies darauf, dass mit der Tokenzählung neue Kostenstrukturen entstünden. Zusätzlich zu klassischen Lizenzgebühren für medizinische Anwendungen müssten künftig auch Strom- und Wasserverbrauch der Serverinfrastruktur berücksichtigt werden.

An den Vorstand der Bundesärztekammer wurde zudem ein Prüfantrag (PDF) zur ärztlichen Aufklärung vor der Befüllung der elektronischen Patientenakte überwiesen. Die Delegierten äußerten Zweifel daran, dass ein einfacher Hinweis im Wartezimmer den gesetzlichen Anforderungen an eine informierte Patientenaufklärung genüge. Damit stellt sich auch die Frage, wer die Verantwortung trägt, wenn sich herausstellt, dass Patienten im Nachhinein doch nicht ausreichend aufgeklärt wurden.

In weiteren Beschlüssen ging es unter anderem um die Forderung nach praxistauglicher Digitalisierung, mehr Interoperabilität und sicheren IT-Systemen, um die Rolle von KI als unterstützendes Werkzeug in der medizinischen Versorgung sowie um die Wahrung ärztlicher Entscheidungsverantwortung. Kritisiert wurden zudem die geplante stärkere Nutzung von Gesundheitsdaten durch Krankenkassen, Zugriffe auf ePA-Daten, digitale Steuerungsmechanismen im Gesundheitswesen sowie ein möglicher indirekter Digitalzwang für Patientinnen und Patienten.


(mack)



Source link

Weiterlesen

Beliebt