Künstliche Intelligenz
Sony-Tempo, Canon ohne Sucher, Nikon rot – die Fotonews der Woche 20/2026
Wenn man meint, die Kamerahersteller hätten alle Register gezogen, legen sie noch eine Schippe drauf. Sony präsentiert mit der Alpha 7R VI eine Kamera, die endlich das schafft, was viele für unmöglich hielten: 67 Megapixel bei 30 Bildern pro Sekunde. Das ist, als würde man einen Elefanten zum Sprinten bringen – technisch beeindruckend, aber man fragt sich: Wer braucht das eigentlich? Vermutlich Sportfotografen, die ihre Motive nicht nur einfangen, sondern in forensischer Detailtiefe sezieren wollen.
Weiterlesen nach der Anzeige
(Bild: heise )
Sonys Sensor-Wunder mit Tempo
Die Alpha 7R VI vereint erstmals Auflösung und Geschwindigkeit. Mit einem rückseitig belichteten, vollständig gestapelten Sensor werden 66,8 Megapixel etwa 5,6-mal schneller ausgelesen als beim Vorgänger. Das Ergebnis: 30 Bilder pro Sekunde mit elektronischem Verschluss, zehn mit mechanischem – genau wie bei Sonys Flaggschiff Alpha 1 II. Der Dynamikumfang soll 16 Blendenstufen erreichen, die Bildstabilisierung 8,5 Stufen in der Bildmitte.
Auch beim Video legt Sony nach: 8K mit 30p, 4K mit 120p und ein effektives Wärmemanagement, das 120 Minuten ununterbrochene 8K-Aufnahmen ermöglicht. Neu ist zudem ein Dual-Gain-Modus, der Rauschen reduziert, ohne Details in den Schatten zu verlieren – eine Premiere in der Alpha-Serie. Der OLED-Sucher leuchtet dreimal heller als üblich und deckt den DCI-P3-Farbraum ab.
Allerdings hat die Sache einen Haken: Sony wechselt auf den neuen Akku NP-SA100, der nicht mehr zu bisherigen Alpha-7-Modellen kompatibel ist. Wer also eine Sammlung von NP-FZ100-Akkus besitzt, muss neu investieren. Die Alpha 7R VI erscheint im Juni für rund 5100 Euro – und wer sich fragt, ob das nicht langsam zu viel wird: Doch, ist es. Aber Sony weiß, dass es genug Profis gibt, die das Geld ausgeben.
Zeitgleich stellt Sony das FE 100–400 mm F4.5 GM OSS vor, ein Super-Telezoom mit konstanter Lichtstärke und einem Autofokus, der dreimal schneller sein soll als beim Vorgänger. Mit 1840 Gramm ist es ein Leichtgewicht und für ein Tele dieser Klasse durchaus handlich. Der Preis: 5000 Euro. Zusammen mit der Alpha 7R VI ergibt das ein System für über 10.000 Euro – da überlegt man sich zweimal, ob man nicht doch lieber ein gebrauchtes Auto kauft.
Canon setzt auf Lüfter statt Sucher
Weiterlesen nach der Anzeige
Canon geht einen anderen Weg und präsentiert die EOS R6 V, eine Kamera, die sich klar an Videografen richtet. Das V steht für Video, und das merkt man: Statt eines elektronischen Suchers gibt es nur ein Display, dafür aber einen internen Lüfter, der beliebig lange Aufnahmezeiten ermöglicht. 4K mit 60p läuft zwei Stunden durch, 7K Open Gate so lange, wie der Akku hält. Das ist ein echter Vorteil gegenüber der EOS R6 Mark III, die ohne Lüfter nach 33 Minuten schlapp macht.
Die EOS R6 V nutzt den gleichen 32,5-Megapixel-Sensor wie die R6 Mark III und die Cinema-Kamera C50. Sie bietet 7K RAW mit 60p, oversampeltes 4K bis 60p und 4K 120p ohne Crop. Auch der Autofokus ist identisch zur R6 Mark III, was bedeutet: schnell, präzise und mit intelligenter Motiverkennung.
Für Fotografen ist die R6 V weniger interessant, da sie nur einen elektronischen Verschluss besitzt und damit in puncto Dynamikumfang gegenüber der R6 Mark III mit mechanischem Verschluss das Nachsehen hat. Aber für Content Creator, die hauptsächlich Videos drehen, ist sie eine kompakte, flexible Lösung. Der Preis: 2500 Euro, also 400 Euro günstiger als die R6 Mark III. Wer also auf den Sucher verzichten kann, spart Geld und bekommt längere Aufnahmezeiten.
Passend dazu stellt Canon das RF 20–50 mm F4 L IS USM PZ vor, ein Standardzoom mit konstanter Lichtstärke und Motorzoom. Es wiegt nur 420 Gramm, bietet einen Bildstabilisator mit bis zu acht Blendenstufen und kostet 1500 Euro. Im Kit mit der R6 V sind es 3700 Euro – ein faires Angebot für Videografen, die ein kompaktes System suchen.
c’t Fotografie Zoom In abonnieren
Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Nikon schreibt Rekordverluste – aber Kameras laufen gut
Während Sony und Canon neue Geräte vorstellen, kämpft Nikon mit den Zahlen [PDF]. Das Unternehmen hat im Geschäftsjahr 2025/26 einen Rekordverlust von 86 Milliarden Yen (rund 470 Millionen Euro) eingefahren. Das klingt dramatisch, ist aber nur die halbe Wahrheit. Der Großteil der Verluste geht auf eine einmalige Abschreibung von 91,3 Milliarden Yen zurück, die mit der Übernahme von Nikon SLM Solutions zusammenhängt, einem Hersteller für metallischen 3D-Druck. Die Firma läuft nicht so gut wie erhofft, also wurden die Bücher angepasst – kein frisches Geld fließt ab, aber die Zahlen sehen trotzdem furchtbar aus.
Die Imaging-Sparte von Nikon hat ihre Umsatzziele erreicht und liegt nur 1,8 Prozent unter dem Vorjahr. Der operative Gewinn ist zwar um 59,5 Prozent gesunken, aber das liegt vor allem am Verkauf von MRMC, Nikons Roboterkamera-Unternehmen, und an Ausgaben für Forschung und Entwicklung. Die Kameras selbst laufen solide, vor allem die Z5 II, Z50 II und ZR haben sich gut verkauft.
Für das kommende Jahr erwartet Nikon weniger Kamera-, aber stabile Objektivverkäufe. Der Gesamtmarkt soll schrumpfen, was die Sache nicht einfacher macht. In der Vergangenheit hat Nikon jedoch immer wieder gezeigt, dass man sich auch aus schwierigen Situationen herausarbeiten kann. Die Produkte stimmen, die Zahlen müssen folgen.
Shutterstock zahlt 35 Millionen Dollar wegen unfairer Abo-Praktiken
Während die Kamerahersteller mit Technik und Zahlen kämpfen, hat Shutterstock ein anderes Problem: Die US-Handelskommission FTC hat dem Stockfoto-Anbieter vorgeworfen, Kunden mit unfairen Abo-Praktiken abgezockt zu haben. Shutterstock soll wichtige Infos zu automatischen Verlängerungen und Kündigungsgebühren versteckt haben, Kunden ohne ausdrückliche Zustimmung belastet und Kündigungen absichtlich erschwert haben.
Das Unternehmen zahlt nun 35 Millionen Dollar, um die Sache aus der Welt zu schaffen. Das Geld geht direkt an die betroffenen Kunden. Shutterstock muss zudem seine Abo-Praktiken ändern: klare Offenlegung der Bedingungen, ausdrückliche Zustimmung vor Abbuchungen und einfache Kündigungsmöglichkeiten. Gut so, denn versteckte Gebühren und komplizierte Kündigungen sind ein Ärgernis, das niemand braucht.
Rene Matić gewinnt den Deutsche Börse Photography Foundation Prize 2026
In der Kunstwelt hat Rene Matić den Deutsche Börse Photography Foundation Prize 2026 gewonnen. Die Ausstellung „AS OPPOSED TO THE TRUTH“ im CCA Berlin überzeugte die Jury mit ihrer Auseinandersetzung mit Identität, Zugehörigkeit und politischen Zwängen. Matić ist erst 29 Jahre alt und damit eine der jüngsten Preisträgerinnen in der Geschichte des Awards. Der Preis ist mit 30.000 Pfund dotiert, die anderen Nominierten erhalten jeweils 5.000 Pfund.
Die Ausstellung in der Photographers‘ Gallery in London läuft noch bis zum 7. Juni und zeigt, wie vielschichtig Fotografie sein kann – von dokumentarischer Arbeit über experimentelle Konzepte bis zu Installationen mit Sound. Matić selbst sagt, dass es nicht nur um Repräsentation geht, sondern darum, wie wir repräsentiert werden wollen: „Ich will als jemand dargestellt werden, um den man sich kümmert.“
Empfehlung zum Wochenende: Technologie trifft Kreativität
Unsere Empfehlung für einen Long Read zum Wochenende: Die Interviews und Hintergründe zu den nominierten Fotografen des Deutsche Börse Photography Foundation Prize. Die Arbeiten von Jane Evelyn Atwood über Frauengefängnisse, Weronika Gęsickas humorvolle Fake-Enzyklopädie und Amak Mahmoodians Reflexionen über Exil und Erinnerung zeigen, wie vielfältig und relevant Fotografie heute ist. Und wer sich für die technische Seite interessiert, findet in den Datenblättern zur Sony Alpha 7R VI und zur Canon EOS R6 V genug Stoff zum Staunen – oder Kopfschütteln über die Preise.
Lesen Sie auch
(tho)
Künstliche Intelligenz
Kommentar: Die SaaSpocalypse hat begonnen
Als der Hedgefonds TCI jüngst seinen Microsoft-Anteil drastisch zusammenstrich, klang das erst einmal nach einer dieser Meldungen, die im Strom der Finanznachrichten untergehen. Doch diesmal lohnt der zweite Blick. TCI-Gründer Chris Hohn gehörte jahrelang zu den großen Profiteuren des Microsoft-Booms, fast 400 Prozent Kursgewinn seit 2017 sprechen eine deutliche Sprache. Wenn ausgerechnet so ein Investor kalte Füße bekommt, geht es nicht um schwache Quartalszahlen. Dann steht die ökonomische Grundlage der Softwareindustrie zur Debatte.
Weiterlesen nach der Anzeige

Moritz Förster schreibt seit 2012 für die iX und heise online. Er betreut neben dem iX-Channel den Bereich Arbeitsplatz.
Die Sprengkraft der KI-Revolution liegt nicht darin, dass sie eine bestimmte Software ersetzt. Sondern darin, dass sie das Geschäftsmodell dahinter pulverisiert. Willkommen in der SaaSpocalypse.
Das Geschäftsmodell hinter der Lizenzmaschine
Zwei Jahrzehnte lang funktionierte Unternehmenssoftware nach einem stabilen Prinzip. Jede Aufgabe bekam ihre eigene Anwendung: Texte in Word, Tabellen in Excel, Kundendaten in Salesforce, Bildbearbeitung in Photoshop. Unternehmen zahlen Lizenzen pro Nutzer, pro Arbeitsplatz, pro Monat. Je tiefer die Software in die Arbeitsabläufe einsickerte, desto verlässlicher sprudelten Umsatz und Margen. Der Wert lag dabei nie nur im Programmcode, sondern in einer schlichten Tatsache: Menschen mussten ihre Arbeit innerhalb dieser Anwendungen erledigen.
Genau diese Logik bröckelt nun. KI-Assistenten verändern nicht bloß einzelne Funktionen, sondern die Schnittstelle zur Arbeit selbst. Wer heute Copilot, Gemini oder ChatGPT nutzt, klickt sich nicht mehr durch klassische Menüs. Stattdessen formuliert der Nutzer Ziele: „Fasse die wichtigsten Punkte aus diesen Mails zusammen.“ „Bau eine Präsentation aus den Quartalszahlen.“ Die Arbeit wandert Schritt für Schritt vom Menschen zur Maschine. Und je besser diese Systeme werden, desto unwichtiger wird die Anwendung im Hintergrund.
Microsoft sägt am eigenen Ast
Das zeigt sich ausgerechnet bei Microsoft selbst. Seinen Copilot präsentiert der Konzern längst nicht mehr als Zusatzfunktion für Word oder Excel. Das Ziel ist ein Assistent, der quer über alle Anwendungen arbeitet. Der Nutzer redet mit dem Agenten – nicht mehr mit dem Programm. Wird die KI zur Bedienoberfläche der Wissensarbeit, verliert die klassische Anwendung ihre Rolle als zentraler Zugangspunkt. Sie wird zur Infrastruktur.
Weiterlesen nach der Anzeige
Aus Nutzersicht klingt das verlockend. Für die Softwareindustrie ist es eine Bedrohung. Denn Software-as-a-Service-Modelle leben davon, dass jeder Mitarbeiter Zugang zu einzelnen Anwendungen braucht. KI-Agenten lösen diese Kopplung auf. Warum Hunderte Vollzugänge bezahlen, wenn ein paar Agenten einen Großteil der Arbeit erledigen?
Die Börse handelt bereits die nächste Ära
Die Nervosität an den Börsen kommt nicht von ungefähr. Microsoft, Salesforce, Adobe und Oracle verdienen weiterhin Milliarden. Aber die Zweifel wachsen, ob die fetten Margen der SaaS-Ära dauerhaft Bestand haben. Bemerkenswert dabei: Die Disruption entsteht innerhalb der Plattformen selbst. Microsoft demonstriert mit Copilot genau die Entwicklung, die das klassische Softwaremodell untergräbt. Der Konzern treibt die Entkopplung von Nutzer und Anwendung selbst voran.
Börsen handeln spekulative Erwartungen, keine Gegenwart. Für Investoren genügt die Aussicht auf sinkende Preissetzungsmacht, um Bewertungen neu zu sortieren. Die Machtfrage lautet deshalb nicht mehr, wer die beste Software baut. Sondern wer künftig die Bedienoberfläche der Arbeit kontrolliert.
Das erklärt, warum TCIs Teilverkauf mehr ist als ein gewöhnliches Börsensignal. Der Fonds stößt Microsoft-Aktien nicht ab, weil Office schwächelt oder Azure plötzlich Verluste schreibt. TCI reagiert auf eine tiefere Unsicherheit: KI löst eben nicht einfach Programme ab. Sie ersetzt die ökonomische Logik, auf der die Softwareindustrie aufgebaut wurde. Und genau deshalb droht die SaaSpocalypse.
Bei diesem Kommentar handelt es sich um das Editorial der iX 6/2026, die am 22. Mai erscheint.
(fo)
Künstliche Intelligenz
Code lesen statt Code schreiben: Die unterschätzte Senior-Disziplin
Im April 2000 veröffentlichte Stack-Overflow-Gründer Joel Spolsky einen Aufsatz mit dem Titel „Things You Should Never Do, Part I“. Anlass war die Entscheidung von Netscape, den Code des damaligen Browsers von Grund auf neu zu schreiben, statt den vorhandenen weiterzuentwickeln.
Weiterlesen nach der Anzeige

Golo Roden ist Gründer und CTO von the native web GmbH. Er beschäftigt sich mit der Konzeption und Entwicklung von Web- und Cloud-Anwendungen sowie -APIs, mit einem Schwerpunkt auf Event-getriebenen und Service-basierten verteilten Architekturen. Sein Leitsatz lautet, dass Softwareentwicklung kein Selbstzweck ist, sondern immer einer zugrundeliegenden Fachlichkeit folgen muss.
Spolskys These: Diese Entscheidung sei der schlimmste strategische Fehler, den eine Softwarefirma machen könne. Sie beruhe auf einem fundamentalen Missverständnis darüber, was Programmierarbeit eigentlich ist. Programmiererinnen und Programmierer schrieben lieber neu, weil das Lesen fremden Codes mühsam sei und sich das Schreiben produktiv anfühle. Doch dieser Eindruck täusche. Die Verlockung, neu anzufangen, sei eine der teuersten Versuchungen der Branche.
Über 25 Jahre später hat dieser Text nichts von seiner Aktualität verloren. Im Gegenteil. Mit dem Auftauchen von Large Language Models (LLM) hat sich die Asymmetrie zwischen Schreiben und Lesen so verschoben, dass die Frage akut wird, ob wir die eigentliche Senior-Disziplin der Softwareentwicklung systematisch unterschätzen. Das Tippen ist nicht das, was Teams in den nächsten Jahren ihren Atem rauben wird. Das Lesen ist es. In diesem Beitrag möchte ich zeigen, warum das so ist, woher die Asymmetrie kommt, wie sie sich durch generative KI verschärft und wie aus einer beiläufigen Begleitfähigkeit eine eigenständige Disziplin werden müsste.
Der eigene Code wird nach drei Wochen zu fremdem Code
Beim Schreiben hat man alles gleichzeitig im Kopf: die Anforderung, das Datenmodell, die geplante Architektur, die Stelle, an der man gerade arbeitet, die Annahmen, die man trifft, die Trade-offs, die man eingeht. Diese mentale Gesamtsicht macht das Schreiben schnell. Sie ist gleichzeitig das, was beim Lesen fehlt.
Wer drei Wochen später denselben Code wieder vor sich hat, ohne den Kontext mitzubringen, muss diese Gesamtsicht rekonstruieren. Variablennamen geben Hinweise, Tests sagen mehr, ein Pull-Request-Kommentar liefert im Bestfall den fachlichen Anlass, eine Commit-Message mit Glück die letzte Begründung. Die eigentliche Intention, das gedachte Modell, die verworfenen Alternativen, all das ist verloren. Rekonstruieren kostet Zeit und Konzentration, und beides ist teurer als das Schreiben.
Spolskys Anekdote ist deshalb so anschaulich, weil sie diese Asymmetrie auf Organisationsebene zeigt. Bei Netscape stand man vor einer alten Codebasis, die niemand mehr durchschauen wollte. Die Verlockung lag nahe, das Ganze einfach neu zu schreiben. Das Ergebnis ist bekannt: drei Jahre Stillstand, ein verlorener Browser-Markt, eine Firma im Niedergang. Der vermeintlich einfachere Weg war der teuerste.
Weiterlesen nach der Anzeige
Auf individueller Ebene zeigt sich dasselbe Muster täglich. Es zeigt sich in Stack-Overflow-Antworten, die statt der Frage einen anderen Lösungsansatz vorschlagen. Es zeigt sich in Kolleginnen und Kollegen, die Refactorings vorschlagen, ohne den vorhandenen Code wirklich verstanden zu haben. Es zeigt sich in der eigenen Versuchung, ein Modul lieber zu ersetzen als zu verbessern. Lesen ist und bleibt unbequem.
LLMs kippen die Bilanz endgültig
Ein modernes LLM erzeugt mehrere Hundert Zeilen Code in der Zeit, in der eine Person diese Zeilen einmal überfliegen kann. Generieren ist billig geworden. Token sind billig, Wartezeiten kurz, und das mentale Modell für die Aufgabe ist auf das Formulieren eines Prompts geschrumpft. Der Aufwand auf der Schreibseite ist faktisch zusammengebrochen.
Auf der Leseseite hat sich nichts geändert. Verstehen kostet noch immer das, was es immer gekostet hat: konzentrierte Aufmerksamkeit, Zeit, Geduld. Die menschliche Verarbeitungsgeschwindigkeit für Code liegt grob bei einigen Zeilen pro Minute, je nach Komplexität deutlich darunter. Diese Größenordnung lässt sich nicht durch Werkzeuge beschleunigen, weil sie an der menschlichen Kognition selbst hängt.
Das Resultat ist eine groteske Verschiebung. Wo früher eine Tagesarbeit etwa hundert Zeilen Code produzierte, die ein Reviewer in einer halben Stunde durchgehen konnte, kann heute eine Stunde Promptarbeit Tausende Zeilen erzeugen. Die zu verstehende Menge wächst dramatisch, die Geschwindigkeit des Verstehens bleibt konstant. Was früher ein Engpass beim Schreiben war, wird zum Engpass beim Verstehen.
Diese Verschiebung wird in vielen Diskussionen ignoriert. Man feiert die Produktivität auf der Generierungsseite und schweigt über die Bilanz, die sich auf der Leseseite auftut. Was nicht gelesen wird, wird nicht verstanden. Was nicht verstanden wird, wird nicht zuverlässig betrieben. Die Schulden verschieben sich nur in die Zukunft, sie verschwinden nicht.
Sichtbar wird das spätestens dort, wo Code-Review-Prozesse, die für die Geschwindigkeit der Vor-LLM-Ära konzipiert waren, plötzlich mit Pull-Requests konfrontiert sind, deren Umfang ein menschlicher Reviewer in einem ganzen Tag nicht durchdringen könnte. Die Reaktion ist meistens nicht eine vertiefte Auseinandersetzung, sondern ein verkürztes Daumen-hoch. Damit verlagert sich der Code-Review von einem inhaltlichen zu einem zeremoniellen Schritt, und genau in dieser Verlagerung entstehen die Probleme, die später teuer werden.
Die Abhängigkeitsspirale
Eine ambitionierte Schule propagiert, die Beschäftigung mit Code werde überflüssig: Mit genug Skills, Harness-Engineering und einer präzisen Markdown-Spezifikation lasse sich die Arbeit vollständig auf die Spec-Ebene verlagern. Der generierte Code sei eine Implementierungsfrage, die niemand mehr ansehen müsse. Diese Vorstellung wird mit Anlauf gegen eine Wand laufen.
Wer Code nur generiert, ohne ihn zu lesen, hat von Anfang an fremden Code vor sich. Reviewen geht nicht, Fehler suchen geht nicht, beides setzt Verstehen voraus. Mit jeder weiteren Generierung wächst die Codebasis schneller, als sie sich durchdringen lässt. Die Lücke zwischen „vorhanden“ und „verstanden“ öffnet sich in atemberaubender Geschwindigkeit, und mit ihr die Anzahl der Stellen, an denen man später fragen muss, was hier eigentlich passiert.
Die einzige verbliebene Instanz, die diesen Code noch erklären, prüfen oder reparieren kann, ist die KI selbst. Damit ist man ironischerweise auf genau das System angewiesen, das die Lage herbeigeführt hat. Aus einem Werkzeug wird eine Abhängigkeit, aus einer Beschleunigung eine Falle. Wer keine eigene Verstehenskompetenz aufbaut, hat nur noch eine externe und entscheidet über diese externe Kompetenz nicht mehr selbst.
Dieses Muster ist nicht neu, neu ist nur seine Geschwindigkeit. Ein Team besitzt eine unzugängliche Codebasis nicht mehr. Im klassischen Fall geschah die Unzugänglichkeit über Jahre, durch personelle Wechsel und unzureichende Dokumentation. Im KI-gestützten Fall kann das innerhalb weniger Monate geschehen, weil die Generierungsgeschwindigkeit die Aufnahmegeschwindigkeit hoffnungslos übersteigt.
Der typische Auslöser ist nicht spektakulär. Ein Bug taucht in Produktion auf, niemand im Team versteht den betroffenen Code, also befragt man die KI. Die KI liefert eine Erklärung und einen Fix, beides plausibel, beides ungeprüft. Im günstigen Fall stimmt es. Im weniger günstigen baut man neue Schulden auf alte und merkt es erst, wenn der nächste Bug genau in dieser Schicht entsteht. Aus Reparatur wird Übermalung.
Was zunächst wie eine Befreiung wirkt, ist also eine Verlagerung der Last. Statt selbst zu schreiben, formuliert man Prompts. Statt selbst zu verstehen, fragt man die KI. Beides scheint produktiv. Beides erodiert die Souveränität über die eigene Codebasis.
Künstliche Intelligenz
Ärztetag fordert strengere Regeln für KI und Cloud-Nutzung im Gesundheitswesen
Der 130. Deutsche Ärztetag hat weitere Beschlüsse zur Digitalisierung, Datenschutz und Künstlicher Intelligenz im Gesundheitswesen gefasst. Neben der bereits intensiv diskutierten elektronischen Patientenakte (ePA) und dem geplanten Gesetz für Daten und digitale Innovation im Gesundheitswesen (GeDIG) beschäftigten sich die Delegierten insbesondere mit Risiken der Datenverarbeitung, autonom handelnder KI-Systeme und der Nutzung cloudbasierter Infrastrukturen.
Weiterlesen nach der Anzeige
Ärztetag kritisiert geplante Neudefinition anonymisierter Daten
Besonders deutlich fiel die Kritik an den aktuellen Plänen der Europäischen Kommission aus. Hintergrund ist das laufende EU-Gesetzgebungsverfahren zum sogenannten Digital-Omnibus, das Datenschützer bereits deutlich kritisierten. Nach Auffassung der Antragsteller des Antrags „Anonym muss wirklich anonym sein“ soll dabei der Begriff personenbezogener Daten neu definiert werden. Vorgesehen sei, Daten künftig bereits dann als anonym anzusehen, wenn sie einmal anonymisiert wurden – selbst dann, wenn nach einer Weitergabe an Dritte eine spätere Reidentifizierung der betroffenen Personen möglich oder sogar wahrscheinlich sei.
Die Delegierten sehen darin eine erhebliche Schwächung des Datenschutzes. „Trotz einer faktisch unwirksamen Anonymisierung gelten solche Daten zukünftig nicht mehr als personenbezogene Daten und werden deshalb nicht mehr durch die DSGVO geschützt“, heißt es in der Begründung des angenommenen Beschlusses. Der Ärztetag warnt, dass damit die Nutzung medizinischer Behandlungsdaten ihre Legitimation verlieren könnte.
„Ohne eine wirksame Anonymisierung verliert die Nutzung ärztlicher Behandlungsdaten von Patienten, mit und ohne Künstliche Intelligenz, jede Legitimation“, erklärten die Antragsteller. Besonders kritisch sei, dass kommerzielle Datennutzer dadurch faktisch von ihrer Verantwortung gegenüber Patienten entbunden würden. Das hatte in der Vergangenheit auch der Ethik-Professor Rainer Mühlhoff kritisiert. Die Delegierten rund um den Berliner Arzt Stefan Streit sehen durch die geplante Begriffsverschiebung auch die ärztliche Schweigepflicht berührt. „Es ist fraglich, ob Ärztinnen und Ärzte in der Patientenbehandlung ihrer Verschwiegenheitspflicht gegenüber den Patientinnen und Patienten nachkommen, wenn sie mitwirken, obwohl klar ist, dass ein faktischer Persönlichkeitsschutz fehlt“, heißt es im Antrag weiter. „Unabhängig davon entsteht ein gravierender Vertrauensverlust für den Schutzraum der ärztlichen Behandlung“, erklärten die Delegierten.
Im ebenfalls angenommenen Beschluss zum „Schutz vor Reidentifizierung bei anonymisierten/pseudonymisierten Behandlungsdaten aus der elektronischen Patientenakte im Gesundheitsdatenraum“ warnten die Delegierten zudem vor neuen Risiken durch KI-gestützte Mustererkennung. Bereits wenige Angaben wie Geschlecht, Alter, Postleitzahl und Behandlungstage könnten laut Antrag ausreichen, um anonymisierte Gesundheitsdaten wieder einzelnen Personen zuzuordnen. Besonders sogenannte Kalendermuster aus Arztterminen gelten den Antragstellern als problematisch. Mit dem Einsatz von KI entstehe dabei zusätzlich ein „unkalkulierbares KI-Risiko“ für die Reidentifizierung medizinischer Daten.
Weiterlesen nach der Anzeige
Zweifel an Cloud-KI und autonomen KI-Agenten
Kritisch wurde auf dem Ärztetag auch die Entwicklung autonom handelnder KI-Systeme diskutiert. Im Beschluss „Digitale KI-Agenten regulieren, bevor sie im Gesundheitswesen genutzt werden“ (PDF) verwiesen die Antragsteller auf wissenschaftliche Veröffentlichungen, die bereits Fälle dokumentierten, in denen KI-Systeme sich Menschen widersetzt haben. Der Ärztetag fordert deshalb strengere regulatorische Vorgaben für selbstständig agierende KI-Anwendungen im Gesundheitswesen.
Die Ärztinnen und Ärzte fordern daher vom Bundesgesundheitsministerium (BMG), der Gematik, der Bundesbeauftragten für den Datenschutz und die Informationsfreiheit (BfDI) und dem Bundesamt für Sicherheit in der Informationstechnik (BSI) „eine detaillierte Darstellung, welche Maßnahmen zu ergreifen sind, bevor digitale KI-Agenten in der ärztlichen Patientenversorgung eingesetzt werden“.
Skeptisch äußerten sich die Delegierten außerdem zu „Confidential Computing“-Ansätzen in Cloud-Infrastrukturen. Im Beschluss „Cloudbasierte Künstliche Intelligenz von ärztlichen Behandlungsdaten – nur auf vertrauensvoller Infrastruktur“ heißt es, aus Sicht von IT-Experten gebe es keine belastbare Grundlage mehr für die Annahme, dass ein sicherer und vertraulicher KI-Betrieb auf fremden Cloud-Servern dauerhaft gewährleistet werden könne.
Deshalb seien außereuropäische Cloudstandorte für die KI-Verarbeitung von Behandlungsdaten ungeeignet. Das gelte auch für europäische oder deutsche Cloudangebote von US-Unternehmen, da diese laut Antrag „Daten von Nicht-US-Bürgern im Ausland an US-Behörden herauszugeben“ verpflichtet werden könnten. Aktuell nutzen einige Kliniken und Praxen bereits KI-Agentensysteme, teilweise bei den großen Hyperscalern wie AWS und Microsoft Azure.
Sorge über Ressourcenverbrauch
Auch „Ressourcenverbrauch und Kosten der Anwendung von Künstlicher Intelligenz“ waren Thema der Beratungen. Der Ärztetag verwies darauf, dass mit der Tokenzählung neue Kostenstrukturen entstünden. Zusätzlich zu klassischen Lizenzgebühren für medizinische Anwendungen müssten künftig auch Strom- und Wasserverbrauch der Serverinfrastruktur berücksichtigt werden.
An den Vorstand der Bundesärztekammer wurde zudem ein Prüfantrag (PDF) zur ärztlichen Aufklärung vor der Befüllung der elektronischen Patientenakte überwiesen. Die Delegierten äußerten Zweifel daran, dass ein einfacher Hinweis im Wartezimmer den gesetzlichen Anforderungen an eine informierte Patientenaufklärung genüge. Damit stellt sich auch die Frage, wer die Verantwortung trägt, wenn sich herausstellt, dass Patienten im Nachhinein doch nicht ausreichend aufgeklärt wurden.
In weiteren Beschlüssen ging es unter anderem um die Forderung nach praxistauglicher Digitalisierung, mehr Interoperabilität und sicheren IT-Systemen, um die Rolle von KI als unterstützendes Werkzeug in der medizinischen Versorgung sowie um die Wahrung ärztlicher Entscheidungsverantwortung. Kritisiert wurden zudem die geplante stärkere Nutzung von Gesundheitsdaten durch Krankenkassen, Zugriffe auf ePA-Daten, digitale Steuerungsmechanismen im Gesundheitswesen sowie ein möglicher indirekter Digitalzwang für Patientinnen und Patienten.
(mack)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
