Connect with us

Künstliche Intelligenz

Studie zur digitalen Kluft in Arztpraxen: Software-Nutzung mit Ost-West-Gefälle


Auch Jahrzehnte nach der Wiedervereinigung zeigen sich deutliche Unterschiede im Digitalisierungsgrad deutscher Arztpraxen, wie aus einer Studie des Zentralinstituts für die kassenärztliche Versorgung (Zi) der Kassenärztlichen Bundesvereinigung hervorgeht. Während die Politik die Digitalisierung des Gesundheitswesens vorantreibt, kämpfen viele Medizinerinnen und Mediziner täglich mit umständlicher und fehleranfälliger Software. Dabei wurden Daten aus 100.000 Praxen ausgewertet.

Die Studie, die 39 gängige Praxisverwaltungssysteme (PVS) untersuchte, zeigt, dass nutzerfreundliche Systeme vor allem in westdeutschen (KV-)Regionen wie Hessen, Schleswig-Holstein und Nordrhein zu finden sind. Im Gegensatz dazu ist auch von sogenannten „Cold-Spots“ die Rede – vorwiegend in den neuen Bundesländern. In Mecklenburg-Vorpommern, Brandenburg und Thüringen ist die durchschnittliche Zufriedenheit mit den eingesetzten PVS demnach signifikant geringer. Dieses Ergebnis deckt sich mit früheren Zi-Analysen, die bereits nachwiesen, dass eine geringere Nutzerfreundlichkeit direkt mit einer höheren Fehleranfälligkeit, mehr Klicks und längeren Bearbeitungszeiten korreliert – alles Faktoren, die im stressigen Praxisalltag zu Frustration und Ineffizienz führen.

Der Bericht untersucht die regionale Verteilung und ordnet die 39 untersuchten PVS in drei Gruppen ein, ohne jedoch eine explizite Rangliste der einzelnen Produkte zu veröffentlichen. Die genauen Bewertungen der einzelnen Systeme wurden bereits in einer vorangegangenen Zi-Studie (Müller et al., 2024) publiziert.

Ein Blick auf die Liste der analysierten Systeme zeigt jedoch die enorme Vielfalt des Marktes: Dominante Anbieter wie CompuGroup Medical (mit Produkten wie Albis, CGM M1 Pro, Medistar, Turbomed) und medatixx (unter anderem mit medatixx, x.comfort, x.isynet) sind ebenso vertreten wie spezialisierte Systeme (zum Beispiel Elefant, psyprax) und tomedo oder T2med. Die breite Streuung der Bewertungen in der Vorstudie deutet darauf hin, dass die Nutzerfreundlichkeit weniger eine Frage des Herstellers als vielmehr des einzelnen Produkts ist. Selbst innerhalb des Portfolios eines großen Anbieters kann die Nutzerzufriedenheit stark variieren.

Nach Ansicht der Autoren spielen für die regionalen Unterschiede vor allem strukturelle und demografische Faktoren eine Rolle – weniger finanzielle Ressourcen der Praxen. „Viele Praxen arbeiten immer noch mit wenig nutzerfreundlichen Softwaresystemen, insbesondere in ostdeutschen Regionen. Das könnte dort mit strukturellen Nachteilen wie einem höheren Arbeitsaufkommen und dem sich weiter verschärfenden Fachkräftemangel zusammenhängen“, erklärt der Zi-Vorstandsvorsitzende Dr. Dominik von Stillfried. Der daraus resultierende Zeitmangel und fehlende Informationsgrundlagen erschwerten den oft aufwendigen Wechsel des PVS.

Auch das Alter der Ärzteschaft und der Anteil der angestellten Ärzte beeinflussen die Zufriedenheit – in entsprechenden Regionen fällt sie tendenziell niedriger aus. Ältere Praxisinhaber legen laut von Stillfried oft andere Maßstäbe an und scheuen den Aufwand einer Umstellung kurz vor dem Ruhestand. Angestellte wiederum haben zwar durch ihre berufliche Mobilität oft mehr Vergleichsmöglichkeiten, aber kaum Einfluss auf die Systemwahl in der Praxis. Ihre Perspektive, so eine zentrale Forderung der Studie, müsse daher in Zukunft stärker berücksichtigt werden.

Die Studie macht deutlich: Ein PVS-Wechsel ist für viele Praxisinhaber eine Herkulesaufgabe. Lange Vertragslaufzeiten, hohe Migrationskosten für Datentransfer und Schulungen sowie unübersichtliche Angebotsstrukturen bilden massive Hürden. Gleichzeitig zeigt die Analyse, dass ein Wechsel fast immer zu einer höheren Zufriedenheit führt.

Hier liegt der entscheidende Hebel für die Politik. „Wer Digitalisierung fördern will, sollte die Praxen mit dem Aufwand eines Softwarewechsels nicht allein lassen“, appelliert von Stillfried. Wie die Studienautoren betonen, hat die Nutzerfreundlichkeit der Praxissoftware direkte Auswirkungen auf Organisation, Arbeitsbelastung und Sicherheit der Patientenversorgung.


(mack)



Source link

Künstliche Intelligenz

Missing Link: Hubble Deep Field – ein Foto und seine Geschichte


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Bild war eine Sensation: Fast sechs Tage lang hatte das Hubble Space Telescope aus der Milchstraße in einen Bereich des Sternenhimmels außerhalb der Milchstraße gespäht. Von der Erde aus betrachtet, galt dieser Himmelsbereich als leer.

Weiterlesen nach der Anzeige

Die US-Raumfahrtbehörde NASA musste liefern. Das damals neue Weltraumteleskop drohte zu einem Millionen US-Dollar teuren Flop zu werden: Der Bau hatte sich verzögert, der Start nach der Explosion des Space Shuttle Challenger 1986 ebenfalls. Als es 1990 endlich im All war, kam die große Enttäuschung: Die Optik hatte einen gravierenden Fehler, die Bilder, die das Teleskop lieferte, waren unbrauchbar.




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Um das Hubble-Teleskop trotzdem nutzen zu können, ließ die NASA eine Korrekturlinse anfertigen, die ein Space Shuttle Ende 1993 zu dem Teleskop brachte, das zu dem Zeitpunkt schon mehr als drei Jahre in Orbit herumdümpelte. In mehreren Außeneinsätzen setzten die Thomas Akers, Jeffrey Hoffman, Story Musgrave und Kathryn C. Thornton Hubble eine neue Brille auf.

Endlich funktionierte das Teleskop – und jetzt musste es liefern. Und es lieferte: Das Bild des vermeintlich leeren Himmelsbereichs zeigte Millionen von Sternen in tausenden Galaxien, von denen einige noch aus der Frühzeit des Universums stammen. Das „Hubble Deep Field“ ist heute eines der ikonischsten Fotos der Weltraumforschung, das unseren Blick auf das Universum verändert hat und zu dem mehrere hundert Fachartikel veröffentlicht wurden.


Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

Das Hubble Deep Field aus dem Jahr 1995

(Bild: NASA)

Genauso interessant wie das Foto selbst und die wissenschaftlichen Erkenntnisse daraus ist allerdings seine Entstehungsgeschichte. Hier war weniger die Wissenschaft als vielmehr mangelndes Qualitätsmanagement in einem US-Raumfahrtunternehmen sowie die US-Finanzpolitik in Person eines späteren Friedensnobelpreisträgers involviert. Und diese Geschichte ist mindestens so spannend wie die wissenschaftlichen Entdeckungen, die später aus dem Foto folgten.

Weiterlesen nach der Anzeige

Rückblick: Es ist das Jahr 1975. Nachdem die Idee eines weltraumgestützten Teleskops seit fast drei Jahrzehnten diskutiert wird und auch bereits Satelliten mit kleineren Teleskopen in der Umlaufbahn operieren, legt die NASA dem US-Haushaltsausschuss eine Budgetanfrage von 400 Millionen US-Dollar vor, heute wären das über 2 Milliarden US-Dollar. Damit wollte die US-Raumfahrtbehörde den Bau eines „Large Space Telescopes“ mit einem Spiegel von 3 Metern Durchmesser finanzieren. Das Projekt wurde jedoch als „zu teuer“ abgelehnt.

Die NASA überarbeitete die Pläne und verkleinerte den Durchmesser des Hauptspiegels (und damit die Größe des Teleskops) auf 2,4 Meter. So konnte das benötigte Budget halbiert werden. Das Geld wurde 1977 bewilligt, sodass die NASA in den folgenden Monaten die einzelnen Komponenten beauftragen konnte.

1978 wurde dann der Auftrag für den Hauptspiegel des Teleskops an das US-Unternehmen PerkinElmer vergeben. Beim Bau kam ein neues, lasergestütztes Schleifverfahren zum Einsatz. PerkinElmer setzte dabei auch ein für das neue Verfahren angepasstes Messgerät, einen sogenannten „Null-Korrektor“, ein. Bedingt durch Zeit- und Kostendruck wurde der neue Korrektor vor dem Einsatz nicht getestet und validiert. So bemerkte niemand, dass durch eine fehlerhafte Konstruktion eine Linse des Messsystems um 1,3 mm versetzt saß. Da es bei PerkinElmer zu einer Reihe von Versäumnissen in der Qualitätssicherung kam, blieb der Fehler zunächst unbemerkt. Neben der fehlenden Validierung wurden später noch eine ganze Reihe weiterer Versäumnisse entdeckt.



Source link

Weiterlesen

Künstliche Intelligenz

ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test


Lenovos ThinkBook Plus G6 Rollable ist ein Hingucker, weil es nur auf den ersten Blick ein normales Notebook ist. Drückt man eine Sondertaste neben F12, so fährt das Notebook seinen Bildschirm motorisiert nach oben aus. Er gewinnt dadurch in etwa nochmal die Hälfte an zusätzlicher Höhe. Das funktioniert dank eines flexiblen OLED-Displays.

Anders als herkömmliche Monitore benötigt es keinen mehrlagigen Schichtaufbau mit starrer Hintergrundbeleuchtung, sondern lässt sich auf flexiblen Folien fertigen. Gerätehersteller benutzen diese technische Besonderheit für Smartphones mit faltbaren Displays, aber auch für Gaming-Bildschirme, die man jederzeit zwischen planer und gekrümmter Oberfläche umbauen kann. Das ThinkBook Plus G6 Rollable hat auch keine nervige Unterbrechung der Bildfläche, die man bei bisherigen Dual-Display-Notebooks zwangsläufig antrifft.

Anders als dort muss man obendrein keine Kompromisse bei den Eingabegeräten hinnehmen. Sie sind in gängiger Position fest im Rumpf verbaut: Tastatur hinten, Touchpad mittig davor. Dies ist bei Notebooks mit ungewöhnlichen oder mehreren Bildschirmen keinesfalls selbstverständlich. Dort sind abnehmbare Bluetooth-Tastaturen gängig oder welche, die ganz nach vorne gezogen sind und die Handballenablage verdrängen.


Das war die Leseprobe unseres heise-Plus-Artikels „ThinkBook Plus G6: Notebook mit ausrollbarem OLED-Bildschirm im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

heise+ Update vom 05. Dezember 2025: Lesetipps zum Wochenende


Liebe Leserinnen und Leser,

die dunkle Jahreszeit ist für viele von uns keine besonders angenehme Zeit. Oftmals stehen wir im Dunkeln auf und kommen erst im Dunkeln wieder heim. Zum Entspannen flüchten sich dann einige in Streaming und Gaming, andere kultivieren ihren Winterblues.

Aufhellen lässt sich die Stimmung relativ einfach – nämlich mit Licht. Eine passende Beleuchtung hilft, dass weder die Augen noch der Kopf zu schnell ermüden. Das Licht sollte mindestens 500 Lux hell und flimmerfrei sein. Und dann kommt es auf den konkreten Einsatz an: Für Videokonferenzen eignet sich neutralweißes Licht, während Tageslichtlampen mit hochintensivem Kaltweiß stimmungsaufhellend wirken. Ein umfangreicher Ratgeber erklärt alles, was Sie dazu wissen müssen und gibt außerdem ein paar Kaufempfehlungen.


Das war die Leseprobe unseres heise-Plus-Artikels „heise+ Update vom 05. Dezember 2025: Lesetipps zum Wochenende“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt