Connect with us

Künstliche Intelligenz

Anbindung ans Gesundheitsnetz und Co.: Womit Ärzte zu tun haben


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Telematikinfrastruktur (TI) soll Praxen, Apotheken und Kliniken sicher vernetzen, Verwaltungsprozesse vereinfachen und Behandlungen effizienter machen. In der Praxis zeigt sich jedoch, dass zwischen Anspruch und Alltag oft eine deutliche Lücke bleibt. Allein im September gab es zahlreiche Störungen, die die Arbeit der Ärzte behindert haben.

In den kommenden Wochen steht den Ärzten und Apothekern noch eine weitere große technische Herausforderung bevor, nämlich die Umstellung der kryptografischen Verfahren in der Telematikinfrastruktur von RSA auf ECC (Elliptic Curve Cryptography). Grund dafür sind laut Gematik „europarechtliche Vorgaben“, die verlangen, dass Komponenten der TI – darunter unter anderem Konnektoren, Heilberufsausweise (eHBA), Institutionskarten (SMC-B) – das neue Verfahren unterstützen müssen.

Da die verbleibende Zeit bis zur Umstellung knapp ist und noch zahlreiche Karten und Konnektoren getauscht werden müssen, warnen die Gematik und IT-Dienstleister bereits vor möglichen Lieferengpässen und längeren Bearbeitungszeiten. Ärztinnen und Ärzte sollten sich daher frühzeitig mit ihren IT-Anbietern in Verbindung setzen, um zu prüfen, ob ihre Praxis-Hardware von der Umstellung betroffen ist. Neue eHBAs sollten idealerweise spätestens bis zum 1. Dezember 2025 vorliegen, um einen reibungslosen Betrieb zu garantieren – SMC-Bs und gerätespezifische Sicherheitsmodulkarten (gSMC-KT-Karten) können übergangsweise erstmal noch weiter genutzt werden.

Wir haben mit einem niedergelassenen Arzt, Dr. Marius Martin, gesprochen, der die TI seit Jahren nutzt, und mit seinem Bruder, Diplom-Informatiker Marcus Dromowicz, der ihn bei der IT in der Praxis unterstützt. Im Gespräch berichten die beiden, welche digitalen Prozesse inzwischen gut funktionieren – und wo technische Hürden, hohe Kosten und organisatorische Reibungsverluste den Praxisbetrieb noch bremsen.


Marius und Marcus Dromowic

Marius und Marcus Dromowic

Marius Martin (links) ist Kinderchirurg, Allgemeinmediziner, Rettungsmediziner und Palliativmediziner. Sein Bruder Marcus Dromowicz ist Software-Entwickler und unterstützt ihn bei der Anbindung an die Telematikinfrastruktur.

(Bild: Privat)

Welche Vorteile gibt es mit der TI?

Marius Martin: Das E-Rezept – nachdem es flüssig funktionierte – war schon eine Erleichterung, da Rezepte ausgestellt werden konnten, ohne dass die Patienten persönlich in die Praxis kommen mussten – gerade in Zeiten der Corona-Pandemie war das ein großer Vorteil.

Welche Schwierigkeiten sind Ihnen im Laufe der Zeit begegnet?

Martin: Das größte Problem war zunächst, dass die gesamte TI extrem langsam war. Teilweise ließ e sich gar nicht bedienen. Besonders betroffen war ein Zusatzmodul zur Dokumentenorganisation. Dort reagierte zum Beispiel das Hochladen von Bildern überhaupt nicht mehr. Wir wussten lange nicht, ob das am PC, am Server, an falschen Einstellungen oder tatsächlich an der TI lag.

Außerdem reagierte das PVS-System sehr langsam und stürzte regelmäßig ab. Leider fühlte sich der zuständige IT-Dienstleister nicht wirklich verantwortlich, sodass wir uns letztlich entschieden haben, eine externe Drittfirma für den Telematik-Support fest zu beauftragen. Mit diesen läuft die Unterstützung deutlich zuverlässiger.

E-Rezepte und elektronische Arbeitsunfähigkeitsbescheinigungen konnten häufig nicht versendet werden. Das führte dazu, dass wir am Abend zahlreiche Untersuchungen nachtragen mussten und die Patientinnen und Patienten in der Zwischenzeit nur handschriftliche Rezepte erhielten. Der zusätzliche Arbeitsaufwand war enorm.

Marcus Dromowicz: 2021 haben wir im Zuge einer Praxisübernahme, bei der ein Kollege ausgeschieden ist, gleich einen Serverwechsel gemacht. Dafür haben wir rund 8000 Euro in neue Hardware investiert und auch einen externen IT-Dienstleister hinzugezogen. Leider stellte sich heraus: Mit der neuen Hardware wurde es nicht wirklich besser. Das System blieb weiterhin relativ langsam.

Und wie lief es damals mit dem Konnektortausch?

CGM wollte den Austausch vornehmen, da die Zertifikate abliefen. Das sollte 2800 Euro kosten. Da wir ohnehin schon unzufrieden waren, haben wir uns für die Alternative „Konnektor in der Cloud“ entschieden. Anfangs gab es Probleme, weil sich Anbieter gegenseitig den schwarzen Peter zugeschoben haben. Mittlerweile läuft es stabiler – auch durch den Wechsel auf einen leistungsfähigeren Server.

Haben Sie die TI-Komponenten in Ihrer Praxis schon auf die neue Verschlüsselung (ECC) umgestellt?

Unsere Hauptkarte ist bereits kompatibel, bei einer zweiten Karte hoffen wir ebenfalls darauf. Auch elektronische Heilberufsausweise (eHBA) haben wir neu bestellt. Lediglich die gSMC-KT-Karten in den Behandlungszimmern laufen nächstes Jahr ab und müssen ausgetauscht werden. Ich hoffe, dass wir den Tausch selbst übernehmen können, ohne dass es wieder wochenlange Störungen gibt.

Gab es beim Kartentausch Schwierigkeiten?

Dromowicz: Ja, mit der SMC-B-Karte (Sicherheitsmodulkarte Typ B). Die wurde auf den ausgeschiedenen Kollegen registriert – mit dessen E-Mail- und sogar Privatadresse, obwohl wir nachweislich korrekte Daten eingetragen hatten. Dadurch landeten alle Aktivierungs-Mails bei ihm. Die Bundesdruckerei beziehungsweise D-Trust sagte dann, die Stammdaten in der Datenbank seien endgültig und nicht änderbar. Man bot uns nur die Aktivierung vor Ort an, was aber absurd war. Wir haben die fehlerhafte Karte inzwischen storniert – trotz bereits verschickter Mahnungen. Das sind aber nicht die einzigen Probleme.

Welche gibt es denn noch?

Martin: Bei den mobilen Kartenlesegeräten funktioniert zum Beispiel nicht einmal der Einschaltknopf zuverlässig. Um das Gerät zu starten, muss man häufig den Deckel auf der Rückseite abnehmen und die eHBA-Karte neu einsetzen. Außerdem ist der Batterieverbrauch hoch – lässt man sie im Gerät, sind sie innerhalb von zwei Tagen tatsächlich entladen.

Besonders ärgerlich war es außerdem, dass eines der mobilen Kartenlesegeräte von Ingenico nach einem eingespielten Upgrade nicht mehr funktionierte. Um mit neuen Praxisausweisen und elektronischen Heilberufsausweisen zusammenzuarbeiten, müssen diese mobilen Geräte aktualisiert werden. Eins unserer Kartenlesegeräte lieferte während des Flash-Upgrades einen Signatur-Fehler und brach das Update ab. Obwohl es nach dem Einschalten den Update-Vorgang erneut starten will und auch unsere Admin-PIN noch erkennt, kommt es jedes Mal zum gleichen Fehler.

Dromowicz: Gerade gibt es auch das nächste Problem. Eine Webanwendung eines weiteren Anbieters funktioniert gerade nicht, die wir allerdings für den gSMC-KT-Kartentausch benötigen. Darüber müssen die neuen Karten mit den Lesegeräten gekoppelt werden. Da wird die Zeit auch allmählich knapp.

Stürzen die denn inzwischen weniger häufiger ab?

Dromowicz: Das Einlesen der Versichertenkarten hat teilweise 10 bis 20 Sekunden gedauert. Klingt nicht viel, summiert sich aber bei jeder Patientin und jedem Patienten enorm. Außerdem kam es oft vor, dass Kartenlesegeräte komplett ausfielen. Dann blieb uns nur, das Gerät aus- und wieder einzustecken, was immer wieder Zeit kostete. Die Aufsätze „Orga Protect“ halfen auch nicht viel. Diese Schwierigkeiten gibt es überall. Viele Praxen kämpfen mit ähnlichen Problemen – lange Laufzeiten, Inkompatibilitäten, überteuerte Hardware oder ausbleibender Support. Wir sind da also bei Weitem kein Einzelfall.

Reicht die TI-Pauschale eigentlich für all diese Kosten?

Martin: Die Pauschalen der KV sind in der Regel so kalkuliert, dass sie die reinen Anschaffungskosten abdecken. Was jedoch nicht berücksichtigt wird, ist der erhebliche Aufwand für die Einrichtung und Wartung. Die Techniker benötigen meist deutlich mehr Zeit als geplant, und diese zusätzlichen Kosten werden weder erstattet noch übernommen.


(mack)



Source link

Künstliche Intelligenz

Der neue Sarkophag in Tschernobyl ist nicht mehr sicher


Die Schutzhülle über dem Unglücksreaktor von Tschernobyl hat ihre wesentliche Sicherheitsfunktionalität verloren. Zu diesem Schluss kam jetzt eine Delegation der Internationalen Atomenergie-Organisation (IAEA), welche den Ort des Reaktorunglücks von 1986 im ukrainischen Tschernobyl inspizierte.

Weiterlesen nach der Anzeige

Fertiggestellt worden war die Hülle, welche auch New Safe Confinement (NSC) genannt wird, erst 2016, um die Radioaktivität des havarierten Reaktors einzudämmen. Entstanden sind die Schäden bei einem russischen Drohnenangriff im Februar 2025, bei dem eine Drohne das Bauwerk traf und durch die äußere Schutzwand des NSC drang.

Teile des Fluggeräts schlugen auch durch die innere Wand, neun Meter unterhalb. Der Vorfall verursachte einen Großbrand, welcher ebenfalls die Außenhülle der massiven Stahlkonstruktion beschädigte, wie die IAEA berichtet. Bei den Löscharbeiten im Februar mussten zusätzliche Löcher in die Außenwand geschnitten werden, weil der Brand auch zwischen den beiden Schutzwänden wütete.

Die Delegation bestätigte jetzt, dass die NSC ihre primären Sicherheitsfunktionen, einschließlich der Eindämmungsfähigkeit von Radioaktivität, verloren hat. Nach dem Einschlag der Drohne im Februar hatte die IAEA zwar keine Veränderung der Strahlungswerte gemeldet, durch provisorische Reparaturen konnte das auch danach verhindert werden.

Doch die Tragweite des Schadens wird erst klar, wenn man sich das Bauwerk genauer ansieht. Nachdem der Vorgänger, ein Sarkophag aus Beton und Stahl, errichtet kurz nach der Katastrophe, marode geworden war, wurde das NSC gebaut und auf Schienen über die alte Hülle gezogen. Unter dem riesigen Mantel in Bogenform hätte die Pariser Kathedrale Notre Dame Platz.


Die Baustelle am Reaktor

(Bild: Heiko Roith)

Weiterlesen nach der Anzeige

Zwischen der Innen- und der Außenwand des NSC herrschte vor dem Angriff ein Überdruck. Dieser sollte verhindern, dass radioaktive Partikel bis an die Außenwand gelangen und diese kontaminieren konnten. Möglich machte den Überdruck ein Kunststoffmembran, welches ebenfalls bei dem Brand zerstört wurde. Eine Reparatur wäre nur unter größtem Aufwand möglich, das NSC müsste dafür wahrscheinlich verschoben werden.

Zudem soll das NSC die Außenwelt auch schützen, wenn der alte Sarkophag ganz oder teilweise einstürzen sollte. Auch das ist jetzt nicht mehr gewährleistet. Eigentlich sollte unter dem NSC auch der Rückbau des alten Sarkophags erfolgen – unter jetzigen Bedingungen nicht mehr denkbar.

Zudem sollte das NSC die Außenwelt bei Naturkatastrophen und anderen Notfällen schützen. Das Szenario eines Drohnenangriffs war bei der Entwicklung jedoch nicht berücksichtigt worden. Die tragenden Strukturen und Überwachungssysteme weisen aber zumindest keine dauerhaften Schäden auf, wie die IAEA jetzt feststellte. Ob das Bauwerk in seinem jetzigen Zustand für die geplante Dauer von 100 Jahren seinen Zweck erfüllen kann, darf aber angezweifelt werden.

„Es wurden begrenzte vorübergehende Reparaturen am Dach durchgeführt, aber eine zeitnahe und umfassende Sanierung bleibt unerlässlich, um eine weitere Verschlechterung zu verhindern und die langfristige nukleare Sicherheit zu gewährleisten“, betont Generaldirektor Rafael Grossi. Die Verantwortlichen in der Ukraine hoffen auf Unterstützung aus einem Fonds der Europäischen Bank für Wiederaufbau und Entwicklung (EBWE). In diesen hatten 45 Geberländer rund 1,6 Milliarden Euro für den Bau des NSC eingezahlt.

Lesen Sie auch


(nen)



Source link

Weiterlesen

Künstliche Intelligenz

Pat Gelsinger will mit neuen Lasern Moore’s Law retten


Seit Pat Gelsinger vor einem Jahr bei Intel unfreiwillig in den Ruhestand geschickt wurde, arbeitet er bei dem Investmentunternehmen Playground Global. Eines der Anlageobjekte: Das US-Startup xLight. Der Name deutet schon an, worum es dabei geht: Externes Licht für Chipfabriken. Die grundlegende Idee ist, die Lichtquelle für Belichtungsmaschinen in der Halbleiterherstellung nicht mehr in jedes der Geräte einzubauen, wie das der Lithografie-Marktführer ASML macht.

Weiterlesen nach der Anzeige

Wie Gelsinger jetzt auf einer Veranstaltung von TechCrunch sagte, sollen die riesigen xLight-Maschinen außerhalb der Reinraum-Gebäude von üblichen Chipfabriken stehen. Die Lichtquellen sollen rund 100 mal 50 Meter groß sein, in etwa so viel wie ein kleineres Fußballfeld. Wie bereits berichtet, sollen Freie-Elektronen-Laser (FEL) Licht mit extrem kurzen Wellenlängen erzeugen. Deren Strahlen sind stärker gebündelt und streuen weniger – das könnte wohl für eine Übertragung über größere Strecken taugen. Um Wellenlängen im heute schon gebräuchlichen EUV-Spektrum (extreme ultra violet) handelt es sich immer noch.

Nur um viel kleinere als bei bisherigen EUV-Quellen: ASML kommt laut dem Bericht auf 13,5 Nanometer, xLight will 2 Nanometer erreichen. Die vor allem marketinggetriebenen Nanometer-Angaben zu den Strukturbreiten der modernsten Chiphersteller wie TSMC liegen deutlich unter den Wellenlängen der Belichtungsmaschinen, weil unter anderem Brechung und Maskenstruktur dabei eine Rolle spielen.

„Wir glauben, dass diese Technologie Mooreֹ’s Law wieder aufwecken wird“, sagte Pat Gelsinger laut TechCrunch. Die in der Chipbranche jahrzehntelang gültige, eigentlich rein statistische, Beobachtung des Intel-Mitbegründers Gordon Moore besagt, dass sich rund alle zwei Jahre die Zahl der integrierten Elemente auf einem Halbleiter verdoppeln lässt. In den letzten zehn Jahren kam das Moore’sche Gesetz aber immer mehr ins Stocken, unter anderem, weil Basistechnologien wie EUV-Belichtung sich nur langsam etablierten.

Denn die Idee von FEL-Lichtquellen für Lithografie ist nicht ganz neu, nun hält sie xLight-Chef Nicholas Kelez dem Bericht nach aber für reif für die Serienproduktion. Die Branche hat sich ihm zufolge auf EUV-Quellen in den Belichtern geeinigt, weil bis zur Einführung der Technik bereits Dutzende Milliarden in die Entwicklung geflossen seien. „Wir behandeln Licht genauso wie Strom oder Heizungs-, Lüftungs- und Klimaanlagen. Wir produzieren (Licht) außerhalb der Fabrik im Maßstab eines Kraftwerks und verteilen es dann zu den Anlagen innerhalb des Werks“ sagte Kelez.

Der Zeitplan dafür ist ambitioniert. Die ersten mit xLight belichteten Wafer sollen bereits 2028 hergestellt werden, fit für die Serienfertigung soll das System 2029 sein. Für die Entwicklung bis zur Marktreife hat xLight in der vergangenen Woche eine Zusage des US-Handelsministeriums über Förderung in Höhe von 150 Millionen US-Dollar im Rahmen des „Chips and Science Act“ erhalten.

Weiterlesen nach der Anzeige

Lesen Sie auch


(nie)



Source link

Weiterlesen

Künstliche Intelligenz

Meta Quest 4: Internes Memo verspricht „großes Upgrade“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am Wochenende gelangten zwei interne Memos an die Öffentlichkeit, die Metas Hardware-Fahrplan betreffen. Seit letztem Jahr kursieren Gerüchte, dass Meta an einer neuen Art von Mixed-Reality-Brille arbeitet, die Prozessor und Batterie in einen kabelgebundenen Taschencomputer auslagert und so einen besonders kompakten und leichten Formfaktor ermöglicht. Das Techmagazin The Information berichtete 2024 über einen Prototyp, der etwa 100 Gramm wiegen soll. Laut einem Bericht des Wall Street Journal vom vergangenen Sommer war ein entsprechendes Produkt für 2026 geplant, mit einem Zielpreis von unter 1000 US-Dollar.

Weiterlesen nach der Anzeige

Dieser Zeitplan hat sich inzwischen geändert: Laut einem internen Memo, das Business Insider vorliegt, wurde das Gerät auf die erste Hälfte des Jahres 2027 verschoben. In einem zweiten Memo wird auch der Grund genannt: Die zusätzliche Zeit soll dem Team mehr Luft verschaffen, um Details auszuarbeiten.

„Wir stehen vor einem straffen Zeitplan und weitreichenden Änderungen an der Nutzererfahrung, und wir werden keine Kompromisse eingehen, wenn es darum geht, ein geschliffenes und zuverlässiges Benutzererlebnis abzuliefern“, schreiben die Metaverse-Führungskräfte Gabriel Aul and Ryan Cairns in dem zweiten Memo. Die Nutzeroberfläche gilt als eine der größten Schwächen des VR-Betriebssystems Horizon OS und könnte mit ein Grund sein, warum Meta Apples Interface-Design-Chef abgeworben hat.

In dem Bericht beruft sich Business Insider auf zwei Meta-Angestellte, die den aktuellen Prototyp mit Codenamen „Phoenix“ gesehen haben und bestätigen, dass das Gerät einen brillenähnlichen Formfaktor hat und über einen Taschencomputer betrieben wird. Laut früheren Berichten legt Meta den Schwerpunkt auf Medienkonsum und andere Nutzungsszenarien, die auf sitzende Verwendung ausgelegt sind.

Auch in Bezug auf eine potenzielle Quest 4 gibt es Neuigkeiten. Nachdem Meta die Entwicklung im Sommer auf Eis gelegt und zwei Quest-4-Prototypen gestrichen hatte, um sich auf die neue, ultraleichte MR-Brille zu konzentrieren, wurde die Arbeit an einem Nachfolger der Quest 3 wiederaufgenommen.

Die Meta-Führungskräfte schreiben in ihrem Memo, dass Meta mit der Entwicklung eines Quest-Geräts der nächsten Generation begonnen habe, das sich auf Gaming konzentrieren und gegenüber den aktuellen Produkten ein „großes Upgrade“ darstellen werde. Aus dem Memo geht nicht hervor, für welches Jahr das Gerät geplant ist. Nach allem, was bisher bekannt ist, dürfte Quest 4 erst nach der ultraleichten MR-Brille auf den Markt kommen, nach aktuellen Plänen also frühestens 2027.

Weiterlesen nach der Anzeige

Die Entwicklung der beiden neuen Geräte fällt in eine Phase, in der Metas VR-Abteilung zu einschneidenden Kostensenkungen angehalten ist. In einem der beiden Memo heißt es, dass die Führungskräfte der Reality Labs, Metas Sparte für VR- und AR-Produkte, von Mark Zuckerberg aufgefordert wurden, „das Geschäft nachhaltig aufzustellen“. In die Reality Labs flossen Schätzungen zufolge mehr als 100 Milliarden US-Dollar, ohne dass sich diese Investition bislang für Meta ausgezahlt hätte.

heise online XR-Briefing abonnieren

Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.

E-Mail-Adresse

Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.

Eines der Ziele, die Meta laut Memo mit der Quest 4 verfolgt, ist, die „Wirtschaftlichkeit pro Gerät deutlich zu verbessern“. Eine mögliche Maßnahme dafür wäre, die Margen zu erhöhen und die Hardware weniger aggressiv zu subventionieren als bisher. Für Konsumenten könnte das bedeuten, dass die nächste Quest-Generation spürbar teurer ausfällt.

Auch wenn nächstes Jahr wohl wieder keine neue VR-Brille von Meta erscheinen wird, ist laut einem der Memos ein neues Wearable in limitierter Auflage geplant, das auf den Codenamen „Malibu 2“ hört. Höchstwahrscheinlich handelt es sich dabei um ein weiteres Produkt aus Metas stetig wachsendem KI-Brillen-Portfolio.


(tobe)



Source link

Weiterlesen

Beliebt