Connect with us

Künstliche Intelligenz

Telemedizinkongress: „Strukturen schaffen, bevor wir sie akut benötigen“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Angesichts von Fachkräftemangel und demografischem Wandel stellt sich zunehmend die Frage, wie eine flächendeckende Versorgung in gleichbleibender Qualität künftig sichergestellt werden könne. Ohne Telemedizin werde dies nicht gelingen, ist sich Gernot Marx, Vorstandsvorsitzender bei der DGTelemed, sicher. Sie ermögliche es, Expertise unabhängig vom Standort verfügbar zu machen und sei damit relevant für den Zugang zu spezialisierten Kompetenzen sowie für die Notfallversorgung. Das soll mit der Etablierung von Telekooperationen geschehen, die Krankenhäuser unterstützen sollen, und zwar „nicht nur in Form von Telekonsilen, sondern auch als grundsätzliche Mitbehandlung“.

Weiterlesen nach der Anzeige

Für die Umsetzung empfiehlt die DGTelmed (PDF) in ihrer Stellungnahme zur Krankenhausreform, entsprechende Angebote rund um Telekonsile zu zentralisieren und zu skalieren. Informationen über die Patienten, etwa Laborergebnisse, sollten für alle Behandler zeitnah, etwa in der elektronischen Patientenakte (ePA) verfügbar sein. Zudem fordert die DGTelmed mit Blick auf die anstehenden Reformen, insbesondere der Notfallreform, das Präsenzprinzip für in Kliniken angestellte Ärzte kritisch zu hinterfragen. Ärzte, die telemedizinisch tätig sind, müssen nicht zwangsläufig in Kliniken vor Ort sein.

Als ein weiteres Themenfeld benannte Marx die „Preparedness“, also die Vorbereitung der Versorgung auf Großschadensereignisse und außergewöhnliche Belastungen. Ohne telemedizinische Strukturen ließen sich die vorhandenen Kapazitäten nicht effizient steuern – Patientinnen und Patienten würden zunächst in den großen Häusern aufgenommen, müssten anschließend aber weiterverteilt werden. „Telemedizin ist das Rückgrat moderner Krisenbewältigung. Ein Szenario mit 100 zusätzlichen Patientinnen werden wir ohne flächendeckende Telemedizinstruktur nicht bewältigen, da nur so die vorhandenen Kapazitäten adäquat und effizient genutzt werden können“, sagt Marx. Erforderlich seien belastbare Kooperationen zwischen medizinisch-wissenschaftlichen Einrichtungen sowie zwischen Regionen und Versorgungssektoren. Resilienz sei gestaltbar: „Strukturen schaffen, bevor wir sie akut benötigen“, appelliert er.

Marx sprach sich zudem für die Modernisierung des Kleeblatt-Systems aus, das während der Corona-Pandemie zur überregionalen Verlegung von Intensivpatienten innerhalb Deutschlands etabliert wurde. Ebenso brauche es eine Echtzeitabfrage von Kapazitäten, dabei habe das DIVI-Intensivregister gezeigt, was möglich sei. Telemedizinische Strukturen müssten deshalb verpflichtend in jedem Bundesland aufgebaut werden, andernfalls werde sich weder die Reform noch die Krise bewältigen lassen.


Philipp Müller

Philipp Müller

Philipp Müller bittet um gute Ideen für erfolgreiche Reformen.

(Bild: Marie-Claire Koch / heise medien)

Im Anschluss machte Philipp Müller, Leiter der Abteilung 5 „Digitalisierung und Innovation“ im Bundesgesundheitsministerium (BMG) deutlich, dass das Ministerium nicht „an der Digitalisierung sparen“ wolle, „sondern mit der Digitalisierung“ – mittel- und langfristig sollten so auch Effizienzen gehoben werden. Dieser Gedanke ziehe sich durch die Roadmap des Ministeriums.

Müller verwies, wie bereits auf dem Future Health Day der Telekom und auch auf der DMEA, auf die im Vorjahr verabschiedete neue Digitalisierungsstrategie, die nach seinem Amtsantritt um das Thema KI ergänzt wurde. An Zielen wie 20 Millionen aktiven Nutzern der elektronischen Patientenakte und 300 Forschungsvorhaben bis 2030 wolle sich das Ministerium messen lassen. Außerdem soll KI eine größere Rolle spielen. Man fange nicht bei null an, betonte Müller. Bisher seien rund 30 Millionen Dokumente hochgeladen worden, beim E-Rezept liege das Volumen bei 1,3 Milliarden Rezepten.

Weiterlesen nach der Anzeige

Die Kritik, die ePA werde von Patientinnen und Patienten nicht genutzt, nehme man ernst: „Da arbeiten wir dran“, sagt Müller. Zugleich räumte er die allseits bekannten Probleme rund um die Telematikinfrastruktur (TI) ein. Man wolle die TI „maßgeblich stärken“ und Komplexität reduzieren. Das werde „nicht ganz ohne Nebengeräusche funktionieren“, auch deshalb solle die Gematik mit mehr Durchsetzungsbefugnissen ausgestattet werden.

Im Oktober feiert das Forschungsdatenzentrum Gesundheit (FDZ) sein einjähriges Bestehen. Müller unterstrich das Ziel, das FDZ weiter auszubauen; die Umsetzung der EHDS‑Verordnung gilt ihm dabei als zentrales Fundament eines vernetzten europäischen Gesundheitsdatenraums. Strukturierte Daten aus der ePA sollten in das FDZ einfließen, an Nutzbarkeit und Interoperabilität wolle man weiter arbeiten. Daten seien das neue Öl, zitierte Müller einen oft bemühten Vergleich, der den Wert der Daten veranschaulichen soll. Im Koalitionsvertrag sei eine Kultur des Datenteilens verankert, an deren Umsetzung das BMG arbeite.

Ein zentrales Vorhaben der Legislaturperiode ist laut Müller die Primärversorgung, auch mit Blick auf die Beitragsstabilität, die Gesundheitsministerin Nina Warken auf der DMEA versprochen hatte. Ziel sei eine bessere Steuerung und effizientere Patientenversorgung. Es solle stark auf digitale Elemente gesetzt werden. Mit dem aktuellen Gesetzentwurf will das Bundesgesundheitsministerium Vorarbeit leisten und einen Dreiklang aus digitaler Ersteinschätzung, Terminvermittlung und Überweisung verfolgen. Es gehe dabei nicht um „trial and error“, betonte Müller. Stellschrauben sollten so gesetzt sein, dass nachjustiert werden könne. Konstruktive Hinweise nehme das Ministerium gerne – auch auf digitalem Wege – entgegen.

Zum Thema Cybersicherheit betonte Müller, dass der Gesundheitssektor in Europa zu den am häufigsten angegriffenen Sektoren zähle. Bilder von geschlossenen Notaufnahmen wolle niemand sehen, sagte er. Das BMG plant im Zuge der NIS2-Umsetzung ein Sofortprogramm in Milliardenhöhe, das nicht nur Krankenhäuser, sondern auch Apotheken und weitere Einrichtungen einbeziehe.

Aus den ursprünglich zwei geplanten Gesetzen zu Digitalisierung und Datennutzung ist eines geworden. Die Ministerin habe entschieden, beide Vorhaben zusammenzuführen – das hätten allerdings nicht alle im Ministerium von Anfang an geteilt, räumte Müller mit einem Augenzwinkern ein. Vieles sei bereits aufgeschrieben; zum bislang geleakten Entwurf könnten sich Beteiligte dann im Stellungnahmeverfahren äußern. Mit dem Gesetz wolle man unter anderem die ePA weiterentwickeln und die Telematikinfrastruktur stärken.

Abschließend betonte Müller, das Vorhaben sei eine Gemeinschaftsaufgabe: „Wir wollen das alles nicht allein machen, wir können das auch nicht allein machen“. Mit der DGTelemed sei man dafür gut aufgestellt. Es gehe nicht nur ums Sparen, sondern auch um Effizienz und eine bessere Versorgung mit den verfügbaren Mitteln, wenn man es gemeinsam richtig mache. „Wir können besser werden, besser versorgen […] wenn wir es richtig machen“.


(mack)



Source link

Künstliche Intelligenz

Chatkontrolle: Datenschutzbehörden warnen vor Massenüberwachung in der EU


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Im Vorfeld der 4. Trilog-Verhandlungsrunde zwischen EU-Parlament, Rat und Kommission, die für den 11. Mai angesetzt ist, verschärft die Konferenz der unabhängigen Datenschutzaufsichtsbehörden des Bundes und der Länder (DSK) ihren Ton. In einer jetzt veröffentlichten Entschließung appellieren die Experten an die EU-Organe und insbesondere an die Bundesregierung, die Pläne zur Chatkontrolle endgültig aufzugeben.

Weiterlesen nach der Anzeige

Hinter dem Vorhaben, das nach offiziellen Angaben der Bekämpfung des sexuellen Missbrauchs von Kindern dienen soll, verbirgt sich nach Ansicht der Datenschützer eine Infrastruktur für eine anlasslose Massenüberwachung. Diese würde den Kernbestand europäischer Grundrechte bedrohen.

Die Kritik der DSK zielt vor allem auf die Unverhältnismäßigkeit der Maßnahmen, die Millionen Bürger unter einen Generalverdacht stellten. Das Ziel des Kinderschutzes stehe außer Frage. Nach Ansicht der Aufsichtsbehörden muss private Kommunikation via Messenger denselben Schutz genießen wie das klassische Briefgeheimnis. Ein Eingriff dürfe nur dann erfolgen, wenn ein konkreter, von der überwachten Person selbst gesetzter Anlass vorliege.

Die geplante Verordnung sieht dagegen breite Aufdeckungsanordnungen vor. Diese könnten Plattformbetreiber dazu verpflichten, private Nachrichten flächendeckend zu scannen. Alarmierend ist laut der DSK dabei vor allem der Versuch, die Ende-zu-Ende-Verschlüsselung zu umgehen. Dies könnte etwa durch Client-Side-Scanning (CSS) erfolgen, bei dem Inhalte bereits auf dem Endgerät vor der Verschlüsselung geprüft werden.

Die Debatte gewinnt durch eine Gesetzesneuheit an Schärfe: Seit Anfang April fehlt die rechtliche Grundlage für das „freiwillige“, anlasslose Scannen privater Kommunikation in der EU. Eine Übergangsregelung, die es Anbietern erlaubte, Messenger-Dienste und E-Mails proaktiv auf Darstellungen sexualisierter Gewalt gegen Kinder (CSAM) zu scannen, ist ausgelaufen.

Die EU-Kommission und Sicherheitsbehörden beklagen seitdem eine Schutzlücke. Doch Bürgerrechtler sehen eine historische Chance. Für sie ist das Ende der Interimsverordnung die Option, den Kinderschutz auf ein rechtsstaatlich solides Fundament ohne Massenüberwachung zu stellen.

Weiterlesen nach der Anzeige

Google, Meta, Microsoft und Snap kündigten trotzdem an, weiterhin freiwillige Maßnahmen ergreifen zu wollen, um entsprechendes Material auf ihren Plattformen zu identifizieren. Zugleich forderten sie die EU-Institutionen auf, dringend die Verhandlungen über einen dauerhaften Regulierungsrahmen abzuschließen.

Die DSK zweifelt die Wirksamkeit der vorgesehenen Überwachungswerkzeuge an. Technische Analysen zeigten, dass sich Erkennungsmethoden durch simple Bildmanipulationen umgehen ließen. Gleichzeitig könnten harmlose Dateien gezielt so verändert werden, dass sie fälschlicherweise als illegales Material gemeldet werden. Dies würde unbescholtene Bürger ins Visier der Fahnder rücken. Diese Schwächen führten zu einer großen Menge an Falschmeldungen, die wiederum wertvolle Ermittlungsressourcen binde.

Die Kontrolleure untermauern dies mit Zahlen von 2023, die das Missverhältnis verdeutlichen: Microsoft durchsuchte demnach weltweit über 11,7 Milliarden Inhalte, wobei in Europa lediglich 0,00007 Prozent der eingesehenen Kommunikationsvorgänge zu einem konkreten Verdacht führten. Die Fehlerquoten der eingesetzten Systeme hätten teilweise zu 20 Prozent gelegen.

Auch die EU-Datenschutzbeauftragten haben bereits festgestellt, dass solche Instrumente die Grundsätze der Erforderlichkeit und Verhältnismäßigkeit nicht wahren. Die Beweislast für die Angemessenheit eines so schweren Eingriffs liege bei den Gesetzgebern, doch dieser Nachweis konnte der DSK zufolge binnen vieler Jahre nicht erbracht werden. Effektiver sei die konsequente Durchsetzung bestehender Gesetze wie des Digital Services Act (DSA) sowie eine Auflage für Plattformen, ihre Dienste nach dem Prinzip „Safety by Design“ von Grund auf kindersicher zu gestalten. Flankiert werden müsse dies durch eine angemessene Finanzierung von Prävention, Medienpädagogik und Opferhilfe.


(wpl)



Source link

Weiterlesen

Künstliche Intelligenz

Nach Juniper-Übernahme: HPE will zunächst keine Abkündigung im Netzwerkportfolio


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nach der Übernahme von Juniper Networks durch HPE klärte sich jetzt bei den HPE Networking Days, wie es im gemeinsamen Produktportfolio weiter geht. Die beiden separaten Portfolios hatten seit der Übernahme einige Kunden verunsichert, wie zukunftssicher Investitionen in HPE-Networking-Produkte aktuell sind. So gibt es für das Brot-und-Butter-Geschäft in Campus-Netzen im ehemaligen Juniper-Portfolio das Cloud-Netzwerkmanagementangebot Mist und HPE Aruba bietet dafür Central, das On-Premise oder in der Cloud betrieben werden kann. Sowohl Switche als auch WLAN Access Points sind jedoch bisher nicht cross-kompatibel.

Weiterlesen nach der Anzeige

Im Gespräch mit der iX-Redaktion erklärten Lars Hartmann, Vice President Sales Zentraleuropa, und Katja Herzog, Managing Director HPE Networking Deutschland, dass auf die nächsten fünf Jahre keine Abkündigung einer der beiden Plattformen angedacht ist. Beide sollen zunächst parallel betrieben werden.

Laut Aussagen von HPE Networking bauen sowohl Mist als auch Central auf einer Microservice-Architektur auf. Daher sollen Funktionen sukzessive als Mikroservices gegenseitig in die jeweils andere Plattform einfließen, sodass am Ende nahezu eine Feature-Parität bereitsteht. Für eine Übergangszeit könnte dies höhere Aufwände nach sich ziehen, dürfte aber einen validen Weg für die Kunden darstellen. Letztlich wird dann wohl alles in einer einzigen Plattform münden.

Für die übergangsweise Multi-Plattform-Strategie veröffentlicht HPE zudem eine ganze Serie an WLAN-Access-Points namens AP-72XH (AP-721H, AP-723H und AP-725H), die mit beiden Plattformen kompatibel sind. Davon ist aktuell jedoch nur der AP-723H verfügbar. Gleichzeitig sollen im nächsten Schritt auch die EX-Switche von Juniper in Central integriert werden.

Weiterlesen nach der Anzeige

Im Campus-Netz ist somit der Weg nun deutlicher, als noch kurz nach der Übernahme. Gleichzeitig hat Juniper für die Verwaltung von Rechenzentrumsnetzen das Produkt Apstra mitgebracht. Es dient als Intent-basiertes Verwaltungstool über den gesamten Lebenszyklus und bietet APIs und Integrationen in Automatisierungs-Frameworks, wie Terraform und Ansible. Zudem ist Apstra multivendorfähig und kann neben Juniper beispielsweise auch Switche von Cisco und Arista verwalten. HPE Aruba AOS-CX Switche bleiben jedoch außen vor und es gibt bisher auch noch keine konkreten Roadmaps, dass sich daran etwas ändert.

AOS-CX Rechenzentrumsswitche können derzeit zentral über den Aruba Fabric Composer (AFC) administriert werden, wobei diese Funktionalitäten sukzessive in Central wandern sollen. Ohnehin richten sich diese Switche auch nur an Kunden mit kleineren Rechenzentren. Junipers Rechenzentrumsswitch-Serie QFX kann hingegen alle RZ-Größen abdecken. Das deutet darauf hin, dass QFX mit Apstra als Verwaltungsplattform künftig den Vorzug erhält und die AOS-CX-Serie im Rechenzentrumsumfeld perspektivisch keine Rolle mehr spielen wird.

Über den Juniper-Zukauf hat sich HPE auch das Firewallportfolio SRX einverleibt. Dieses wird nun durch die SRX-4XX-Serie erweitert, die für Zweigstellen oder kleinere Standorte geeignet ist, aber das volle Feature-Set von SRX enthält. Bereits in diesem Jahr sollen SRX 400 und 440 lieferbar sein.

iX konnte ein Pre-Release der SRX 400 betrachten, die über 8 × 1G Kupfer verfügt, wobei zwei davon PoE+-Unterstützung bieten. Zusätzlich bietet sie auch zwei SFP-Einschübe. Alle Ports beherrschen MACsec-Verschlüsselung, Secure Boot, TPM 2.0 und können über Mist, Security Director oder CLI verwaltet werden.

Die 400er hat gemäß Präsentation von HPE einen L3/L4-Durchsatz von 1,2 Gbit/s und L7-Durchsatz von 0,9 Gbit/s. Die SRX 440 hat die gleichen physischen Ports, bietet jedoch einen höheren L3/L4-Durchsatz von 1,75 Gbit/s und L7-Durchsatz von bis zu 1,25 Gbit/s. Diese Modelle dürften vom Leistungsspektrum her viele klassische HPE Aruba Kunden ansprechen, sodass HPE dort nun als „One-Stop-Shop“ im Netzwerk für Switching, Routing und Firewall-Funktionen dienen kann.


(axk)



Source link

Weiterlesen

Künstliche Intelligenz

AMD: Schere zwischen Server und Consumer geht weiter auseinander


Ein ungewohnter Anblick im nachbörslichen Handel: Die AMD-Aktie steigt nach der Veröffentlichung des Geschäftsbericht am Dienstag um mehr als zehn Prozent, seit dem Tagestief sogar um 15 Prozent. Grund sind Zahlen, die über AMDs letzter Prognose und über den Erwartungen der Analysten liegen. Börsendämpfer nach Geschäftsberichten sind bei AMD eigentlich Tradition, was dem Unternehmen in manchen Foren den Spitznamen „Advanced Money Destroyer“ verschafft hat.

Weiterlesen nach der Anzeige

Knapp 10,3 Milliarden US-Dollar hat AMD im ersten Quartal 2026 umgesetzt. Die eigene Prognose zum Jahresanfang lag noch im Mittel bei 9,8 Milliarden US-Dollar. Analysten erwarteten nur unwesentlich mehr. Im aktuellen Quartal sollen es laut AMD im Mittel 11,2 Milliarden US-Dollar werden – Analysten rechneten hier mit einer Ankündigung von 10,5 Milliarden.

Im Jahresvergleich wächst AMDs Umsatz um 38 Prozent. Der Operativgewinn steigt um 83 Prozent auf knapp 1,5 Milliarden US-Dollar und der Nettogewinn um 95 Prozent auf 1,4 Milliarden US-Dollar.

Das Wachstum kommt primär von Serverprozessoren (Epyc) und KI-Beschleunigern (Instinct), die derzeit jedes Quartal weiter zulegen. Aktuell steht das Segment bei fast 5,8 Milliarden US-Dollar Umsatz, 57 Prozent mehr als noch ein Jahr zuvor.


Tabellarische Grafik zu AMDs Umsatz nach Segmenten

Tabellarische Grafik zu AMDs Umsatz nach Segmenten

AMDs Umsatz aufgeschlüsselt. Server-Hardware ist aufgrund der hohen Verkaufspreise besonders lukrativ.

(Bild: AMD)

Die Firmenchefin Lisa Su kommentiert: „Das Kundeninteresse an der MI450-Serie und Helios nimmt zu. Die Prognosen unserer wichtigsten Kunden übertreffen unsere ursprünglichen Erwartungen und dank einer wachsenden Zahl von Großprojekten gewinnen wir immer mehr Klarheit über unseren Wachstumskurs.“

MI450 steht für kommende KI-Beschleuniger, angeführt von der Instinct MI455X. Unter dem Namen Helios vermarktet AMD nach Nvidias Vorbild seine ersten eigenen kompletten Server-Racks, inklusive Netzwerktechnik der übernommenen Firma Pensando.

Weiterlesen nach der Anzeige

Ungewöhnlich gut stehen derweil auch Ryzen-Prozessoren und Radeon-Grafikkarten da. Das Segment Client and Gaming wächst im Jahresvergleich um 23 Prozent auf 3,6 Milliarden US-Dollar. Ryzen-CPUs machen davon 2,9 Milliarden aus, Grafikkarten und Konsolenchips 720 Millionen. Selbst im Vergleich zum traditionell starken vierten Quartal fällt die Sparte nur um 8,5 Prozent.

Marktanalysten beobachteten bereits aufgeblähte PC-Verkaufszahlen, weil sich Hersteller in Erwartung auf weiter steigende Speicherpreise mit Hardware eingedeckt haben. Davon dürfte AMD im ersten Quartal erheblich profitiert haben. Dieser Effekt ist allerdings einmalig: Aufgrund der Speicherkrise ist eine Umkehr zu erwarten.

Die Schere zwischen Server und Client geht allen Anzeichen nach in den nächsten Quartalen weiter auseinander. Mit Epyc-Prozessoren und KI-Beschleunigern dürfte AMD schon bald doppelt so viel Geld machen wie mit Ryzen und Radeon.

AMDs verdreifachter Cashflow zeigt derweil Besonderheiten. Zum einen hat AMD im ersten Quartal Lagerbestände im Wert von einer halben Milliarde US-Dollar abgebaut. Zum anderen muss AMD noch Verbindlichkeiten im Wert von über 700 Millionen US-Dollar bezahlen.

Für Forschung und Entwicklung gibt AMD seit dem Sommer 2025 kontinuierlich mehr Geld aus. Die Investitionen dafür sind im Jahresvergleich um 39 Prozent auf 2,4 Milliarden US-Dollar gestiegen.


(mma)



Source link

Weiterlesen

Beliebt