Künstliche Intelligenz
Android: Rückschlag für Google in Streit um Rekordstrafe der EU
Im Rechtsstreit um eine Rekordstrafe der EU müssen Android-Betreiber Google und dessen Holding Alphabet einen Rückschlag hinnehmen: Juliane Kokott, Generalanwältin am Europäischen Gerichtshof (EuGH), stützt die Rechtsansicht des EU-Gerichts (1. Instanz). Die Rechtsauffassung der Generalanwältin hat beim EuGH erhebliches Gewicht; der Gerichtshof muss ihr nicht folgen, tut es aber häufig. Kokott verweist zudem auf mehrere frühere Entscheidungen des EuGH, die gegen Googles Argumente sprechen. Damit schwinden Googles Chancen, die Strafe in Höhe von mehr als 4,12 Milliarden Euro wegen Marktmachtmissbrauchs mittels Android-Verträgen noch abzuwenden.
Die Vorgeschichte
Im Kern geht es um eine altbekannte, wettbewerbsfeindliche Methode: Ein Unternehmen nutzt seine Macht auf einem Markt aus, um sich Vorteile auf einem anderen Markt zu verschaffen. Die EU-Kommission hat bei Android gleich vier solche Vorgänge erkannt: Ab 2011 durften Gerätehersteller den App-Store Google Play nur noch dann installieren, wenn sie auch Googles Suche mitlieferten. Weil Android ohne Play damals nicht massenmarkttauglich war, soll diese Verknüpfung das Google zusätzliche Werbeeinnahmen bei der Suchmaschine beschert haben.
Zweitens verbat Google den Herstellern, parallel andere Android-Geräte ohne Google Play auf den Markt zu bringen. Hersteller, die nicht ausschließlich vergoogelte Geräte verkaufen wollten, durften gar keine Geräte mit Google verkaufen, was wirtschaftlich schlecht darstellbar war. Drittens schrieb Google ab 2012 zusätzlich die Installation des Webbrowsers Chrome vor.
Viertens beteiligte Google Mobilfunk-Anbieter sowie Gerätehersteller am Werbeumsatz, wenn sie auf definierten Geräteklassen ausschließlich Googles Suche installierten (portfolio-based Revenue Share Agreement). Erst im April 2014 reduzierte Google diese Klausel von einem Geräteportfolio auf das jeweilige Modell – ab diesem Zeitpunkt hatte die EU-Kommission auch kein Problem mit diesem Vertragsmodell.
Milliardenstrafe, etwas reduziert
Die EU-Kommission prüfte und fand, dass alle vier Vertragsmodelle dazu dienten, Googles Marktmacht mit Android als Hebel für andere Geschäftsbereiche, insbesondere die Suchmaschine und deren Werbeeinnahmen, zu nutzen. Also erlegte sie Google 2018 eine Redkordstrafe in Höhe von 4,34 Milliarden Euro wegen Marktmachtmissbrauchs im Europäischen Wirtschaftsraum (EWR) auf.
Google ergriff Rechtsmittel, zum Teil mit Erfolg: Das EU-Gericht erachtete die portfolio-based Revenue Share Agreements als zulässig und reduzierte die Strafe 2022 auf 4,12 Milliarden Euro. Während die EU-Kommission dieses Urteil akzeptierte, war Google der Teilerfolg zu wenig. Somit liegt der Fall nun beim EuGH.
Generalanwältin bestätigt
Zumindest bei der Generalanwältin fallen Googles Argumente gegen die Strafe allerdings nicht auf fruchtbaren Boden. Google verlangt eine Analyse, wie die Wettbewerbssituation ohne das beanstandete Verhalten ausgesehen hätte. Doch die deutsche Juristin hält die Feststellung des EU-Gerichts, dass die Vorinstallation von Suche und Chrome den Wettbewerb beeinträchtigt hat, für ausreichend. Wettbewerber konnten demnach gegen die vorinstallierten Anwendungen nicht ankommen.
Außerdem meint Google, der Vergleich solle sich nicht auf die tatsächlichen Wettbewerber beziehen, sondern auf einen hypothetischen Wettbewerber, der ebenso stark wie Google sei. Das ist aus Sicht Kokotts im vorliegenden Fall unrealistisch und würde das Verbot des Marktmachtmissbrauchs untergraben.
Schließlich kann die Generalanwältin weder Rechenfehler erkennen noch einen Fehler bei der Einstufung von Googles Vorgehen als fortgesetzte, einheitliche Zuwiderhandlung. Jetzt ist der EuGH am Zug (Rechtssache C-738/22 P).
(ds)
Künstliche Intelligenz
Steam nativ für Apple Silicon: Besser zocken auf dem Mac
Im November ist es so weit: Dann feiert Apple Silicon auf dem Mac seinen fünften Geburtstag. Gleichzeitig geht absehbar das Intel-Zeitalter bei Apple zu Ende: macOS 26 wird die letzte Version des Mac-Betriebssystems sein, die noch auf Rechnern mit dem alten Chip läuft. Umso verwunderlicher ist die Tatsache, dass der bekanntermaßen nicht kleine Softwarehersteller Valve es bislang nicht geschafft hat, seinen Gaming-Client Steam auf die ARM-Rechner von Apple zu portieren. Stattdessen verwendet dessen macOS-App seit Jahr und Tag immer noch Apples hauseigene x86-Übersetzungsschicht Rosetta 2. Doch auch bei der Valve Corporation ist man nun fortschrittsgläubig: Der Spielekonzern aus Bellevue, Washington, arbeitet an einer Apple-Silicon-Version von Steam für macOS.
Abstürze, aber weniger Lags
Die frohe Kunde verbreitet Valve auf seiner offiziellen Beta-Website. Denn noch ist der brandneue Client nicht final, sondern nur in einer Vorabversion erhältlich. Die erste Version des Steam-Clients, die nativ unter Apple Silicon läuft, erschien am 12. Juni. Wirklich stabil war die allerdings nicht: In der darauffolgenden Beta vom 16. Juni musste gleich ein erster Crash-Bug behoben werden, zwei Betas weiter dann (am 18. Juni, also gestern) eine Regression, die Updates verunmöglichte. Einzige Lösung dafür: App-Beendigung erzwingen und App neu starten.
Wann der Steam-Client final Apple-Silicon-nativ erscheint, ist bis dato nicht bekannt. Vorteile hat aber bereits die Beta: Sie startet deutlich schneller und selbst die Navigation durch die Anwendung, also Bibliothek und Valve-Store, ist responsiver. Intern handelt es sich übrigens um Chromium-Code, was die Portierung von x86 auf ARM eigentlich hätte erleichtern sollen, doch das war hier augenscheinlich nicht der Fall.
Beta darf getestet werden
Der Steam-Client dient nur dazu, neue Spiele zu finden und zu erwerben sowie dann zu installieren (gegebenenfalls extern) und zu verwalten. Die eigentlichen Games können wiederum ihre eigene Architektur nutzen.
Entsprechend sind glücklicherweise zahlreiche über Steam verfügbare Titel längst für Apple Silicon angepasst. Damit man den neuen Client einmal ausprobieren kann, muss man zunächst Teil des Betaprogramms werden. Das geht über die Einstellungen. Aber Obacht: Der Download ist über 200 MByte groß.
(bsc)
Künstliche Intelligenz
Warum humanoide Roboter ihre eigenen Sicherheitsregeln brauchen
Im vergangenen Jahr wurde erstmals ein humanoider Lagerroboter namens Digit für die Handhabung von Kartons bei der US-Firma Spanx eingesetzt. Digit kann Pakete mit einem Gewicht von bis zu 16 Kilogramm zwischen Rollwagen und Förderbändern heben und so seinen menschlichen Kollegen einige der schweren Aufgaben abnehmen. Er arbeitet in einem begrenzten, definierten Bereich, der durch Wände oder Lasersperren von den menschlichen Mitarbeitern getrennt ist.
Und das ist auch notwendig: Digit steht zwar normalerweise sicher auf seinen Roboterbeinen, es kommt aber auch vor, dass er stürzt. Dann funktioniert die charakteristische Rückwärtsbeugung seiner mechanischen Knie nicht. Auf einer Messe im März schien er beispielsweise über einen längeren Zeitraum geschickt Kartons zu transportieren. Dann brach der Humanoide plötzlich zusammen und landete auf dem Betonboden. Alles, was er gerade trug, fiel natürlich ebenfalls herunter.
Verletzungsgefahr durch humanoide Roboter
Das Risiko, dass solche Fehlfunktionen in der Nähe von Menschen auftreten, ist also durchaus vorhanden – und es kann gefährlich werden. Niemand möchte unter einer 1,80 Meter großen und 65 Kilogramm schweren Maschine begraben werden. Dass ein Roboterarm versehentlich auf eine empfindliche Körperstelle trifft, wäre ebenfalls sehr unangenehm. „Die Kehle ist ein gutes Beispiel“, sagt Pras Velagapudi, Chief Technology Officer von Agility Robotics, dem Hersteller von Digit. „Wenn ein Roboter die treffen würde, selbst mit dem Bruchteil der Kraft, die er zum Tragen einer 22 Kilogramm schweren Tragetasche benötigt, könnte er eine Person schwer verletzen.“
Physische Stabilität humanoider Roboter – also die Fähigkeit, nicht umzukippen – gehört dementsprechend zu den wichtigsten Sicherheitsanliegen eines Projekts, das neue Standards für humanoide Roboter erarbeitet. Die Humanoid Study Group der Ingenieursorganisation IEEE argumentiert, dass sich Humanoide in wesentlichen Punkten von anderen Automaten wie Industrierobotern oder bestehenden mobilen Robotiksystemen unterscheiden. Sie machen daher neue Standards notwendig, um die Sicherheit von Bedienpersonal, Endnutzern und der Öffentlichkeit zu gewährleisten.
Die Gruppe hat ihre Ergebnisse gegenüber der US-Ausgabe von MIT Technology Review erstmals öffentlich vorgestellt und plant, ihren vollständigen Bericht im Laufe des Sommers zu veröffentlichen. Darin werden verschiedene Herausforderungen identifiziert, darunter physische und psychosoziale Risiken sowie Fragen wie Datenschutz und Sicherheit, die den Experten zufolge von Normungsorganisationen angegangen werden müssen. Und zwar bevor Humanoide in mehr industriellen Szenarien eingesetzt werden, als das bisher geschieht.
Humanoide Roboter müssen „dynamisch stabil“ sein
Die Systeme machen derzeit erste vorsichtige Schritte in Richtung Produktiveinsatz. Ultimatives Ziel ist eine enge Zusammenarbeit mit Menschen. Ein Grund dafür, Roboter überhaupt menschenähnlich zu gestalten, ist, dass sie sich so leichter in den von uns geschaffenen Umgebungen zurechtfinden. Das bedeutet, dass sie in der Lage sein müssen, einen Raum mit Menschen zu teilen und nicht nur hinter Schutzbarrieren zu bleiben. Aber zuerst muss sichergestellt werden, dass sie keine Gefahr darstellen.
Ein charakteristisches Merkmal von Humanoiden ist, dass sie „dynamisch stabil“ sein müssen, sagt Aaron Prather, Direktor bei der Normungsorganisation ASTM International und Vorsitzender der IEEE-Expertengruppe. Das bedeutet, dass sie Energie benötigen, um aufrecht bleiben zu können. Sie üben Kraft über ihre Beine (oder andere Gliedmaßen) aus, um das Gleichgewicht zu halten. „In der traditionellen Robotik drückt man bei einem Problem den kleinen roten Knopf, die Stromversorgung wird unterbrochen und der Roboter bleibt stehen“, sagt Prather. „Bei einem Humanoiden geht das nicht wirklich.“ Wenn man das tut, fällt der Roboter wahrscheinlich um – was ein noch größeres Risiko darstellen kann, als ihn weiterlaufen zu lassen.
Aber wie könnte eine Sicherheitsfunktion aussehen, die keine Notbremsung ist? Agility Robotics führt in der neuesten Version von Digit einige neue Funktionen ein, um das Problem des Umkippens zu beheben. Anstatt sofort die Stromversorgung zu unterbrechen (und wahrscheinlich umzufallen), könnte der Humanoide beispielsweise sanft abbremsen, wenn eine Person zu nahe kommt. „Der Roboter muss eine bestimmte Zeit bekommen, um sich in einen sicheren Zustand zu versetzen“, sagt Velagapudi. Vielleicht legt er alles, was er gerade trägt, zuerst ab und geht auf Hände und Knie, bevor er sich ausschaltet.
Verschiedene Roboter könnten das Problem auf unterschiedliche Weise lösen. „Wir wollen nur das Ziel standardisieren, nicht den Weg dorthin“, sagt Federico Vicentini, Leiter der Produktsicherheit bei Boston Dynamics. Vicentini leitet eine Arbeitsgruppe der Internationalen Organisation für Normung (ISO), die ebenfalls einen neuen Standard für die Sicherheit von Industrierobotern entwickelt, die zur Aufrechterhaltung ihrer Stabilität aktiv gesteuert werden müssen (auch Experten von Agility Robotics sind beteiligt). Die Idee ist, klare Sicherheitsanforderungen festzulegen, ohne die Innovationsfreiheit der Roboter- und Komponentenhersteller einzuschränken: „Wie das Problem gelöst wird, bleibt dem Konstrukteur überlassen.“ Der Versuch, universelle Standards festzulegen und gleichzeitig die Gestaltungsfreiheit zu wahren, kann jedoch Herausforderungen mit sich bringen. Zunächst einmal: Wie definiert man überhaupt einen humanoiden Roboter? Muss er Beine haben? Arme? Einen Kopf?
„Eine unserer Empfehlungen lautet, den Begriff ‚Humanoid‘ vielleicht ganz fallen zu lassen“, sagt Prather. Seine Gruppe befürwortet ein Klassifizierungssystem für humanoide Roboter, das deren Fähigkeiten, Verhalten und Verwendungszweck berücksichtigt und nicht ihr Aussehen. Die ISO-Norm, an der Vicentini arbeitet, bezieht sich auf alle industriellen mobilen Roboter „mit aktiv gesteuerter Stabilität“. Dies würde sowohl für den vierbeinigen Spot von Boston Dynamics gelten als auch für den zweibeinigen humanoiden Atlas und könnte ebenso Roboter mit Rädern oder einer anderen Art von Mobilitätskomponente umfassen.
Wie spricht man mit einem Roboter?
Abgesehen von Fragen der physischen Sicherheit, stellen Humanoide auch eine Herausforderung für die Kommunikation dar. Wenn sie sich den Raum mit Menschen teilen sollen, müssen sie erkennen, wenn jemand ihren Weg kreuzt. Sie müssen ihre eigenen Absichten so kommunizieren, dass jeder verstehen kann, was sie gerade tun. Das ist ähnlich wie beim Auto mit Bremslicht und Blinker. Digit verfügt bereits über Lichter, die seinen Status und seine Fahrtrichtung anzeigen, sagt Velagapudi, aber es brauche noch bessere Anzeigen, wenn er kooperativ und letztlich kollaborativ mit Menschen zusammenarbeiten soll. „Wenn Digit vor Ihnen in einen Gang hineinläuft, möchten Sie davon nicht überrascht werden“, sagt er. Der Roboter könnte Sprachausgaben nutzen, aber Audio allein ist in einer lauten Industrieumgebung nicht praktikabel. Noch verwirrender könnte es werden, wenn sich mehrere Roboter im selben Raum befinden – welcher versucht gerade, unsere Aufmerksamkeit zu erregen?
Es gibt auch einen psychologischen Effekt, der Humanoide von anderen Robotertypen unterscheidet, sagt Prather. Wir vermenschlichen Roboter, die wie wir aussehen. Das ist ganz natürlich, was dazu führen kann, dass wir ihre Fähigkeiten überschätzen und frustriert sind, wenn sie diese Erwartungen nicht erfüllen. „Manchmal lassen wir in puncto Sicherheit nach oder die Erwartungen an das, was der Roboter leisten kann, sind im Vergleich zur Realität zu hoch“, sagt er. Diese Probleme sind besonders gravierend, wenn Roboter Aufgaben übernehmen sollen, die normalerweise menschliche Emotionen oder die Unterstützung schutzbedürftiger Menschen erfordern. Der IEEE-Bericht empfiehlt, dass die Standards Bewertungsmaßstäbe für die „emotionale Sicherheit“ und Richtlinien zur „Minderung von psychischem Stress oder Entfremdung“ enthalten sollten.
Um den Bericht zu erstellen, führte Greta Hilburn, Expertin für User-Centric Design an der US Defense Acquisition University, Umfragen unter einer Vielzahl von Nicht-Ingenieuren durch, um ein Gefühl für deren Erwartungen an humanoide Roboter zu bekommen. Die überwiegende Mehrheit der Befragten wünschte sich Roboter, die Gesichtsausdrücke haben, Mikroexpressionen lesen und zur Kommunikation Gesten, Sprache und Haptik einsetzen können. „Sie wollen also alles – etwas, das es noch nicht gibt“, sagt sie. Das richtige Design der Mensch-Roboter-Interaktion könnte entscheidend sein, wenn Humanoide aus industriellen Bereichen in andere Kontexte wie Krankenhäuser, Altenpflegeeinrichtungen oder Privathaushalte vordringen. Dies ist besonders wichtig für Roboter, die mit schutzbedürftigen Bevölkerungsgruppen kooperieren sollen, sagt Hilburn. Es könne großer Schaden entstehen, wenn ein Roboter falsch kommuniziert, insbesondere im Kontext mit Kindern oder älteren Menschen.
Die Empfehlungen der IEEE-Gruppe umfassen unter anderem Eingriffsmöglichkeiten für Benutzer, die Standardisierung einiger visueller und akustischer Signale und die Anpassung des Aussehens eines Roboters an seine Fähigkeiten, um die Benutzer nicht zu verwirren. Wenn ein Roboter menschlich aussieht, erwarten die Menschen inzwischen laut Prather, dass er in der Lage ist, eine Unterhaltung zu führen und eine gewisse emotionale Intelligenz zu zeigen. Wenn er hingegen nur grundlegende mechanische Aufgaben ausführen kann, könnte dies zu Frustration und Vertrauensverlust führen.
Ein Roboter ist keine Selbstbedienungskasse
„Denken Sie an Selbstbedienungskassen“, sagt er. „Niemand erwartet, dass sie mit Ihnen plaudern oder Ihnen beim Einkaufen helfen, denn sie sind eindeutig Maschinen. Aber wenn sie wie freundliche Mitarbeiter aussehen und dann nur wiederholen: ‚Bitte scannen Sie den nächsten Artikel‘, würden sich die Leute ärgern.“
Prather und Hilburn betonen beide die Notwendigkeit der Inklusivität und Anpassungsfähigkeit, wenn es um die Interaktion zwischen Mensch und Roboter geht. Kann ein Roboter mit gehörlosen oder blinden Menschen kommunizieren? Kann er sich darauf einstellen, etwas länger zu warten, wenn Menschen mehr Zeit für eine Antwort benötigen? Versteht er verschiedene Akzente?
Möglicherweise müssen auch unterschiedliche Standards für Roboter festgelegt werden, die in unterschiedlichen Umgebungen eingesetzt werden, sagt Prather. Ein Roboter, der in einer Fabrik neben Menschen arbeitet, die für die Interaktion mit ihm geschult sind, ist eine Sache. Aber ein Roboter, der im Haushalt helfen oder mit Kindern in einem Freizeitpark interagieren soll, ist etwas anderes. Mit einigen allgemeinen Grundregeln sollte die Öffentlichkeit jedoch in der Lage sein, zu verstehen, was Roboter tun, wo immer sie ihnen begegnen. Es gehe nicht darum, Vorschriften zu machen oder Innovationen zu bremsen, sagt er, sondern darum, einige grundlegende Richtlinien festzulegen, damit Hersteller, Regulierungsbehörden und Endnutzer alle wissen, was sie zu erwarten haben: „Wir sagen, dass Mindestanforderungen erfüllt sein müssen – und wir sind uns alle einig, dass alles darunter schlecht ist.“
Der IEEE-Bericht soll eine Aufforderung zum Handeln für Normungsorganisationen wie Vicentinis ISO-Gruppe sein, um mit der Festlegung dieser Mindestanforderungen zu beginnen. So jung die Branche auch ist: Standards helfen Herstellern, Vertrauen in ihre Produkte aufzubauen und sie leichter auf internationalen Märkten zu verkaufen. Und Regulierungsbehörden stützen sich oft auf sie, wenn sie ihre eigenen Vorschriften erlassen. Angesichts der Vielfalt der Akteure in diesem Bereich wird es aber nicht einfach, Regeln zu schaffen, auf die sich alle einigen können, sagt Vicentini. „Wenn alle gleichermaßen unzufrieden sind, wäre das aber schon gut genug“.
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)
Künstliche Intelligenz
Kassenärzte starten Informationskampagne für IT-Sicherheit in Arztpraxen
Die Kassenärztliche Bundesvereinigung (KBV) will für mehr IT-Sicherheit in Arztpraxen sorgen und geht daher Anfang Juli in die Informationsoffensive. Helfen sollen regelmäßige Informations- und Schulungsangebote zum Schutz vor Cyberkriminalität. Das Themenspektrum reicht laut KBV vom Umgang mit Phishing-Mails über „sichere Passwörter, Virenschutz, Software-Updates und das Nutzen einer Cloud bis hin zum Basisschutz der Praxis-IT oder was bei einem Sicherheitsvorfall zu tun ist“. Gerade mit Blick auf die Anbindung an die Telematikinfrastruktur (TI), die für den sicheren Austausch von Gesundheitsdaten gedacht ist, müssen Praxen für IT-Sicherheit sensibilisiert werden.
Mehr Schulungen für Cybersicherheit
IT-Sicherheit wird bei der Kassenärztlichen Bundesvereinigung groß geschrieben.
(Bild: KBV)
Für mehr IT-Sicherheit hatte die KBV kürzlich ihre IT-Sicherheitsrichtlinie aktualisiert, die seitdem auch vorsieht, das Sicherheitsbewusstsein in Arztpraxen zu stärken. „Wir sind gesetzlich verpflichtet, Anforderungen zur Gewährleistung der IT-Sicherheit in Praxen in einer Richtlinie festzulegen und diese regelmäßig anzupassen“, sagte Steiner.
„Die Bedrohung der IT-Sicherheit wächst weltweit. Auch die ärztlichen und psychotherapeutischen Praxen sind davon betroffen und müssen ihre IT vor unberechtigten Zugriffen schützen“, sagte KBV-Vorstandsmitglied Dr. Sibylle Steiner. Das Heft „IT-Sicherheit“ (PDF) soll dabei einen kompakten Einstieg bieten, es gibt allerdings noch weitere Informationen und Musterdokumente – etwa ein Beispiel für eine Verschwiegenheitserklärung für Mitarbeiter und externe Dienstleister.
Pflege fordert IT-Sicherheit und nutzerfreundliche TI-Produkte
Auch der Deutsche Pflegerat (DPR) fordert „klare gesetzliche Vorgaben“ für die IT-Sicherheit in der Pflege. Er sieht aufgrund zunehmender Cyberangriffe und wachsender Digitalisierung ebenfalls dringenden Handlungsbedarf, um Pflegeeinrichtungen besser vor Angriffen zu schützen. „Auch außerhalb der KRITIS-Kategorien geraten Akteure des Gesundheitswesens, darunter Pflegeeinrichtungen, vermehrt ins Visier – etwa durch Ransomware, DDoS-Angriffe (Distributed Denial of Service) oder Social Engineering“, heißt es im Thesenpapier.
„Mit der geplanten Anbindung der Pflegeeinrichtungen an die Telematikinfrastruktur und somit einem höheren Grad der IT-Durchdringung ist es umso wichtiger branchenspezifische Sicherheitsstandards […] für die ‚Pflegerische Versorgung‘ zu definieren“. Zudem müssen die IT-Hersteller laut DPR zu zertifizierten Sicherheitsstandards verpflichtet werden. Mit der Umsetzung der EU-Richtlinie NIS2 und dem Cyber Resilience Act werde sich der Markt für IT-Lösungen neu strukturieren und bereinigen.
IT-Sicherheit nicht dem Zufall überlassen
„Die Pflege braucht verbindliche und branchenspezifische IT-Sicherheitsstandards. Es darf nicht länger dem Zufall überlassen bleiben, wie gut Pflegeeinrichtungen gegen Cyberangriffe geschützt sind“, sagte Thomas Meißner, Leiter der DPR-Fachkommission „Digitalisierung in der Pflege“. Die Forderungen sollten nach Sicht des DPR gesetzlich im Gesundheitsdatennutzungsgesetz (GDNG) und im Digitale-Versorgung-und-Pflege-Modernisierungsgesetz (DVPMG) verankert werden.
Außerdem will die Pflege selbst definieren, was als Stand der Technik gilt. „Pflegeeinrichtungen brauchen praxistaugliche, sichere Produkte […]. Dies trägt zudem zur Marktbereinigung bei, da minderwertige oder unsichere Produkte auf Dauer ausgeschlossen werden“. Zumindest in Arztpraxen und Krankenhäusern gibt es regelmäßig Kritik über die fehlende Nutzerfreundlichkeit der Anwendungen. Bald muss auch die Pflege an die Telematikinfrastruktur angeschlossen sein, doch bisher sieht es nicht so aus, dass bis Anfang Juli die Anforderungen erfüllt sind.
(mack)
-
Online Marketing & SEOvor 1 Woche
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
Digital Business & Startupsvor 7 Tagen
Von Peter Thiel finanziertes Krypto-Startup Bullish will an die Börse
-
Social Mediavor 5 Tagen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Online Marketing & SEOvor 7 Tagen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen
-
UX/UI & Webdesignvor 6 Tagen
Wie gelingt eine einwandfreie Zusammenarbeit?
-
Künstliche Intelligenzvor 1 Woche
Amazon soll Werbung bei Prime Video verdoppelt haben
-
UX/UI & Webdesignvor 7 Tagen
Kunst & KI begleitet die Münchner Standort-Eröffnung › PAGE online
-
Künstliche Intelligenzvor 1 Woche
Telemedizin: Patientenversorgung braucht einfach zugängliche Kommunikationswege