Künstliche Intelligenz
LeakBase: Russland verhaftet den mutmaßlichen Betreiber des Datenleak-Forums
Die russische Polizei verhaftete am Mittwoch den mutmaßlichen Betreiber des Cybercrime-Forums LeakBase. Das meldete die staatliche russische Nachrichtenagentur TASS mit Verweise auf russische Strafverfolgungsbehörden.
Weiterlesen nach der Anzeige
Der Festgenommene aus der südrussischen Hafenstadt Taganrog am Asowschen Meer, unweit der Grenze zur Ukraine, steht laut den Behörden im Verdacht, „eine der größten internationalen Hackerplattformen, LeakBase“, betrieben zu haben. Dem TASS-Bericht zufolge erklärte eine Sprecherin des russischen Innenministeriums, dass Beamte des Büros für besondere technische Maßnahmen des Innenministeriums zusammen mit Kollegen aus der Region Rostow den Einwohner von Taganrog, dessen Name nicht veröffentlicht wurde, wegen des Verdachts der Erstellung und des Betriebs einer der größten internationalen Cyberkriminalitätsplattformen festgenommen haben.
Europäische Ermittlungsbehörden waren nicht involviert. „Wir kooperieren nicht mit russischen Behörden und waren an der gemeldeten Verhaftung nicht beteiligt“, sagte Europol-Sprecherin Claire Georges gegenüber dem US-amerikanischen Tech-Portal TechCrunch, das über die Festnahme mit Verweis auf TASS berichtete.
Mit mehr als 142.000 Mitgliedern galt die LeakBase-Datenbank als eines der weltweit größten Online-Foren für Cyberkriminelle zum Kauf und Verkauf gestohlener Daten und Tools für Cyberangriffe. Ermittlungsbehörden aus 14 Ländern, darunter Deutschland, unter Leitung von Europol schalteten LeakBase Anfang März ab und beschlagnahmten die dazugehörigen Domains. Mehrere Personen wurden bei den Razzien in mehreren Ländern festgenommen.
Das seit 2021 aktive und öffentlich zugängliche englischsprachige Forum LeakBase verfügte nach Angaben der Ermittler über ein ständig aktualisiertes Archiv gestohlener Datenbanken mit Hunderten Millionen Zugangsdaten. Die Plattform ermöglichte es Usern, Informationen aus diesen gestohlenen Datenbanken zu verkaufen, darunter Kredit- und Debitkartennummern und sensible Geschäfts- und personenbezogene Daten.
(akn)
Künstliche Intelligenz
Fixen statt schrotten: Bundesregierung bringt „Recht auf Reparatur“ auf den Weg
Die Bundesregierung will Schluss machen mit einer vernetzten Gerätewelt, in der das Smartphone bei einem Displaybruch oft direkt zum Elektroschrott wandert und die Waschmaschine nach dem ersten Lagerschaden als Totalausfall gilt. Das Bundeskabinett hat dazu am Mittwoch den Regierungsentwurf für ein Gesetz zur Förderung der Reparatur von Waren auf den Weg gebracht. Er soll eine weitreichende EU-Richtlinie, bei der Deutschland eher bremste, in hiesiges Recht überführen und geht nun in den Bundestag und den Bundesrat.
Weiterlesen nach der Anzeige
Ziel ist es, eine nachhaltige Kreislaufwirtschaft zu etablieren. Hersteller werden damit erstmals in die Pflicht genommen, ihre Produkte über viele Jahre hinweg instand zu setzen, anstatt Verbraucher zum Neukauf zu drängen.
Herzstück der geplanten Neuregelung ist eine Reparaturverpflichtung für Hersteller bestimmter technischer Produktgruppen wie Smartphones, Tablets, Geschirrspüler und Kühlschränke. Die Fristen sind beachtlich: Für große weiße Ware wie Waschmaschinen oder Trockner ist eine Reparaturpflicht von mindestens zehn Jahren vorgesehen. Smartphones müssen mindestens sieben Jahre lang reparierbar bleiben. Entscheidend ist, dass diese Zeiträume erst in dem Moment zu laufen beginnen, in dem die Produktion des jeweiligen Modells eingestellt wird. Hersteller können sich dieser Pflicht künftig nur entziehen, wenn eine Reparatur faktisch unmöglich ist.
Ersatzteile zu fairen Preisen und Software-Offenheit
Die Bundesregierung will die Hürden für eine Instandsetzung senken und deshalb vorschreiben, dass Ersatzteile und Werkzeuge zu angemessenen Preisen angeboten werden. Hohe Kostenvoranschläge, die Verbraucher gezielt vom Reparieren abschrecken könnten, sollen der Vergangenheit angehören. Zudem sieht der Entwurf ein Verbot für softwareseitige Sperren oder technische Schutzmaßnahmen vor, die eine Reparatur behindern. Das gilt ausdrücklich auch für unabhängige Werkstätten oder die Nutzung von kompatiblen Ersatzteilen sowie 3D-Druck-Komponenten, sofern keine zwingenden Sicherheitsgründe dagegensprechen.
Lesen Sie auch
Auch im klassischen Gewährleistungsrecht soll es Änderungen geben, um den Trend zum schnellen Austausch zu stoppen. Bisher entscheiden sich viele Kunden bei einem Defekt innerhalb der ersten zwei Jahre lieber für ein Neugerät, da die Reparatur oft Zeit kostet. Hier will die Regierung einen handfesten Anreiz schaffen: Wer sich im Falle eines Mangels für eine Instandsetzung statt für eine Neulieferung entscheidet, profitiert von einer Verlängerung der Gewährleistungsfrist um zwölf Monate. Die ursprüngliche Zeitspanne von zwei Jahren wächst damit auf drei Jahre an, was das Vertrauen in die Langlebigkeit reparierter Waren stärken soll.
Reparierbarkeit als Qualitätsmerkmal
Weiterlesen nach der Anzeige
Ferner wird dem Plan nach die Reparierbarkeit selbst zum rechtlich relevanten Qualitätsmerkmal erhoben. Lässt sich ein Produkt nicht reparieren, obwohl dies bei einer Ware dieser Art üblicherweise erwartet werden kann, liegt künftig ein Sachmangel vor. Dies soll Kunden eine zusätzliche rechtliche Handhabe gegenüber den Verkäufern geben. Um die Transparenz zu erhöhen, wird zudem ein freiwilliges europäisches Informationsformular eingeführt. Betriebe, die dieses nutzen, müssen darin verbindliche Angaben zu Preis und Dauer der Reparatur machen, an die sie 30 Tage lang gebunden sind.
Die neuen Vorgaben sollen spätestens bis zum 31. Juli 2026 vollständig in Kraft treten. Für die Industrie bedeutet das eine Umstellung: Sie muss nicht nur Ersatzteillager vorhalten, sondern auch die notwendige Service-Infrastruktur ausbauen.
Bundesjustizministerin Stefanie Hubig (SPD) unterstrich: Reparieren müsse leichter und attraktiver werden, um Umwelt und Geldbeutel zu schonen. Mit der 1:1-Umsetzung der EU-Vorgaben gehe Deutschland einen wichtigen Schritt in Richtung Reparaturgesellschaft. Verbraucherschützer forderten angesichts des vorherigen Referentenentwurfs dagegen: Reparieren sollte noch einfacher, schneller und bezahlbarer werden. Das Vorhaben reiche dafür nicht aus.
(afl)
Künstliche Intelligenz
Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten
Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.
Weiterlesen nach der Anzeige
Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.
Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.
Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.
Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.
Datenintegrationszentren
Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.
Weiterlesen nach der Anzeige
Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.
Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.
Personalisierte Onkologie
Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.
Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.
Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.
In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.
Zusammenarbeit zwischen Wirtschaft und Wissenschaft
Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.
Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.
Lesen Sie auch
(mack)
Künstliche Intelligenz
Prozess um Social-Media-Sucht: US-Jury spricht Meta und Google schuldig
In einem wegweisenden Prozess um Social-Media-Sucht hat eine Jury in Los Angeles die US-Konzerne Google und Meta zu Schadensersatz in Höhe von drei Millionen US-Dollar verurteilt. Die Schadensersatzsumme könnte sich im Nachgang noch erhöhen. Vor allem aber dürfte das Verdikt richtungsweisend für Tausende ähnlicher Verfahren gegen Tech-Unternehmen sein.
Weiterlesen nach der Anzeige
Nach neun Verhandlungstagen entschieden die kalifornischen Geschworenen, dass Googles YouTube und Metas Instagram bei der Gestaltung oder dem Betrieb ihrer Plattformen fahrlässig gehandelt hätten. Die Fahrlässigkeit der beiden Unternehmen sei zudem ein wesentlicher Faktor für den von der Klägerin geltend gemachten Schaden. Das berichtete am Mittwoch unter anderem die US-amerikanische Nachrichtenagentur Associated Press (AP).
„Unendliches Scrollen“ als Suchtfaktor
Geklagt hatte eine heute 20-jährige Frau, die in dem Verfahren nur unter den Initialen KGM auftrat. Sie gab an, durch die Nutzung sozialer Medien und aufgrund der speziellen Designs von YouTube und Instagram in jungen Jahren süchtig geworden zu sein und ihre psychischen Probleme hätten sich verschlimmert. Die Frau fing nach eigenen Angaben bereits als Kind an, die Plattformen zu nutzen. Dies habe zu Depressionen und Angstzuständen geführt. Die Online-Plattformen hätten ihre Dienste extra so gestaltet, dass Nutzer danach süchtig werden, argumentierte sie. Dabei geht es zum Beispiel um die Funktion, bei der man immer zum nächsten Beitrag weiterscrollen kann, sogenanntes „unendliches Scrollen“.
Meta argumentierte in dem Verfahren, dass die Klägerin unabhängig von ihrer Social-Media-Nutzung mit psychischen Problemen zu kämpfen hatte. Keiner ihrer Therapeuten habe Social Media als Ursache ihrer psychischen Probleme identifiziert. Die Klägerin musste laut AP jedoch nicht beweisen, dass Social Media ihre Probleme verursacht habe – es genügte, dass es ein „wesentlicher Faktor“ für ihren Schaden war. Die YouTube-Anwälte argumentierten wiederum, dass YouTube keine Form von Social Media, sondern eine Videoplattform ähnlich dem Fernsehen sei. Sie verwiesen auf den abnehmenden YouTube-Konsum mit zunehmendem Alter der Klägerin. Die Anwälte beider Plattformen verwiesen zudem auf die Sicherheitsfunktionen, die Nutzern zur Verfügung stehen, um die eigene Nutzung zu überwachen und anzupassen.
Argumentation der Klägerin überzeugt die Jury
Zehn der zwölf Geschworenen jedoch erachteten die Argumente der Klägerseite für plausibel und hielten die Plattformen für haftbar. Meta und YouTube wussten, dass die Gestaltung bzw. Funktionsweise ihrer Plattformen gefährlich war und Minderjährige durch die Nutzung wahrscheinlich gefährdet sein würden, so das Urteil. Auch hätten die Plattformen nicht ausreichend vor der Gefahr gewarnt, was den Schaden der Klägerin zusätzlich vergrößert habe, beschieden die Geschworenen. Ihrer Ansicht nach trägt Meta mit 70 Prozent den größeren Teil der Verantwortung, YouTube die übrigen 30 Prozent. TikTok und Snapchat, die ebenfalls verklagt worden waren, hatten noch vor Prozessbeginn eine außergerichtliche Einigung geschlossen.
Die Klägerseite zeigte sich naturgemäß erfreut über das Urteil der Geschworenen. „Das heutige Urteil ist ein Referendum – von einer Jury an eine ganze Branche –, dass Verantwortlichkeit nun Realität ist“, erklärte der Hauptanwalt der Klägerseite in einer Stellungnahme. Die Anwälte von Meta dagegen erklärten, die rechtlichen Möglichkeiten für einen Einspruch gegen das Urteil zu prüfen, so ein Unternehmenssprecher gegenüber der Nachrichtenagentur Reuters. Google gab zunächst keinen Kommentar ab.
Weiterlesen nach der Anzeige
Präzedenzfall für weitere Verfahren
Das Urteil gilt Beobachtern als Präzedenzfall für Tausende ähnlicher Klagen gegen Social-Media-Unternehmen, in denen es um die Sicherheit von Kindern und Jugendlichen geht und die Frage, ob die Unternehmen ihre Nutzer süchtig machen und Inhalte verbreiten, die zu Depressionen, Essstörungen oder Suizid führen. Der US-Kongress hat es nach Angaben von Reuters abgelehnt, ein umfassendes Gesetz zur Regulierung sozialer Medien zu verabschieden, weshalb sich die Debatte auf Gerichte und die Regierungen der Bundesstaaten verlagert habe. Immer mehr US-Bundesstaaten erlassen Gesetze zum Umgang mit sozialen Medien durch Kinder. Diese Gesetze beinhalten unter anderem Regelungen zur Handynutzung in Schulen und verpflichten Nutzer zur Altersverifizierung bei der Eröffnung eines Social-Media-Kontos.
Strengere Regeln für die Social-Media-Nutzung von Minderjährigen werden nach dem australischen Social-Media-Verbot für unter16-Jährige auch in Deutschland verstärkt diskutiert. Die Bundes-CDU beschloss im Februar, ein Mindestalter von 14 für soziale Medien wie TikTok und Instagram zum Schutz von Kindern und Jugendlichen einführen zu wollen. Auch Koalitionspartner SPD zeigt sich offen für ein Social-Media-Verbot für Kinder unter 14. Bundesbildungsministerin Karin Prien erwartet derweil rasch europäische Vorschriften für Tech-Konzerne, um den Zugang von Kindern und Jugendlichen zu sozialen Medien einzuschränken.
(akn)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 2 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
