Künstliche Intelligenz
LeakBase: Russland verhaftet den mutmaßlichen Betreiber des Datenleak-Forums
Die russische Polizei verhaftete am Mittwoch den mutmaßlichen Betreiber des Cybercrime-Forums LeakBase. Das meldete die staatliche russische Nachrichtenagentur TASS mit Verweise auf russische Strafverfolgungsbehörden.
Weiterlesen nach der Anzeige
Der Festgenommene aus der südrussischen Hafenstadt Taganrog am Asowschen Meer, unweit der Grenze zur Ukraine, steht laut den Behörden im Verdacht, „eine der größten internationalen Hackerplattformen, LeakBase“, betrieben zu haben. Dem TASS-Bericht zufolge erklärte eine Sprecherin des russischen Innenministeriums, dass Beamte des Büros für besondere technische Maßnahmen des Innenministeriums zusammen mit Kollegen aus der Region Rostow den Einwohner von Taganrog, dessen Name nicht veröffentlicht wurde, wegen des Verdachts der Erstellung und des Betriebs einer der größten internationalen Cyberkriminalitätsplattformen festgenommen haben.
Europäische Ermittlungsbehörden waren nicht involviert. „Wir kooperieren nicht mit russischen Behörden und waren an der gemeldeten Verhaftung nicht beteiligt“, sagte Europol-Sprecherin Claire Georges gegenüber dem US-amerikanischen Tech-Portal TechCrunch, das über die Festnahme mit Verweis auf TASS berichtete.
Mit mehr als 142.000 Mitgliedern galt die LeakBase-Datenbank als eines der weltweit größten Online-Foren für Cyberkriminelle zum Kauf und Verkauf gestohlener Daten und Tools für Cyberangriffe. Ermittlungsbehörden aus 14 Ländern, darunter Deutschland, unter Leitung von Europol schalteten LeakBase Anfang März ab und beschlagnahmten die dazugehörigen Domains. Mehrere Personen wurden bei den Razzien in mehreren Ländern festgenommen.
Das seit 2021 aktive und öffentlich zugängliche englischsprachige Forum LeakBase verfügte nach Angaben der Ermittler über ein ständig aktualisiertes Archiv gestohlener Datenbanken mit Hunderten Millionen Zugangsdaten. Die Plattform ermöglichte es Usern, Informationen aus diesen gestohlenen Datenbanken zu verkaufen, darunter Kredit- und Debitkartennummern und sensible Geschäfts- und personenbezogene Daten.
(akn)
Künstliche Intelligenz
Switch 2: Nintendo streicht offenbar die Produktion zusammen
Nintendo plant einem Bericht zufolge, die Produktion der Switch 2 stark zu drosseln, nachdem das Unternehmen seine für das Weihnachtsgeschäft 2025 prognostizierten Absatzzahlen nicht erreicht hat. Wie Bloomberg berichtet, soll der japanische Hersteller die Produktion im laufenden Quartal von 6 Millionen auf 4 Millionen Einheiten senken. Das entspricht einer Reduzierung um ein Drittel gegenüber dem ursprünglichen Plan. Auch im April will Nintendo demnach weniger produzieren als bisher geplant.
Weiterlesen nach der Anzeige
Switch 2 mit Rekordstart
Die Nintendo Switch 2 legte im Juni 2025 zunächst einen rekordverdächtigen Start mit 3,5 Millionen verkauften Einheiten in den ersten vier Tagen hin. Das entsprach rund 800.000 Einheiten mehr, als die ursprüngliche Switch in ihrem ersten Monat verkauft wurde. Nintendo hatte seine Verkaufsprognose deshalb von 15 Millionen Konsolen auf 19 Millionen Stück angehoben. Doch danach konnten die Verkaufszahlen der Switch 2 die hohen Erwartungen nicht erfüllen. Während laut Bloombergs Quellen die Nachfrage nach einer preisgünstigeren, aber weniger profitablen Variante in Japan weiterhin stark ist, habe der Absatz vor allem in den USA nicht an diesen anhaltenden Erfolg anknüpfen können.
So fiel die Nintendo-Aktie in Tokio um bis zu 6,3 Prozent und verzeichnete damit den stärksten Tagesverlust seit dem 4. Februar 2026. Der Kurs sank vorübergehend auf 8835 Yen (circa 48 Euro) und machte damit alle Gewinne aus einer Rallye zu Beginn dieses Monats zunichte. Diese wurde durch den überraschenden Erfolg des neuen Pokémon-Spiels „Pokopia“ ausgelöst. Die Produktionskürzung dürfte laut Bloombergs Informanten dennoch keinen Einfluss auf die von Analysten geschätzten 20 Millionen verkauften Switch-2-Geräten im Geschäftsjahr haben, das im März endet.
Lesen Sie auch
Wie alle Elektronikhersteller steht auch Nintendo mit der Switch 2 unter hohem Kostendruck, der unter anderem durch steigende Speicherpreise erzeugt wird. Die höheren Kosten hatten Nintendo dazu veranlasst, eine Preiserhöhung für das Gerät in Betracht zu ziehen – bei der Produktionsdrosselung spielte dieser Faktor keine Rolle. Die Produktionskürzungen seien vor allem auf eine nachlassende Nachfrage seitens der Verbraucher zurückzuführen, so Bloombergs Quellen.
Für den europäischen Markt soll Nintendo eine Switch-2-Variante mit entnehmbarem Akku vorbereiten, um den EU-Vorgaben zu entsprechen, die ab 2027 leicht wechselbare Akkus verlangen.
Weiterlesen nach der Anzeige
(afl)
Künstliche Intelligenz
Fixen statt schrotten: Bundesregierung bringt „Recht auf Reparatur“ auf den Weg
Die Bundesregierung will Schluss machen mit einer vernetzten Gerätewelt, in der das Smartphone bei einem Displaybruch oft direkt zum Elektroschrott wandert und die Waschmaschine nach dem ersten Lagerschaden als Totalausfall gilt. Das Bundeskabinett hat dazu am Mittwoch den Regierungsentwurf für ein Gesetz zur Förderung der Reparatur von Waren auf den Weg gebracht. Er soll eine weitreichende EU-Richtlinie, bei der Deutschland eher bremste, in hiesiges Recht überführen und geht nun in den Bundestag und den Bundesrat.
Weiterlesen nach der Anzeige
Ziel ist es, eine nachhaltige Kreislaufwirtschaft zu etablieren. Hersteller werden damit erstmals in die Pflicht genommen, ihre Produkte über viele Jahre hinweg instand zu setzen, anstatt Verbraucher zum Neukauf zu drängen.
Herzstück der geplanten Neuregelung ist eine Reparaturverpflichtung für Hersteller bestimmter technischer Produktgruppen wie Smartphones, Tablets, Geschirrspüler und Kühlschränke. Die Fristen sind beachtlich: Für große weiße Ware wie Waschmaschinen oder Trockner ist eine Reparaturpflicht von mindestens zehn Jahren vorgesehen. Smartphones müssen mindestens sieben Jahre lang reparierbar bleiben. Entscheidend ist, dass diese Zeiträume erst in dem Moment zu laufen beginnen, in dem die Produktion des jeweiligen Modells eingestellt wird. Hersteller können sich dieser Pflicht künftig nur entziehen, wenn eine Reparatur faktisch unmöglich ist.
Ersatzteile zu fairen Preisen und Software-Offenheit
Die Bundesregierung will die Hürden für eine Instandsetzung senken und deshalb vorschreiben, dass Ersatzteile und Werkzeuge zu angemessenen Preisen angeboten werden. Hohe Kostenvoranschläge, die Verbraucher gezielt vom Reparieren abschrecken könnten, sollen der Vergangenheit angehören. Zudem sieht der Entwurf ein Verbot für softwareseitige Sperren oder technische Schutzmaßnahmen vor, die eine Reparatur behindern. Das gilt ausdrücklich auch für unabhängige Werkstätten oder die Nutzung von kompatiblen Ersatzteilen sowie 3D-Druck-Komponenten, sofern keine zwingenden Sicherheitsgründe dagegensprechen.
Lesen Sie auch
Auch im klassischen Gewährleistungsrecht soll es Änderungen geben, um den Trend zum schnellen Austausch zu stoppen. Bisher entscheiden sich viele Kunden bei einem Defekt innerhalb der ersten zwei Jahre lieber für ein Neugerät, da die Reparatur oft Zeit kostet. Hier will die Regierung einen handfesten Anreiz schaffen: Wer sich im Falle eines Mangels für eine Instandsetzung statt für eine Neulieferung entscheidet, profitiert von einer Verlängerung der Gewährleistungsfrist um zwölf Monate. Die ursprüngliche Zeitspanne von zwei Jahren wächst damit auf drei Jahre an, was das Vertrauen in die Langlebigkeit reparierter Waren stärken soll.
Reparierbarkeit als Qualitätsmerkmal
Weiterlesen nach der Anzeige
Ferner wird dem Plan nach die Reparierbarkeit selbst zum rechtlich relevanten Qualitätsmerkmal erhoben. Lässt sich ein Produkt nicht reparieren, obwohl dies bei einer Ware dieser Art üblicherweise erwartet werden kann, liegt künftig ein Sachmangel vor. Dies soll Kunden eine zusätzliche rechtliche Handhabe gegenüber den Verkäufern geben. Um die Transparenz zu erhöhen, wird zudem ein freiwilliges europäisches Informationsformular eingeführt. Betriebe, die dieses nutzen, müssen darin verbindliche Angaben zu Preis und Dauer der Reparatur machen, an die sie 30 Tage lang gebunden sind.
Die neuen Vorgaben sollen spätestens bis zum 31. Juli 2026 vollständig in Kraft treten. Für die Industrie bedeutet das eine Umstellung: Sie muss nicht nur Ersatzteillager vorhalten, sondern auch die notwendige Service-Infrastruktur ausbauen.
Bundesjustizministerin Stefanie Hubig (SPD) unterstrich: Reparieren müsse leichter und attraktiver werden, um Umwelt und Geldbeutel zu schonen. Mit der 1:1-Umsetzung der EU-Vorgaben gehe Deutschland einen wichtigen Schritt in Richtung Reparaturgesellschaft. Verbraucherschützer forderten angesichts des vorherigen Referentenentwurfs dagegen: Reparieren sollte noch einfacher, schneller und bezahlbarer werden. Das Vorhaben reiche dafür nicht aus.
(afl)
Künstliche Intelligenz
Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten
Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.
Weiterlesen nach der Anzeige
Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.
Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.
Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.
Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.
Datenintegrationszentren
Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.
Weiterlesen nach der Anzeige
Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.
Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.
Personalisierte Onkologie
Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.
Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.
Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.
In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.
Zusammenarbeit zwischen Wirtschaft und Wissenschaft
Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.
Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.
Lesen Sie auch
(mack)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 3 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 2 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
