Connect with us

Künstliche Intelligenz

Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten


Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.

Weiterlesen nach der Anzeige

Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.

Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.

Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.

Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.

Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.

Weiterlesen nach der Anzeige

Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.

Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.

Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.

Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.

Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.

In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.

Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.

Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.

Lesen Sie auch


(mack)



Source link

Künstliche Intelligenz

OpenAI stellt Sora ein: Das Ende von immer weiter und größer


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

OpenAI setzt einen Haken unter seine generative Video-KI: Das Unternehmen stampft die eigenständige App Sora ein und schließt auch den Zugang via API. Unklar ist noch, ob ChatGPT künftig wieder ähnliche Funktionen haben wird. Der Bildgenerator Dall-E war aus dem Chatbot geflogen, weil das multimodale KI-Modell GPT-4o selbst Bilder erstellen konnte. Es wäre also möglich, dass ein kommendes Modell auch Videos erstellen kann.

Weiterlesen nach der Anzeige


Screenshot X-Beitrag Sora.

Screenshot X-Beitrag Sora.

In diesem Moment sendet OpenAI mit der Einstellung der Anwendung ein klares Zeichen an Investoren und künftige Anleger. Unternehmen und Entwickler wollen nun richten, was bisher schief war: die finanzielle Lage und ein fehlender Fokus. Der Strategiewechsel lässt einzelne Nutzer zunächst auf der Strecke.


Ein Kommentar von Eva-Maria Weiß

Ein Kommentar von Eva-Maria Weiß

Eva-Maria Weiß ist Journalistin für Social Media, Browser, Messenger und allerlei Anwendungen im Internet. Seit ChatGPT ist KI in den Vordergrund gerückt.

Klar ist, bei OpenAI geht es offenbar nicht so weiter wie bisher. Dieses „bisher“ war vor allem geprägt von ständig neuen, immer ein Mü besseren KI-Modellen und neuen Diensten. All das kostet – sowohl die Entwicklung als auch der Betrieb. Dass bei dem KI-Unternehmen eine Schieflage zwischen Ausgaben und Einnahmen herrscht, ist schon lange bekannt. Jedes Video, das mit Sora erstellt wurde, hat OpenAI Geld gekostet. Geld, das bisher ein kleines bisschen mit Abonnements, vorwiegend aber von Investoren reingeholt wurde. Künftig soll Werbung in ChatGPT eine weitere tragende Rolle spielen.

Schon bei Soras Vorstellung musste man sich fragen, wie und wer das bezahlen soll. Eine weitere Antwort war bis jetzt: große Unternehmen, die den Dienst nutzen. OpenAI und Disney hatten einen Vertrag über eine Milliarde US-Dollar abgeschlossen. Das Abkommen beinhaltete neben der Investition in OpenAI die Lizenzierung der Disney-Figuren, zudem sollten Sora-Disney-Videos in den Disney-Freizeitparks gezeigt werden. Freilich ist der nicht öffentliche Betrieb von Sora durch Disney weiterhin möglich. Genauso gut kann es aber auch sein, dass Disney nicht zufrieden war mit der Leistung von Sora und der Deal deshalb schon einen Knacks hatte. Es heißt derzeit, die Zusammenarbeit sei gescheitert. Die Einnahmequelle – dahin.

Weiterlesen nach der Anzeige

Passenderweise hat am selben Tag, an dem das Aus von Sora verkündet wurde, OpenAIs CFO Sarah Fried dem Nachrichtenmagazin CNBC gesagt, es gebe neue Investitionen in Höhe von zehn Milliarden US-Dollar. Woher? Unklar. Noch in diesem Jahr will OpenAI an die Börse gehen.

Lesen Sie auch

Auch Investoren und Anleger beobachten OpenAI und die gesamte KI-Branche. Zeitweilig war überall vom möglichen Platzen der KI-Blase die Rede. Der große Knall ist bisher ausgeblieben. Die Einstellung von Sora könnte aber für ein kleines Löchlein in einem Luftballon stehen, dem ganz langsam und allmählich die Luft ausgeht.

Als Pflaster sollen nun Unternehmenskunden und Entwickler herhalten. Sie sind die neue Zielgruppe aller KI-Anbieter. Zuletzt veröffentlichten OpenAI, Anthropic und auch Google neue KI-Modelle und Funktionen, die sich explizit an Entwickler richten. In vielen Unternehmen zeigt sich zudem, dass KI zwar irgendwie angekommen ist, die Anbieter aber immer noch nach Use-Cases suchen, es an der Integration hapert und Mitarbeiter nicht so richtig wissen, was das alles soll. Eine gute Gelegenheit für OpenAI also.

Im Unternehmensbereich ist sicherlich mehr Geld zu holen als durch Abos von Nutzern, die genauso gut Googles AI Mode oder Gemini nutzen können. Einmal jedoch tief in die Systeme der Unternehmen integriert und mit Daten von diesen gefüttert, lässt sich eine KI-Anwendung nur mühsam wieder entkoppeln oder ersetzen. Anwendungen wie das KI-Coding-Tool Codex kosten dabei im Betrieb nur einen Bruchteil von dem, was ein kurzes Sora-Video in der Erstellung an Ressourcen verbraucht.

Das Geld, das OpenAI mit Soras Einstellung spart, soll anderen Teams zugutekommen, schreibt die Firma. Zumindest ein ganz offensichtlicher Geldverbrenner ist damit Geschichte. Daher dürften Investoren schlussendlich sehr glücklich mit der Entscheidung und dem Strategiewechsel sein. Sam Altman hatte mal gesagt, ihm sei es völlig egal, wie viel Geld man verbrenne, um eine allgemeine Künstliche Intelligenz zu entwickeln. Den Geldgebern ist das aber vielleicht doch nicht so egal.

Während Disney vermutlich gut ohne Sora auskommt, ist das für andere schon schwieriger. Wer sich gedacht hat, als Sora-Experte Karriere machen zu können, steht vor dem Aus. Es dürfte zahlreiche Menschen im Bereich Film geben, die versucht haben, sich Expertise und Erfahrung anzueignen und die dafür Zeit und womöglich auch Geld in die Hand genommen haben. Laut OpenAI können Nutzer der API ihre Projekte herunterladen und sichern. Details dazu sollen später folgen. „Danke fürs Generieren mit Sora, dafür, Teil der Community und der Reise gewesen zu sein.“ Tschüss. Auf OpenAI und KI zu setzen, ist riskant. Das zeigte sich beispielsweise auch schon, als alle Welt plötzlich GPTs und Apps für ChatGPT entwickeln sollte – viel Arbeit für nichts.

Immerhin: Betroffene können auf andere Videogeneratoren zurückgreifen. Bekanntlich kam Googles Veo zuletzt sogar eher besser bei den Nutzern an. Und Google hat den Vorteil, seine KI-Anwendungen durch die Werbeeinnahmen aus anderen Produkten zu finanzieren. Das gilt auch für Meta. OpenAI und Anthropic haben einen großen Nachteil, da sie beide abhängig von den KI-Anwendungen sind und keine weiteren Einkommensquellen haben, keine bereits funktionierenden Produkte, keine treuen Nutzer und keine Daten über diese.

Zuletzt hatte OpenAI eine „Super-App“ angekündigt. Der große Traum des Silicon Valleys, allen voran Elon Musks, der mit X eine solche Alles-App aufbauen wollte. Sie soll eine Art persönliches Zugangstor zum Internet darstellen. Diese Zukunft umfasst in OpenAIs Planung zunächst ChatGPT samt Browser, Agent und Coding-Plattform. Andere Dienste sollen dann über ChatGPT gesteuert und genutzt werden. Das immer wiederkehrende Beispiel: Wenn man einen Tisch im Restaurant reservieren will, kann man das via ChatGPT – ob jetzt mittels KI-Agent oder einstiger GPT-Anbindung an OpenTable. Die Hauptsache ist, niemand soll mehr die Webseite von OpenTable besuchen müssen. Was freilich für diesen Anbieter zum Problem würde.

Von den problematischen Sicherheitsstandards, die auch dieses Unterfangen zum Scheitern bringen könnten, will ich an dieser Stelle gar nicht erst zu sprechen beginnen. Dass OpenAI am Tag vor Bekanntgabe der Einstellung von Sora noch einen Blogbeitrag veröffentlicht hat, in dem es um die Sicherheitsfunktionen des Videogenerators geht – ein Treppenwitz.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

Switch 2: Nintendo streicht offenbar die Produktion zusammen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Nintendo plant einem Bericht zufolge, die Produktion der Switch 2 stark zu drosseln, nachdem das Unternehmen seine für das Weihnachtsgeschäft 2025 prognostizierten Absatzzahlen nicht erreicht hat. Wie Bloomberg berichtet, soll der japanische Hersteller die Produktion im laufenden Quartal von 6 Millionen auf 4 Millionen Einheiten senken. Das entspricht einer Reduzierung um ein Drittel gegenüber dem ursprünglichen Plan. Auch im April will Nintendo demnach weniger produzieren als bisher geplant.

Weiterlesen nach der Anzeige

Die Nintendo Switch 2 legte im Juni 2025 zunächst einen rekordverdächtigen Start mit 3,5 Millionen verkauften Einheiten in den ersten vier Tagen hin. Das entsprach rund 800.000 Einheiten mehr, als die ursprüngliche Switch in ihrem ersten Monat verkauft wurde. Nintendo hatte seine Verkaufsprognose deshalb von 15 Millionen Konsolen auf 19 Millionen Stück angehoben. Doch danach konnten die Verkaufszahlen der Switch 2 die hohen Erwartungen nicht erfüllen. Während laut Bloombergs Quellen die Nachfrage nach einer preisgünstigeren, aber weniger profitablen Variante in Japan weiterhin stark ist, habe der Absatz vor allem in den USA nicht an diesen anhaltenden Erfolg anknüpfen können.

So fiel die Nintendo-Aktie in Tokio um bis zu 6,3 Prozent und verzeichnete damit den stärksten Tagesverlust seit dem 4. Februar 2026. Der Kurs sank vorübergehend auf 8835 Yen (circa 48 Euro) und machte damit alle Gewinne aus einer Rallye zu Beginn dieses Monats zunichte. Diese wurde durch den überraschenden Erfolg des neuen Pokémon-Spiels „Pokopia“ ausgelöst. Die Produktionskürzung dürfte laut Bloombergs Informanten dennoch keinen Einfluss auf die von Analysten geschätzten 20 Millionen verkauften Switch-2-Geräten im Geschäftsjahr haben, das im März endet.

Lesen Sie auch

Wie alle Elektronikhersteller steht auch Nintendo mit der Switch 2 unter hohem Kostendruck, der unter anderem durch steigende Speicherpreise erzeugt wird. Die höheren Kosten hatten Nintendo dazu veranlasst, eine Preiserhöhung für das Gerät in Betracht zu ziehen – bei der Produktionsdrosselung spielte dieser Faktor keine Rolle. Die Produktionskürzungen seien vor allem auf eine nachlassende Nachfrage seitens der Verbraucher zurückzuführen, so Bloombergs Quellen.

Für den europäischen Markt soll Nintendo eine Switch-2-Variante mit entnehmbarem Akku vorbereiten, um den EU-Vorgaben zu entsprechen, die ab 2027 leicht wechselbare Akkus verlangen.

Weiterlesen nach der Anzeige


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

Fixen statt schrotten: Bundesregierung bringt „Recht auf Reparatur“ auf den Weg


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Bundesregierung will Schluss machen mit einer vernetzten Gerätewelt, in der das Smartphone bei einem Displaybruch oft direkt zum Elektroschrott wandert und die Waschmaschine nach dem ersten Lagerschaden als Totalausfall gilt. Das Bundeskabinett hat dazu am Mittwoch den Regierungsentwurf für ein Gesetz zur Förderung der Reparatur von Waren auf den Weg gebracht. Er soll eine weitreichende EU-Richtlinie, bei der Deutschland eher bremste, in hiesiges Recht überführen und geht nun in den Bundestag und den Bundesrat.

Weiterlesen nach der Anzeige

Ziel ist es, eine nachhaltige Kreislaufwirtschaft zu etablieren. Hersteller werden damit erstmals in die Pflicht genommen, ihre Produkte über viele Jahre hinweg instand zu setzen, anstatt Verbraucher zum Neukauf zu drängen.

Herzstück der geplanten Neuregelung ist eine Reparaturverpflichtung für Hersteller bestimmter technischer Produktgruppen wie Smartphones, Tablets, Geschirrspüler und Kühlschränke. Die Fristen sind beachtlich: Für große weiße Ware wie Waschmaschinen oder Trockner ist eine Reparaturpflicht von mindestens zehn Jahren vorgesehen. Smartphones müssen mindestens sieben Jahre lang reparierbar bleiben. Entscheidend ist, dass diese Zeiträume erst in dem Moment zu laufen beginnen, in dem die Produktion des jeweiligen Modells eingestellt wird. Hersteller können sich dieser Pflicht künftig nur entziehen, wenn eine Reparatur faktisch unmöglich ist.

Die Bundesregierung will die Hürden für eine Instandsetzung senken und deshalb vorschreiben, dass Ersatzteile und Werkzeuge zu angemessenen Preisen angeboten werden. Hohe Kostenvoranschläge, die Verbraucher gezielt vom Reparieren abschrecken könnten, sollen der Vergangenheit angehören. Zudem sieht der Entwurf ein Verbot für softwareseitige Sperren oder technische Schutzmaßnahmen vor, die eine Reparatur behindern. Das gilt ausdrücklich auch für unabhängige Werkstätten oder die Nutzung von kompatiblen Ersatzteilen sowie 3D-Druck-Komponenten, sofern keine zwingenden Sicherheitsgründe dagegensprechen.

Lesen Sie auch

Auch im klassischen Gewährleistungsrecht soll es Änderungen geben, um den Trend zum schnellen Austausch zu stoppen. Bisher entscheiden sich viele Kunden bei einem Defekt innerhalb der ersten zwei Jahre lieber für ein Neugerät, da die Reparatur oft Zeit kostet. Hier will die Regierung einen handfesten Anreiz schaffen: Wer sich im Falle eines Mangels für eine Instandsetzung statt für eine Neulieferung entscheidet, profitiert von einer Verlängerung der Gewährleistungsfrist um zwölf Monate. Die ursprüngliche Zeitspanne von zwei Jahren wächst damit auf drei Jahre an, was das Vertrauen in die Langlebigkeit reparierter Waren stärken soll.

Weiterlesen nach der Anzeige

Ferner wird dem Plan nach die Reparierbarkeit selbst zum rechtlich relevanten Qualitätsmerkmal erhoben. Lässt sich ein Produkt nicht reparieren, obwohl dies bei einer Ware dieser Art üblicherweise erwartet werden kann, liegt künftig ein Sachmangel vor. Dies soll Kunden eine zusätzliche rechtliche Handhabe gegenüber den Verkäufern geben. Um die Transparenz zu erhöhen, wird zudem ein freiwilliges europäisches Informationsformular eingeführt. Betriebe, die dieses nutzen, müssen darin verbindliche Angaben zu Preis und Dauer der Reparatur machen, an die sie 30 Tage lang gebunden sind.

Die neuen Vorgaben sollen spätestens bis zum 31. Juli 2026 vollständig in Kraft treten. Für die Industrie bedeutet das eine Umstellung: Sie muss nicht nur Ersatzteillager vorhalten, sondern auch die notwendige Service-Infrastruktur ausbauen.

Bundesjustizministerin Stefanie Hubig (SPD) unterstrich: Reparieren müsse leichter und attraktiver werden, um Umwelt und Geldbeutel zu schonen. Mit der 1:1-Umsetzung der EU-Vorgaben gehe Deutschland einen wichtigen Schritt in Richtung Reparaturgesellschaft. Verbraucherschützer forderten angesichts des vorherigen Referentenentwurfs dagegen: Reparieren sollte noch einfacher, schneller und bezahlbarer werden. Das Vorhaben reiche dafür nicht aus.


(afl)



Source link

Weiterlesen

Beliebt