Connect with us

Künstliche Intelligenz

Tipps für den richtigen Drucker für Familie und Homeoffice


Manches vermeintliche Drucker-Schnäppchen entpuppt sich später als Geldgrab, wenn die mitgelieferten Tintenpatronen oder Tonerkartuschen leer sind. Der Ersatz dafür ist oft fast halb so teuer wie das ganze Gerät. Genau wie bei der Benzinkutsche nicht nur der Kaufpreis Kosten verursacht, sondern in hohem Maß auch der Kraftstoff, muss man beim Drucken je nach Bedarf erhebliche Zusatzkosten nach dem Kauf einplanen: Papier ist ebenso nötig wie Farbe, also Tinte oder Toner, mit der das Blatt beschichtet wird.

Geht es nicht gerade um hochwertiges Fotopapier, fällt Normalpapier mit dem Standardgewicht von 80 Gramm pro Quadratmeter preislich nicht so sehr ins Gewicht: Im Mittel kann man mit 0,6 Cent pro Blatt rechnen. Anders sieht es mit der Farbe aus. Wie teuer die Tinte oder der Toner pro Seite ist, hängt von Preis und Bauart des Druckers ab. Als Faustregel gilt: Je billiger der Drucker, desto teurer sind Tintenpatrone oder Tonerkartusche. Besonders bei Billigmodellen verdienen die Hersteller nicht am Drucker, sondern am Verbrauchsmaterial. Tinte für eine Normfarbseite mit etwa 20 Prozent Farbdeckung kostet dann oft 20 bis 30 Cent.

Da diese Strategie die Kundenzufriedenheit nicht verbessert, haben zumindest die Anbieter von Tintendruckern Alternativen entwickelt: Für Vieldrucker gibt es Modelle mit großen, eingebauten Tintentanks. Die sind zwar um ein Mehrfaches teurer als Drucker mit Wechselpatronen, dafür lassen sie sich sehr günstig mit Originaltinte aus der Flasche nachfüllen. Der hohe Kaufpreis der Tintentankdrucker relativiert sich außerdem, weil ihnen eine Tankfüllung für mindestens 6000 Seiten beiliegt. Die günstigen Patronendruckern beiliegenden „Starter“-Patronen halten in der Regel bloß 100 bis 200 Druckseiten.


Das war die Leseprobe unseres heise-Plus-Artikels „Tipps für den richtigen Drucker für Familie und Homeoffice“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Künstliche Intelligenz

Fixen statt schrotten: Bundesregierung bringt „Recht auf Reparatur“ auf den Weg


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Bundesregierung will Schluss machen mit einer vernetzten Gerätewelt, in der das Smartphone bei einem Displaybruch oft direkt zum Elektroschrott wandert und die Waschmaschine nach dem ersten Lagerschaden als Totalausfall gilt. Das Bundeskabinett hat dazu am Mittwoch den Regierungsentwurf für ein Gesetz zur Förderung der Reparatur von Waren auf den Weg gebracht. Er soll eine weitreichende EU-Richtlinie, bei der Deutschland eher bremste, in hiesiges Recht überführen und geht nun in den Bundestag und den Bundesrat.

Weiterlesen nach der Anzeige

Ziel ist es, eine nachhaltige Kreislaufwirtschaft zu etablieren. Hersteller werden damit erstmals in die Pflicht genommen, ihre Produkte über viele Jahre hinweg instand zu setzen, anstatt Verbraucher zum Neukauf zu drängen.

Herzstück der geplanten Neuregelung ist eine Reparaturverpflichtung für Hersteller bestimmter technischer Produktgruppen wie Smartphones, Tablets, Geschirrspüler und Kühlschränke. Die Fristen sind beachtlich: Für große weiße Ware wie Waschmaschinen oder Trockner ist eine Reparaturpflicht von mindestens zehn Jahren vorgesehen. Smartphones müssen mindestens sieben Jahre lang reparierbar bleiben. Entscheidend ist, dass diese Zeiträume erst in dem Moment zu laufen beginnen, in dem die Produktion des jeweiligen Modells eingestellt wird. Hersteller können sich dieser Pflicht künftig nur entziehen, wenn eine Reparatur faktisch unmöglich ist.

Die Bundesregierung will die Hürden für eine Instandsetzung senken und deshalb vorschreiben, dass Ersatzteile und Werkzeuge zu angemessenen Preisen angeboten werden. Hohe Kostenvoranschläge, die Verbraucher gezielt vom Reparieren abschrecken könnten, sollen der Vergangenheit angehören. Zudem sieht der Entwurf ein Verbot für softwareseitige Sperren oder technische Schutzmaßnahmen vor, die eine Reparatur behindern. Das gilt ausdrücklich auch für unabhängige Werkstätten oder die Nutzung von kompatiblen Ersatzteilen sowie 3D-Druck-Komponenten, sofern keine zwingenden Sicherheitsgründe dagegensprechen.

Lesen Sie auch

Auch im klassischen Gewährleistungsrecht soll es Änderungen geben, um den Trend zum schnellen Austausch zu stoppen. Bisher entscheiden sich viele Kunden bei einem Defekt innerhalb der ersten zwei Jahre lieber für ein Neugerät, da die Reparatur oft Zeit kostet. Hier will die Regierung einen handfesten Anreiz schaffen: Wer sich im Falle eines Mangels für eine Instandsetzung statt für eine Neulieferung entscheidet, profitiert von einer Verlängerung der Gewährleistungsfrist um zwölf Monate. Die ursprüngliche Zeitspanne von zwei Jahren wächst damit auf drei Jahre an, was das Vertrauen in die Langlebigkeit reparierter Waren stärken soll.

Weiterlesen nach der Anzeige

Ferner wird dem Plan nach die Reparierbarkeit selbst zum rechtlich relevanten Qualitätsmerkmal erhoben. Lässt sich ein Produkt nicht reparieren, obwohl dies bei einer Ware dieser Art üblicherweise erwartet werden kann, liegt künftig ein Sachmangel vor. Dies soll Kunden eine zusätzliche rechtliche Handhabe gegenüber den Verkäufern geben. Um die Transparenz zu erhöhen, wird zudem ein freiwilliges europäisches Informationsformular eingeführt. Betriebe, die dieses nutzen, müssen darin verbindliche Angaben zu Preis und Dauer der Reparatur machen, an die sie 30 Tage lang gebunden sind.

Die neuen Vorgaben sollen spätestens bis zum 31. Juli 2026 vollständig in Kraft treten. Für die Industrie bedeutet das eine Umstellung: Sie muss nicht nur Ersatzteillager vorhalten, sondern auch die notwendige Service-Infrastruktur ausbauen.

Bundesjustizministerin Stefanie Hubig (SPD) unterstrich: Reparieren müsse leichter und attraktiver werden, um Umwelt und Geldbeutel zu schonen. Mit der 1:1-Umsetzung der EU-Vorgaben gehe Deutschland einen wichtigen Schritt in Richtung Reparaturgesellschaft. Verbraucherschützer forderten angesichts des vorherigen Referentenentwurfs dagegen: Reparieren sollte noch einfacher, schneller und bezahlbarer werden. Das Vorhaben reiche dafür nicht aus.


(afl)



Source link

Weiterlesen

Künstliche Intelligenz

LeakBase: Russland verhaftet den mutmaßlichen Betreiber des Datenleak-Forums


Die russische Polizei verhaftete am Mittwoch den mutmaßlichen Betreiber des Cybercrime-Forums LeakBase. Das meldete die staatliche russische Nachrichtenagentur TASS mit Verweise auf russische Strafverfolgungsbehörden.

Weiterlesen nach der Anzeige

Der Festgenommene aus der südrussischen Hafenstadt Taganrog am Asowschen Meer, unweit der Grenze zur Ukraine, steht laut den Behörden im Verdacht, „eine der größten internationalen Hackerplattformen, LeakBase“, betrieben zu haben. Dem TASS-Bericht zufolge erklärte eine Sprecherin des russischen Innenministeriums, dass Beamte des Büros für besondere technische Maßnahmen des Innenministeriums zusammen mit Kollegen aus der Region Rostow den Einwohner von Taganrog, dessen Name nicht veröffentlicht wurde, wegen des Verdachts der Erstellung und des Betriebs einer der größten internationalen Cyberkriminalitätsplattformen festgenommen haben.

Europäische Ermittlungsbehörden waren nicht involviert. „Wir kooperieren nicht mit russischen Behörden und waren an der gemeldeten Verhaftung nicht beteiligt“, sagte Europol-Sprecherin Claire Georges gegenüber dem US-amerikanischen Tech-Portal TechCrunch, das über die Festnahme mit Verweis auf TASS berichtete.

Mit mehr als 142.000 Mitgliedern galt die LeakBase-Datenbank als eines der weltweit größten Online-Foren für Cyberkriminelle zum Kauf und Verkauf gestohlener Daten und Tools für Cyberangriffe. Ermittlungsbehörden aus 14 Ländern, darunter Deutschland, unter Leitung von Europol schalteten LeakBase Anfang März ab und beschlagnahmten die dazugehörigen Domains. Mehrere Personen wurden bei den Razzien in mehreren Ländern festgenommen.

Das seit 2021 aktive und öffentlich zugängliche englischsprachige Forum LeakBase verfügte nach Angaben der Ermittler über ein ständig aktualisiertes Archiv gestohlener Datenbanken mit Hunderten Millionen Zugangsdaten. Die Plattform ermöglichte es Usern, Informationen aus diesen gestohlenen Datenbanken zu verkaufen, darunter Kredit- und Debitkartennummern und sensible Geschäfts- und personenbezogene Daten.


(akn)



Source link

Weiterlesen

Künstliche Intelligenz

Medizininformatik-Initiative: Vom Aufbau zur Nutzung realer Gesundheitsdaten


Zehn Jahre lang hat die Medizininformatik-Initiative (MII) primär Grundlagen geschaffen: Standards, Datenintegrationszentren, Portale und Prozesse. Auf dem Jubiläumssymposium in Berlin wurde nun deutlich, dass die Initiative in eine entscheidende Phase kommt. Die Infrastruktur steht – jetzt muss sie zeigen, dass daraus konkrete Anwendungen für Forschung und Versorgung entstehen. Genau das war das Thema der ersten Fachsession, in der Projekte aus Kardiologie, Onkologie, Arzneimitteltherapiesicherheit und KI ihre ersten Ergebnisse vorstellten.

Weiterlesen nach der Anzeige

Im Mittelpunkt stand dabei nicht mehr der Aufbau von Datenräumen, sondern deren praktische Nutzung. Wie weit die MII dabei gekommen ist, zeigte sich etwa bei ACRIBiS, einem Projekt zur „Verbesserung der kardiovaskulären Risikoidentifizierung durch Synthese strukturierter klinischer Dokumentation und aus Biosignalen abgeleiteten Phänotypen“. Das Vorhaben setzt direkt an der klinischen Dokumentation an, standardisiert Routinedaten an der Quelle und verbindet sie mit Biosignalen wie EKGs. Mehr als 3.800 Patientinnen und Patienten wurden bereits in die Kohorte aufgenommen, über 5.000 sollen es werden. Projektkoordinator Prof. Sven Zenker vom Universitätsklinikum Bonn sagte: „Wir haben noch einiges vor.“ Das Projekt nutzt unter anderem bereits eine standardisierte Biosignal-Infrastruktur und moderne KI-Modelle könnten ausgetauscht werden. Nach Zenkers Angaben gibt es bereits internationales Interesse an der Nachnutzung des Datensatzes.

Wie groß der Abstand zwischen theoretischer Interoperabilität und gelebter Versorgungspraxis noch sein kann, wurde im Projekt „Integrate ATMP“ (Advanced Therapy Medicinal Product, Arzneimittel für neuartige Therapien) sichtbar. Das Heidelberger Projekt befasst sich mit Arzneimitteln für neuartige Therapien wie Gen- und Zelltherapien. Laut Prof. Andreas Ziegler vom Universitätsklinikum Heidelberg müssten Sicherheitsereignisse mehrfach und teils noch auf Papier gemeldet werden. Das Projekt versucht deshalb, Routinedaten, Register und Patientenkommunikation in einer gemeinsamen Struktur zusammenzuführen – mit enger Anbindung an die MII-Infrastruktur und die Datenintegrationszentren. Auch Patientinnen und Patienten sollen stärker eingebunden werden, unter anderem über eine App-Struktur und einen TI-Messenger. Zugleich wurde deutlich, dass solche Modelle dauerhaft nur funktionieren, wenn auch Fragen der Finanzierung und Vergütung frühzeitig mitgedacht werden.

Dr. Christian Müller vom Pharmakonzern Bayer brachte die Perspektive eines industriellen Datennutzers ein. Er stellte sich als „Apotheker, Jäger und Sammler von Daten bei Bayer“ vor und erläuterte mit „Data-Insight“ eine Studie, die Daten aus dem Forschungsdatenzentrum Gesundheit (FDZ) und dem Forschungsdatenportal Gesundheit (FDPG) praktisch gegenüberstellt. Müller sagte ausdrücklich, es gehe um „die Data Insight-Studie, die genau diesen Zweck hat, die beiden Register miteinander zu vergleichen“. Inhaltlich geht es um Prävalenzen, Inzidenzen, Medikationswechsel, Outcomes und regionale Versorgungsmuster in ophthalmologischen Indikationen – aber ebenso um die Frage, wie aufwendig und verlässlich die Nutzung der Daten heute tatsächlich ist.

Müller sprach dabei Punkte an, die für die nächste Phase der MII zentral sein dürften. Er wolle „den Finger in die Wunde legen“ und schilderte den Zugang aus Nutzersicht als komplex. Zwar sei das Portal als „One Face to the Customer“ gedacht, in der Praxis wirke es aber so, „als ob jedes Zentrum versucht, die eigenen Interessen durchzubekommen“. Das sei „nicht wirklich nachvollziehbar“ und „auch nicht wirklich kundenfreundlich“. Aus dem Kreis der MII wurde die Kritik nicht zurückgewiesen, sondern als Hinweis auf eine laufende Anlaufphase verstanden. Mehrfach war von einer „Ramp-up-Phase“ die Rede, in der Verfahren erst unter realen Nutzungsbedingungen erprobt und weiterentwickelt würden.

Verschiedene Universitäten stellten zudem Datenintegrationszentren vor, Dr. Jan Erik Gewehr vom Universitätsklinikum Hamburg-Eppendorf (UKE) ein sogenanntes „Datenhotel“. Dabei handelt es sich um eine sichere Verarbeitungsumgebung, in der Forschende pseudonymisierte Daten direkt vor Ort analysieren können. Die Daten werden in dem Fall in einer Jupyter-Notebook-Umgebung bereitgestellt; zur Auswertung stehen unter anderem Python, R und Julia zur Verfügung. Jeder Datenraum sei projektbezogen angelegt und erhalte eine eigene Pseudonymisierung. Zugleich machte Gewehr deutlich, dass die Umgebung zunächst vor allem helfen soll, Hypothesen zu generieren. Die Daten können nicht einfach aus dem System heraus exportiert werden.

Weiterlesen nach der Anzeige

Auch das Datenintegrationszentrum (DIZ) in Jena stellte sich als Bindeglied zwischen Versorgung, Forschung und Industrie dar. Dort werde versucht, Interoperabilität und Kerndatensatz nicht nur für Forschungszwecke, sondern möglichst nah an den Abläufen der Krankenversorgung umzusetzen. Danny Ammon erklärte, dass dafür inzwischen auch industrielle Komponenten wie FHIR- und Terminologieserver genutzt würden. ETL-Strecken (Extract, Transform, Load) würden dort, wo die Spezifikationen ausgereift seien, an Hersteller vergeben.

Heidelberg wiederum berichtete von den praktischen Aufbauproblemen eines DIZ. Es gebe mehr als 250 Quellsysteme, teils Daten auf Papier, viele direkte Zugriffe auf Primärsysteme und einen erheblichen Aufwand beim Aufbau von ETL-Strecken, Datenmanagement und Qualitätssicherung. Dr. Angela Merzweiler machte deutlich, dass mit jedem neuen Projekt auch neue Datenflüsse und neue Anforderungen hinzukämen.

Mit PM4Onco zeigte sich außerdem, wie stark die MII inzwischen in die personalisierte Onkologie hineinwirkt. Das Projekt verknüpft Daten aus Tumordokumentation, molekularen Tumorboards, Pathologie und Patientenfragebögen. Ziel ist es, Therapieentscheidungen besser auszuwerten und standortübergreifend nutzbar zu machen. Projektleiterin Melanie Börries betonte: „Für uns ist immer der Patient im Mittelpunkt.“ Der Anspruch reicht damit über reine Datenharmonisierung hinaus: Die Strukturen sollen so gebaut sein, dass sie klinische Entscheidungen tatsächlich unterstützen können. Dazu gehört auch die engere Verknüpfung mit Krebsregisterdaten.

Einen unmittelbaren Bezug zur Versorgungspraxis hat „Interpolar“, (Usual Care als Plattform für IT-gestützte Interventionen). Das Projekt soll helfen, arzneimittelbezogene Probleme in der stationären Versorgung und Kontraindikationen, Wechselwirkungen und Dosierungsfehler frühzeitig sichtbar zu machen. „Wir wollen also den blinden Fleck der Routineversorgung messbar machen,“ so Dr. Daniel Neumann von der Universität Leipzig.

Einen Baustein für KI-Anwendungen liefert GeMTeX. Im Projekt wird ein großes klinisches Textkorpus für KI-basierte Sprachverarbeitung aufgebaut. Bislang fehlen in Deutschland reale, ausreichend aufbereitete klinische Textdaten weitgehend. Justin Hofenbitzer von der TUM bezeichnete das als „großes Loch in Deutschland.“ GeMTeX soll diese Lücke mit pseudonymisierten Dokumenten, die keine Rückschlüsse auf Einzelpersonen zulassen sollen, Annotationen und einer späteren Bereitstellung über das FDPG schließen.

In mehreren Beiträgen und in der abschließenden Diskussion wurde deutlich, dass Unternehmen die MII-Infrastruktur inzwischen als relevanten Zugang zu Daten wahrnehmen. Sie wünschen sich, früher und systematischer eingebunden zu werden. André Sander, Co-Geschäftsführer von ID Berlin wünschte sich, „dass man mehr auf die Lösungen, die bereits in der Industrie vorhanden sind, zurückgreift.“ Dabei nannte er das Projekt Interopolar als Beispiel. Für Sanders kam der Eindruck rüber, „als wenn die stationäre medikamentöse Versorgung so im Blindflug in Deutschland ist“. Dem widersprach er mit Verweis auf bereits vorhandene Systeme. Beispielsweise habe „das UKE […] ein Jahr vor der Medizininformatik-Initiative angefangen, eine Medikationslösung einzuführen“. Sander verwies auch auf frühere Erfahrungen mit der MII. Mehmet Akyüz von TriNetX Europe – einer Plattform, die Real‑World‑Data aus Kliniken und Gesundheitsorganisationen bündelt, um schnell Patientenkohorten für Studien zu identifizieren – ergänzte, die Kooperation zwischen Industrie und Gesundheitsstandorten könne aus seiner Sicht früher beginnen, idealerweise schon in der Projektinitiierung.

Auch der Geschäftsführer, der Technologie- und Methodenplattform für die vernetzte medizinische Forschung, Sebastian C. Semler bestätigte, dass engere Kooperationen mit der Industrie nicht nur inhaltlich gewollt seien, in der Förderung aber oft auf Hürden stießen. Es sei nach wie vor schwierig, Unternehmen, die nicht voll förderungsfähig seien, mittels Unterauftrag in Fördervorhaben einzubinden; hinzu kämen „die ganzen wettbewerbsrechtlichen Hürden“. Wenn man gesellschaftlich wirklich wolle, dass Wissenschaft und Wirtschaft enger zusammenarbeiten, müsse man „auch an diesen Verfahrensweisen nochmal feilen“.

Auf einem anderen Panel des Symposiums wurde zudem ein strukturelles Problem benannt, das über die einzelnen Anwendungsprojekte hinausweist: Nicht jede wissenschaftliche Idee wird bis in die Versorgung weiterentwickelt. Laut Dr. Susen Burock, von der Koordinierungsstelle für Klinische Studien (KKS-Netzwerke e.V.), kämen häufig junge, engagierte Forschende mit einer Idee, die sie ausprobieren und in einem Paper festhalten möchten. Wenn diese Personen die Universität wieder verließen, bleibe die Weiterentwicklung häufig liegen. Genau darin liegt eine der zentralen Herausforderungen für die nächste Phase der MII, aus einzelnen Projekten und Publikationen müssen belastbare, dauerhaft nutzbare Lösungen werden.

Lesen Sie auch


(mack)



Source link

Weiterlesen

Beliebt