Künstliche Intelligenz
Widerrufs-Knopf beim Onlineshoppen beschlossen | heise online
Wer beim Online-Shopping falsch abgebogen ist, kann seine Kaufentscheidung bald leichter rückgängig machen. Der Bundestag hat einen Gesetzentwurf verabschiedet, der Unternehmen verpflichtet, auf ihrer Website beziehungsweise in der App einen gut sichtbaren Widerrufsbutton anzubringen. Dadurch soll der Widerruf für Verbraucher genauso einfach werden wie der Kauf selbst.
Weiterlesen nach der Anzeige
Der Widerrufsknopf muss während der Widerrufsfrist von 14 Tagen für die Käuferinnen und Käufer verfügbar sein. Für die Kundinnen und Kunden bedeute dies, dass beim Widerruf eines Online-Kaufs dann „kein E-Mail-Pingpong-Spiel“ mehr notwendig sein werde, betonte Carmen Wegge (SPD) in der abschließenden Beratung. Mit dem Gesetzentwurf, der laut Bundestagsvizepräsident Omid Nouripour mit 308 Ja-Stimmen gegen 242 Nein-Stimmen die erforderliche Mehrheit fand, wird eine entsprechende EU-Richtlinie umgesetzt.
Keine Manipulation durch Dark Patterns
Auf Antrag der Koalitionsfraktionen hatte der Ausschuss für Recht und Verbraucherschutz zuletzt noch Änderungen am Entwurf der Bundesregierung vorgenommen beziehungsweise Punkte ergänzt. Unter anderem werden im Zivilrecht Vorgaben zur Gestaltung der Benutzeroberfläche für den Online-Abschluss von Finanzdienstleistungen gemacht. Hier geht es darum, dass Verbraucherinnen und Verbraucher nicht durch sogenannte Dark Patterns manipuliert werden. Darunter versteht man Designelemente, die darauf abzielen, das Verhalten von Konsumenten so zu steuern, dass diese den Überblick verlieren und dadurch dann womöglich unbeabsichtigt Optionen auswählen, die dem Anbieter nutzen.
Kostenloser Einblick in Behandlungsakte
Die Verbraucherzentrale Bundesverband hob noch eine Änderung für Patienten hervor, die der Bundestag mit beschlossen hat. „Die erste Einsichtnahme in die vollständige Behandlungsakte ist für Patientinnen und Patienten künftig kostenfrei und weiterhin unverzüglich zu gewähren“, hieß es in einer Stellungnahme. Dafür habe sich der Verband eingesetzt. Für die Koalition müsse dies nun der Auftakt sein, für „besseren Patientenschutz zu sorgen, etwa bei Behandlungsfehlern und individuellen Gesundheitsleistungen“.
(nie)
Künstliche Intelligenz
Mit der Kamera hoch hinaus: Profikletterer Klaus Fengler im Gespräch
Künstliche Intelligenz
AI Safety Report 2026: Bestehende KI-Sicherheitspraktiken reichen nicht aus
Die Fähigkeiten von General-Purpose-KI, also Modellen und Systemen allgemeiner künstlicher Intelligenz, haben sich im vergangenen Jahr rasant weiterentwickelt. Daraus resultierende Risiken nehmen zu, zumal bestehende Sicherheitspraktiken nicht mithalten können. Zu diesem Schluss kommt der kürzlich veröffentlichte zweite International AI Safety Report.
Weiterlesen nach der Anzeige
Der Bericht ist unter Mitarbeit von über 100 unabhängigen Experten und Expertinnen aus mehr als 30 Ländern und unter Federführung des Turing-Preisträgers Yoshua Bengio entstanden. Er untersucht die Leistungsfähigkeit und Risiken von KI-Modellen und -Systemen wie ChatGPT, Gemini, Claude, Mistral etc., die ein breites Aufgabenspektrum abdecken können. Ziel des Berichts ist Bengio zufolge, eine evidenzbasierte Grundlage für wichtige Entscheidungen im Bereich von „general-purpose artificial intelligence“ zu liefern.
Starke regionale Unterschiede
Mittlerweile nutzen 700 Millionen Menschen wöchentlich führende KI-Systeme. Ihre Einführung verlief dem AI Safety Report zufolge somit schneller als die Initiierung früherer Technologien wie PCs. Gleichzeitig attestieren die Wissenschaftler große strukturelle Unterschiede im globalen Vergleich. So nutzen in einigen Ländern bereits über 50 Prozent der Bevölkerung KI-Systeme, in weiten Teilen Afrikas, Asiens und Lateinamerikas liegt die Nutzungsrate jedoch bei unter 10 Prozent.
Allgemeine künstliche Intelligenz hat sich seit dem Bericht aus dem vergangenen Jahr kontinuierlich und rasant verbessert. Vor allem die Bereiche Mathematik, Programmierung, Naturwissenschaften und autonomer Betrieb verzeichnen den Wissenschaftlern zufolge die größten Fortschritte. Verbesserungen der KI-Fähigkeiten konzentrieren sich dabei zunehmend auf „Post-Training“-Optimierung, also Verfeinerungen der Modelle für spezifische Aufgaben nach deren eigentlichem Training mit Datensets.
Gleichzeitig bleibt die Leistungsfähigkeit von Systemen künstlicher allgemeiner Intelligenz insgesamt ungleichmäßig und unzuverlässig: So können universelle KI-Modelle in komplexen Kontexten glänzen, versagen aber bei einfachen Aufgaben wie dem Zählen von Objekten oder dem logischen Denken in physikalischen Räumen. Insgesamt sind Nutzbarkeit und Risiko von general-purpose KI-Systemen nach Auffassung der Wissenschaftler eng miteinander verflochten: Starke Leistungszuwächse verstärken die potenziellen Risiken.
Cyberangriffe, Desinformation und Abhängigkeit von KI
Die Risiken allgemeiner künstlicher Intelligenz unterteilt der International AI Safety Report 2026 in die drei Kategorien Missbrauch, Fehlfunktion und systemische Risiken.
Weiterlesen nach der Anzeige
Im Bereich Missbrauch von KI-Systemen heben die Forschenden insbesondere Erpressungen, Cyberangriffe oder die nicht konsensuelle Generierung intimer Inhalte hervor. Als besonders alarmierend betrachten sie die Fähigkeiten der KI, Sicherheitslücken in Software zu erkennen. Auch die Verbreitung von Desinformationen mittels KI-generierter Inhalte bereitet den Wissenschaftlern Sorge. So könne ein KI-generierter Inhalt in experimentellen Umgebungen bereits genauso wirksam sein wie ein von Menschen verfasster.
Trotz Fortschritten produzieren KI-Systeme weiterhin fehlerhaften Code, geben Falschinformationen oder irreführende Ratschläge aus. Besonders autonom agierende Systeme sind nach Einschätzung der Wissenschaftler risikoreich, da sie schadensbegrenzende Eingriffe durch Menschen erschweren. Nichtsdestotrotz hätten sich KI-Systeme im autonomen Betrieb verbessert, wenngleich das Risiko von Kontrollverlusten weiterhin bestehe.
Als systemische Risiken definiert der Bericht vor allem die Auswirkungen von KI auf den Arbeitsmarkt sowie Gefahren für die menschliche Autonomie. Von der Automatisierung einer Vielzahl kognitiver Aufgaben werden vornehmlich Wissensberufe betroffen sein. Über das Ausmaß derartiger zukünftiger Entwicklungen ist sich die Forschung dem Report zufolge uneinig. Erste Anzeichen deuten allerdings darauf hin, dass die Gesamtbeschäftigung zwar nicht sinkt, die Nachfrage nach Berufseinsteigern in kreativen Berufen aber abnimmt.
Besorgniserregend ist laut dem AI Safety Report außerdem, dass der Einsatz von KI Menschen zunehmend beeinträchtigt, informierte Entscheidungen zu treffen. Erste Erkenntnisse deuten darauf hin, dass die Abhängigkeit von KI-Tools kritisches Denken schwächt und den Effekt des „Automation Bias“ befördert – die Tendenz, den Ergebnissen von KI-Systemen ohne ausreichende Prüfung und trotz Widersprüchen zu vertrauen.
Stärkung der gesellschaftlichen Resilienz zentral
Ein effektives Risikomanagement bleibt laut International AI Safety Report 2026 schwierig: Neue Fähigkeiten von KI sind unvorhersehbar, die Funktionsweise von Modellen unzureichend erforscht und wirtschaftliche Anreize aufseiten der KI-Unternehmen hemmen die Transparenz. Wenngleich sich technische Schutzmaßnahmen von KI-Modellen verbessern, ist es weiterhin möglich, ihre Mechanismen auszuhebeln, etwa via Prompt Injections. Besonders anfällig dafür sind nach Ansicht der Wissenschaftler Open-Weight-Modelle. Diese bieten für die Forschung und Wirtschaft zwar erhebliche Vorteile, ihre Sicherheitsparameter sind aber einfacher zu entfernen.
Positiv ist dem Bericht zufolge, dass sich die Verpflichtungen der Industrie im Bereich der Sicherheits-Governance ausgeweitet hätten. Trotz dieser Selbstverpflichtungen sei jedoch eine Stärkung der gesellschaftlichen Resilienz zentral. So fordert der AI Safety Report eine Festigung kritischer Infrastrukturen, die Entwicklung von Instrumenten zur Erkennung KI-generierter Inhalte und einen Aufbau institutioneller Kapazitäten zur Reaktion auf neuartige Bedrohungen.
(rah)
Künstliche Intelligenz
IT-Altgeräte: Spenden und Weitergabe statt Müll dominieren in deutschen Firmen
Deutsche Unternehmen gehen mit ausgedienten IT-Geräten mehrheitlich verantwortungsvoll um: 74 Prozent entsorgen funktionsfähige Hardware fachgerecht. Das geht aus einer repräsentativen Umfrage des Branchenverbands Bitkom hervor. Nur ein Prozent wirft die Geräte in den Gewerbeabfall.
Weiterlesen nach der Anzeige
Die Erhebung unter 603 Unternehmen ab 20 Beschäftigten (durchgeführt in den Kalenderwochen 39 bis 44 des Jahres 2025) zeigt, dass Unternehmen unterschiedliche Wege der Wiederverwertung nutzen. 33 Prozent der Befragten spenden ausrangierte Laptops, Server oder Bildschirme an Schulen, Jugendprojekte oder andere gemeinnützige Einrichtungen. 23 Prozent verkaufen die Geräte vergünstigt an die eigene Belegschaft.
Rückgabe und Lagerung als gängige Praxis
28 Prozent der Unternehmen geben ihre IT-Hardware an Leasinggeber zurück, die sich anschließend um Aufbereitung und Weiterverwertung kümmern. 18 Prozent verschenken Geräte direkt an Angestellte, während 12 Prozent sie an spezialisierte Zweitverwerter verkaufen. 15 Prozent lagern funktionsfähige Altgeräte ein, um sie bei Ausfällen, Lieferengpässen oder in Krisensituationen als Ersatz nutzen zu können. Vier Prozent verkaufen an sonstige Dritte.
„Wer Geräte länger in der Nutzung hält, leistet einen aktiven Beitrag zum Umweltschutz und verringert überdies Abhängigkeiten in den Lieferketten“, erklärt Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder. Die längere Nutzung spare Rohstoffe und Energie – wobei der Verband keine konkreten Zahlen zu den Umweltauswirkungen nennt.
Fachgerechte Entsorgung nach ElektroG
Als fachgerecht gilt die Entsorgung laut Bitkom, wenn sie den Vorgaben des Elektro- und Elektronikgerätegesetzes (ElektroG) entspricht, das die EU-WEEE-Richtlinie in Deutschland umsetzt. Dazu gehören die umweltverträgliche Verwertung über zertifizierte Recycling-Systeme wie die Stiftung ear, die professionelle Datenlöschung sowie der Verzicht auf illegale Exporte. In der Praxis kombinieren Firmen unterschiedliche Methoden, wie auch die aktuelle Umfrage zeigt.
Weiterlesen nach der Anzeige
Deutschland liegt beim Elektrogeräte-Recycling mit einer Quote von 85,5 Prozent über dem EU-Durchschnitt von 80,7 Prozent – so zumindest eine Erhebung bei Statista mit Daten aus dem Jahr 2022. Das ElektroG verpflichtet Hersteller, die Kosten für die Entsorgung zu tragen, während im B2B-Bereich individuelle Rücknahmevereinbarungen üblich sind.
(fo)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
