Datenschutz & Sicherheit
So will die EU die KI-Verordnung umsetzen
Zwei neue Dokumente sollen die Zukunft der KI-Regulierung in der EU mitbestimmen. Es geht darum, an welche Regeln sich mächtige KI-Modelle wie ChatGPT, Meta AI oder Gemini halten sollen. Wie transparent müssen die Systeme sein? Wie gut müssen sie die Daten schützen, die Nutzer*innen ihnen anvertrauen?
Die Grundlage dafür ist die neue KI-Verordnung (AI Act) der Europäischen Union, die nun schrittweise in Kraft tritt. Das Gesetz selbst ist aber an vielen Stellen deutungswürdig. Deshalb sollen jetzt Leitlinien und ein Verhaltenskodex klären, wie genau die EU-Kommission diese Regeln anwenden will – und was Unternehmen tun müssen, um Ärger zu vermeiden. Die wichtigsten Fragen und Antworten.
Für wen gelten Leitlinien und Kodex?
Die Leitlinien und der Kodex beziehen sich auf KI-Modelle mit allgemeinem Verwendungszweck (auf Englisch: „General-Purpose AI Models“). Gemeint sind Anwendungen wie ChatGPT oder Meta AI, die sich für erstaunlich viele verschiedene Dinge einsetzen lassen, indem sie beispielsweise Texte, Töne, Bilder oder Videos generieren.
Besser greifbar wird das anhand einiger Beispiele, welche KI-Modelle aus Sicht EU-Kommmission nicht darunterfallen. Den Leitlinien zufolge sind das etwa Modelle, die einfach nur…
- einen Text in Audio umwandeln,
- Schach spielen,
- das Wetter vorhersagen oder
- Soundeffekte erstellen.
Bei solchen und weiteren KI-Modellen ist der Verwendungszweck nicht allgemein, sondern schmal.
Als weiteres Kriterium nennt die EU die Rechenleistung, die beim Training eines KI-Modells zum Einsatz kam, gemessen in der Einheit FLOP („Floating Point Operations“). Der Schwellenwert von 1023 FLOP ist demnach ein Indikator für ein KI-Modell mit allgemeinem Verwendungszweck.
Ob man das in einigen Jahren noch genauso sieht? Die Leitlinien bezeichnen es selbst als eine „nicht zuverlässige Annäherung“, die sich mit dem technologischen Fortschritt verändern könne.
Was sollen betroffene KI-Anbieter machen?
Die Verpflichtungen für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck lassen sich auf drei Bereiche herunterbrechen. Ausführlich beschrieben werden sie im KI-Verhaltenskodex.
- Erstens sollen KI-Anbieter Transparenz schaffen, etwa über die Größe des Modells, die Trainingsdaten, den Energieverbrauch und die unternommenen Versuche, Fehler und Verzerrungen („bias“) einzudämmen.
- Zweitens sollen KI-Anbieter Urheberrechte wahren. Sie sollen zum Beispiel keine Inhalte von Websites erfassen, deren Betreiber dem widersprechen; und sie sollen Maßnahmen ergreifen, um möglichst keine Inhalte erzeugen, die ihrerseits Urheberrechte verletzen.
- Drittens sollen KI-Anbieter sich um Sicherheit und Gefahrenabwehr kümmern. Als konkrete Gefahren nennt der Kodex etwa Diskriminierung, das Abfließen sensibler Daten, die Erstellung illegaler Inhalte oder auch der Einfluss auf die öffentliche mentale Gesundheit. All das sind Aspekte, die beispielsweise Nachrichtenmedien mit Blick auf ChatGPT und ähnliche Modelle längst diskutieren.
Sind Leitlinien und Kodex verpflichtend?
Nein, die KI-Leitlinien und der Verhaltenskodex sind nicht verpflichtend – aber wer sich nicht daran hält, kann trotzdem Probleme bekommen. Das klingt paradox, lässt sich aber erklären, wenn man die Funktion der Regelwerke genauer betrachtet.
Die Grundlage für alles ist die KI-Verordnung, auf die sich Kommission, Rat und Parlament im legislativen Prozess geeinigt haben. Sie ist das Gesetz. Ob jemand gegen dieses Gesetz verstößt oder nicht, das entscheiden im Zweifel Gerichte. Die KI-Verordnung ist aber, wie so viele Gesetze, sehr allgemein formuliert und deutungswürdig.
Hier kommen die Leitlinien ins Spiel. Die EU-Kommission schreibt: Die Leitlinien „verdeutlichen“, wie die Kommission das Gesetz auslegt. Schließlich ist es die Kommission – genauer gesagt: das KI-Büro (AI Office) – das als Regulierungsbehörde über etwaige Verstöße wacht und entsprechende Verfahren einleitet. Doch selbst die Leitlinien sind noch recht allgemein formuliert.
Hier kommt der KI-Verhaltenskodex ins Spiel. Er buchstabiert genauer aus, welche Anforderungen betroffene KI-Systeme erfüllen sollen. Doch auch das ist zunächst freiwillig. Auf die Bedeutung des Kodex geht die EU-Kommission in ihren Leitlinien näher ein. Demnach „können“ betroffene Anbieter die Einhaltung ihrer Verpflichtungen aus der KI-Verordnung nachweisen, indem sie dem Kodex folgen. Wer das lieber nicht tun möchte, müsste auf anderen Wegen den Beweis erbringen, das Gesetz einzuhalten.
Man kann sich diesen Kodex also wie eine Musterlösung vorstellen – für alle, die sich möglichst nicht mit Aufsichtsbehörden anlegen wollen. Der Meta-Konzern will sich anscheinend mit Aufsichtsbehörden anlegen und hat bereits angekündigt, den Kodex nicht befolgen zu wollen. Schon während der Kodex entstand, beklagten Beobachter*innen, wie Konzern-Lobbyist*innen die Regeln zu ihren Gunsten verwässern.
Sind nun alle Fragen geklärt?
Überhaupt nicht. Die Leitlinien zeigen eher auf, auf welchen Ebenen es Konflikte geben wird. Gerade Unternehmen mit starken Rechtsabteilungen dürften versuchen, sich gegen Auflagen und Verpflichtungen zu wehren.
- Bevor ein Mensch ein KI-System nutzt, war oftmals eine Reihe von Akteur*innen beteiligt: vom Training des KI-Modells über den Betrieb eines konkreten Dienstes wie ChatGPT bis hin zu spezifischen Anwendungen, die mittels Schnittstellen funktionieren. Wer genau muss sich nun an die Leitlinien und den Kodex halten? Die EU-Kommission versucht das in den Leitlinien anhand von Beispielen zu verdeutlichen. Konflikte um konkrete Einzelfälle dürften unvermeidbar sein.
- Manche KI-Modelle mit allgemeinem Verwendungszweck will die EU-Kommission besonders ins Visier nehmen. Sie gelten zusätzlich als „systemisches Risiko“ und stehen deshalb unter verschärfter Aufsicht. Entscheidend für diese Einstufung ist laut Leitlinien etwa, ob ein KI-Modell zu den „fortschrittlichsten“ gehört. Durch diese vage Formulierung kann die EU-Kommission zwar flexibel auf technologischen Wandel reagieren. Aber sie gibt widerspenstigen Unternehmen auch Gelegenheit, sich gegen eine unliebsame Einstufung zu wehren.
- Die Leitlinien weisen selbst darauf hin, dass harmonisierte Standards noch fehlen. Dieser Prozess ist komplex und wird dauern. Der Verhaltenskodex sei nur ein temporäres Werkzeug. Gerade wenn Regulierungsstandards den wirtschaftlichen Interessen von Konzernen im Weg stehen, ist eine jahrelange Lobbyschlacht um jedes Detail zu erwarten.
Welchen Zeitplan gibt es für Leitlinien und Kodex?
Wer EU-Regulierung verfolgt, braucht viel Geduld. Es gibt drei wichtige Stichtage über die nächsten drei Jahre:
- Schon sehr bald, am 2. August 2025, treten die Verpflichtungen der KI-Verordnung für Anbieter von KI-Modellen mit allgemeinem Verwendungszweck in Kraft, wie die EU-Kommission auf einer Infoseite erklärt. Das ganz ist aber eher eine Übergangsphase.
- Denn erst ein Jahr später, ab dem 2. August 2026, treten auch die Durchsetzungsbefugnisse der EU-Kommission in Kraft. Das heißt: Erst ab dann müssten säumige Unternehmen damit rechnen, eventuell Ärger von der Regulierungsbehörde zu bekommen, etwa durch Geldbußen.
- Für bereits verfügbare KI-Modelle – von ChatGPT bis Meta AI – gibt es eine noch längere Schonfrist. Denn wer sein KI-Modell schon vor dem 2. August 2025 auf den Markt gebracht hat, muss die Verpflichtungen aus der KI-Verordnung erst in zwei Jahren erfüllen, also ab dem 2. August 2027.
Datenschutz & Sicherheit
BSI: Medienpaket für Lehrkräfte und Eltern zur Cybersicherheits-Bildung
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat ein Medienpaket mit Arbeitsblättern und Erläuterungen für Heranwachsende, Lehrkräfte und Eltern veröffentlicht. Das Paket soll die Vermittlung grundlegender Cybersicherheitskompetenzen unterstützen und richtet sich vor allem an 10- bis 14-Jährige. Damit es möglichst sorgenfrei von pädagogischem Fachpersonal und Erziehungsberechtigten genutzt werden kann, stehen alle Materialien unter der Lizenz CC BY-NC frei zur Verfügung. Sie dürfen unter Nennung des BSI als Urheber weiterverwendet werden.
Material zu drei Themen
Das Medienpaket soll dazu beitragen, Jugendliche frühzeitig für digitale Risiken zu sensibilisieren und ihnen einen sicheren Umgang mit digitalen Medien vermitteln. Bisher gibt es Arbeitsblätter und Erläuterungen zu drei Themen: 1. Smartphone- und App-Sicherheit, 2. Methoden der Cyberkriminalität und Schadprogramme, und 3. Account-Schutz. Sie können einzeln oder auch als Gesamtpaket heruntergeladen werden. Zu jedem Thema stehen jeweils drei Dokumente zur Verfügung, die für die verschiedenen Zielgruppen verfasst wurden: Arbeitsblätter für Schülerinnen und Schüler, das Begleitmaterial für Pädagoginnen und Pädagogen und das Begleitmaterial für Eltern.
Die Arbeitsblätter verweisen über QR-Codes auf digitale Angebote des BSI – etwa auf weitergehende Informationsseiten des BSI oder Videos. Wollen Lehrkräfte die Arbeitsblätter also im Unterricht nutzen, müssen Schülerinnen und Schüler die Möglichkeit haben, über Endgeräte das Internet nutzen zu können. Dem BSI zufolge sind die Materialien auf die Lebenswelt von 10- bis 14-Jährigen ausgerichtet und didaktisch aufbereitet. In Schulen könnten sie in verschiedensten Unterrichtsfächern eingesetzt werden, eine außerschulische Nutzung in Volkshochschulen oder auch Jugendzentren sei ebenso möglich.
Das Arbeitsblatt ist für die interaktive Nutzung gedacht: ohne Endgerät kommen Schülerinnen und Schüler hier nicht weiter.
(Bild: Account-Schutz, Bundesamt für Sicherheit in der Informationstechnik (BSI))
Larissa Hänzgen, Expertin für Verbraucherschutz im BSI, erklärt zur Veröffentlichung des Medienpakets: „Cybersicherheit ist ein grundlegender Bestandteil digitaler Bildung. Unser Ziel ist, Kinder und Jugendliche nicht nur technisch fit, sondern auch sicher durch die digitale Welt zu führen. Mit dem neuen Medienpaket geben wir Lehrkräften ein praxistaugliches und strukturiertes Werkzeug an die Hand, mit dem sie Wissen und Handlungskompetenz im Bereich IT-Sicherheit nachhaltig vermitteln können.“ Für Eltern stehen noch mehr auf sie ausgerichtete Informationsangebote zur Verfügung. Auf einer Webseite für Eltern des BSI wird unter anderem über Jugendschutzeinstellungen, Smart Toys und Cybermobbing informiert.
Präventionsansatz
Wie das BSI erklärt, sind 19 Prozent der 16- bis 22-Jährigen schon einmal von Kriminalität im Internet betroffen gewesen. Das gehe aus dem aktuellen Cybersicherheitsmonitor 2025 hervor. Die 16- bis 22-Jährigen sind dort die jüngste Gruppe der Befragten. Die nun veröffentlichten Informationsangebote des BSI setzen dementsprechend bei Jüngeren an.
(kbe)
Datenschutz & Sicherheit
Automobilsektor: BSI warnt vor rasant wachsenden „digitalen Angriffsflächen“
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) sieht Autos verstärkt als rollende Computer und sorgt sich um deren IT-Security. „Die digitalen Angriffsflächen im Automobilsektor wachsen rasant“, betonte der Vizepräsident der Bonner Behörde, Thomas Caspers, angesichts der Publikation eines Berichts zur Cybersicherheit im Straßenverkehr 2025 im Vorfeld der Automesse IAA in München. Hersteller und Ausrüster in der Branche müssten daher die IT-Sicherheit von vornherein in die Technik einbauen und entsprechende Voreinstellungen treffen („Security by Design and Default“).
Digitale Dienste, Over-the-Air-Updates und vernetzte Steuergeräte prägten zunehmend die Fahrzeugarchitekturen, verdeutlicht das BSI in dem Papier. Zudem nehme der Einsatz von KI in Assistenzsystemen und automatisierten Fahrfunktionen kontinuierlich zu. Das bedeute: Autos würden auf dem Weg zum autonomen Fahren immer vernetzter, Systeme komplexer und die Fortbewegung generell digitaler. Die Absicherung des Automobil-Ökosystems werde damit zur Daueraufgabe.
Laut dem Bericht hat BSI zwischen Februar 2024 und März 2025 insgesamt 107 Meldungen zu IT-Schwachstellen und Vorfällen im Automobilbereich ausgewertet. Für die meisten der Fälle war demnach ein physischer Zugriff oder zumindest eine räumliche Nähe, beispielsweise über Bluetooth oder WLAN, zum Ausnutzen der Sicherheitslücken erforderlich. Es gab aber auch 18 Meldungen, bei denen die Schwachstellen über das Internet zugänglich waren.
Infotainment-Systeme als Einfallstor
Ein Großteil der Meldungen (46 von 59 klassifizierten) basierte auf Sicherheitsanalysen oder Forschungsarbeiten, bei denen die Beteiligten einen Machbarkeitsnachweis („Proof of Concept“) entwickelten. Im Vergleich dazu finde eine aktive Ausnutzung durch Kriminelle gegenwärtig noch eher selten statt, schreibt das BSI. Weitere Bedrohungen ergäben sich indes aus der Option der Einflussnahme durch digitale Produkte, die Herstellern Zugriff auf Informationen und Funktionen ermöglichten.
Vor dem Hintergrund aktueller geopolitischer Konfliktlagen vergrößerten komplizierte Lieferketten die Gefahren, heißt es. Ferner seien mit neuartigen Angriffsmöglichkeiten auf KI-Komponenten und Fahrzeugsensorik durch manipulative Eingaben auch Risiken verbunden. Angesichts der üblicherweise langen Lebenszyklen sowohl von Fahrzeugen als auch der Verkehrsinfrastruktur stelle zudem die Migration auf quantenresistente kryptografische Verfahren eine wichtige Aufgabe dar.
Beliebtes Ziel für Angriffe sind dem Report zufolge Infotainment-Systeme aufgrund ihrer vielen Schnittstellen und Vernetzungsfunktionen. Sicherheitsforscher hätten gezeigt, wie sie zwölf Schwachstellen in den Systemen eines tschechischen Herstellers kombinierten, um über Bluetooth Malware zu installieren. So konnten sie etwa die Position des Fahrzeugs verfolgen und Gespräche aufzeichnen. Betroffen waren laut Schätzungen etwa 1,4 Millionen Fahrzeuge.
Fahrzeugdaten offen im Netz
Eine ähnliche Attacke auf ein Infotainment-System eines japanischen Herstellers befähigte Angreifer laut den Autoren, sich nach dem initialen Zugriff über Bluetooth auch jederzeit über Mobilfunk auf die ganze Apparatur aufzuschalten. Dies hätte es ihnen ermöglicht, den Fahrer abzuhören, die GPS-Position zu verfolgen oder sogar Fahrzeugfunktionen wie die Lenkung zu kontrollieren. Ferner seien in der QNX-Software, die in Infotainment-Systemen von Herstellern wie BMW, Volkswagen und Audi integriert ist, kritische Schwachstellen entdeckt worden. Eine habe das Ausführen von Programmcode aus der Ferne erlaubt.
Die Behörde erinnert daran, der Chaos Computer Club (CCC) habe aufgedeckt, dass Terabyte an Positionsdaten von E-Fahrzeugen von VW durch einen Konfigurationsfehler ungeschützt über das Internet einsehbar waren. Informationen von rund 800.000 Fahrzeugen und 600.000 Kunden, einschließlich Namen und Adressen, seien betroffen gewesen. Ein Experte habe zudem Sicherheitslücken in einem Web-Portal eines japanischen Herstellers gefunden, die ihm den Zugriff auf Standortdaten von Fahrzeugen in Nordamerika und Japan ermöglichten. Es wäre ihm sogar möglich gewesen, über das Portal fremde Autos zu starten oder zu öffnen.
Die NIS2 getaufte EU-Richtlinie zur Netzwerk- und Informationssicherheit bringe neue gesetzliche Auflagen für viele Unternehmen in der Automobilbranche mit, unterstreicht das BSI. Dazu gehörten eine Registrierungspflicht und die Meldung erheblicher Sicherheitsvorfälle an das Amt. In der Branche sei ein Mentalitätswandel nötig, um das Teilen von Informationen über Schwachstellen zu fördern und die Cybersicherheit als Qualitätsmerkmal zu betrachten.
(cku)
Datenschutz & Sicherheit
SAP-Patchday September 2025 behebt mehr als zwanzig Lücken – vier HotNews
SAP hat in der neunten Ausgabe seines diesjährigen Sicherheits-Patchdays einundzwanzig neue Sicherheitslücken behoben und stuft vier der Lücken als „HotNews“, also besonders kritisch, ein. Administratoren und Managed-Service-Provider sollten schnell reagieren.
Immer wieder unsichere Deserialisierung
Die vier HotNews beziehen sich auf:
- Eine unsichere Deserialisierung in Netweaver RMI-P4 erhält die Höchstwertung von 10,0 CVSS-Punkten (Schweregrad: kritisch) und die CVE-ID CVE-2025-42944. Die Lücke kann zum Einschleusen beliebigen Codes missbraucht werden.
- In SAP Netweaver AS Java werden Dateien auf unsichere Art behandelt – CVE-2025-42922 (CVSS 9.9, kritisch) ermöglicht einem SAP-Nutzer den Upload beliebiger Dateien und deren Ausführung.
- Bei der dritten HotNews handelt es sich um ein Update einer bereits im März 2023, damals aber offenbar unvollständig behandelten Lücke mit einer CVSS-Wertung von 9.6 (kritisch), der CVE-ID CVE-2023-27500 und für SAP Netweaver AS for ABAP and ABAP Platform.
- Auf immerhin 9,1 Punkte und damit ebenfalls eine kritische Wertung kommt CVE-2025-42958, eine fehlende Authentifizierungsprüfung in SAP Netweaver auf IBM i-series. Sie ist nur durch angemeldete Nutzer ausnutzbar.
Weitere Sicherheitsflicken aus dem Hause SAP gibt es für SAP Commerce Cloud, Datahub, HCM, BusinessObjects, Fiori und weitere Produkte des Softwarekonzerns. Immerhin liefert dieser interessierten Dritten eine Übersicht der behobenen Probleme – für Details und Patches benötigen Betroffene jedoch ein SAP-Konto.
Erst kürzlich waren aktive Angriffe auf eine kritische S/4HANA-Schwachstelle bekannt geworden, unter unsicherer Deserialisierung litt hingegen ein bekanntes Produkt von Mitbewerber Microsoft. Der Sharepoint-Exploit „ToolShell“ sorgte im vergangenen Juli für Aufregung und wirkt bis heute nach – etwa durch ein Datenleck bei Infoniqa.
(cku)
-
Datenschutz & Sicherheitvor 3 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
UX/UI & Webdesignvor 3 Wochen
Der ultimative Guide für eine unvergessliche Customer Experience
-
Apps & Mobile Entwicklungvor 3 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 2 Wochen
Adobe Firefly Boards › PAGE online
-
Social Mediavor 3 Wochen
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Online Marketing & SEOvor 3 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Entwicklung & Codevor 3 Wochen
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 7 Tagen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events