Künstliche Intelligenz
China will anthropomorphe KI streng regulieren
Die chinesische Cybersicherheitsbehörde Cyberspace Administration of China (CAC) hat am 27. Dezember 2025 einen neuen Entwurf zur Regulierung von KI-Systemen zur öffentlichen Diskussion gestellt. Wie die Nachrichtenagentur Reuters berichtet, betreffen die Regeln an Endwanwender gerichtete KI-Systeme, die menschliches Verhalten nachahmen und zu emotionalen Interaktionen führen. Betroffen sollen Produkte und Dienste sein, die simulierte menschliche Persönlichkeitszüge oder Denkmuster aufweisen und mehr als eine Million insgesamt registrierte oder mehr als 100.000 monatlich aktive Nutzer haben Dabei spielt es keine Rolle, ob die Kommunikation über Text, Bilder, Sprache oder andere Medien erfolgt.
Weiterlesen nach der Anzeige
Die vorgeschlagene Regulierung soll die Anbieter verpflichten, während des kompletten Produkt-Lebenszyklus‘ Transparenz, Nachvollziehbarkeit, Datensicherheit und den Schutz persönlicher Nutzerdaten sicherzustellen.
Psychologische Notfallpläne
Im Unterschied zu vielen anderen KI-Regulierungen betont das vorgeschlagene Regelwerk auch psychologische Risiken. Anbieter sollen Mittel zur Verfügung stellen, die Stimmungen und mögliche emotionale Abhängigkeiten der Nutzer erkennen und bei Bedarf intervenieren können. In extremen Situationen, etwa wenn Nutzer mit Suizid oder Selbstverletzung drohen, sollen menschliche Ansprechpartner übernehmen können. Minderjährige und ältere Menschen sollen zudem verpflichtet werden, vor Nutzung der Dienste Notfallkontakte zu hinterlegen.
Die Produkte oder Dienste müssen dem Vorschlag zufolge Anwender außerdem regelmäßig und an prominent platzierten Stellen darauf hinweisen, dass sie mit einer KI interagieren. Finden sich im Nutzerverhalten Muster, die auf Abhängigkeiten hindeuten, müssen zusätzliche Pop-ups diese Hinweise wiederholen. Übersteigt die Nutzungsdauer zwei Stunden, soll eine Zwangspause nötig werden.
Trainingsdaten auf Parteilinie
Artikel 10 des Richtlinienvorschlags verpflichtet die Anbieter, für das Training der KI Datensätze zu verwenden, die „den Grundwerten des Sozialismus“ und den traditionellen Werten Chinas entsprechen. Anbieter sollen die Nachvollziehbarkeit der Trainingsdaten permament sicherstellen und dafür sorgen, dass die Systeme keine Inhalte generieren, die beispielsweise die nationale Sicherheit gefährden oder die soziale Ordnung stören.
(ulw)