Künstliche Intelligenz
China verbessert seine 7-Nanometer-Technik weiter
Der chinesische Chipauftragsfertiger Semiconductor Manufacturing International Corporation (SMIC) und Huawei machen weiter Fortschritte bei der heimischen Chipfertigungstechnik. Der Mobilprozessor Kirin 9030 Pro und dessen Ableger Kirin 9030 entstehen in einem noch feineren Fertigungsprozess als die vorherigen 9000er-Modelle.
Weiterlesen nach der Anzeige
Zu diesem Ergebnis kommen die Analysten von Techinsights, die einen Kirin 9030 aufgeschliffen und die Transistorstrukturen untersucht haben.
Von N+2 zu N+3
Der Kirin 9000S nutzte 2023 erstmals einen chinesischen Fertigungsprozess der 7-Nanometer-Klasse, von SMIC N+2 genannt. Unklar war damals, wie weit SMIC und Huawei diesen Prozess noch verfeinern können ohne aktuelle Lithografie-Systeme aus Europa. Vor allem, weil N+2 eine weitgehende Kopie vom N7-Prozess des größten Chipauftragsfertigers TSMC aus Taiwan gewesen sein soll.
Beim Kirin 9030 (Pro) kommt jetzt die nächste Stufe N+3 zum Einsatz. Techinsights resümiert: „Obwohl der N+3-Prozess von SMIC bedeutende Verbesserungen hinsichtlich der Dichte aufweist, bestätigen unsere Vergleichsmessungen, dass er nach wie vor deutlich schlechter skaliert als die führenden kommerziellen 5-nm-Prozesse von TSMC und Samsung.“
N+3 ist damit am ehesten mit verbesserten 7-nm-Prozessen wie TSMCs N7 vergleichbar. Huawei setzt den Kirin 9030 Pro und Kirin 9030 in den neuen Smartphones der Serie Mate 80 ein.
Vom Rest abgeschlagen
Weiterlesen nach der Anzeige
Der niederländische Lithografie-Weltmarktführer ASML darf nur ältere Systeme nach China verkaufen, die mit tief-ultraviolettem Licht (Deep Ultraviolet, DUV, 193 nm) arbeiten. Komplexere Varianten mit extrem-ultraviolettem Licht (EUV, 13,5 nm) sind schon seit ihrer Einführung aufgrund von Exportverboten für China tabu. TSMC, Samsung und Intel nutzen spätestens seit der 5-nm-Generation EUV.
Um die Transistoren weiter zu schrumpfen, müssen SMIC und Huawei einzelne Chipschichten aufwendig mehrfach belichten (Multi-Patterning), jetzt offenbar bis zu viermal. Abwechselnde Belichtungs- und Ätzvorgänge mit leichtem Versatz ermöglichen feinere Strukturen, als die DUV-Technik normalerweise zulässt.
Jeder zusätzliche Belichtungsschritt erhöht allerdings auch das Risiko für Fertigungsdefekte. Chinas N+3-Technik gilt daher als teuer und dürfte nur mithilfe von Subventionen möglich sein. Die chinesische Regierung unterstützt die Entwicklung mit Milliardenbeiträgen.
Für SMIC und Huawei kommt erschwerend hinzu, dass ASML auch seine aktuellen DUV-Lithografie-Systeme mit besonders genauer Ausrichtung seit 2023 nicht mehr nach China verkaufen darf. Das neueste Modell Twinscan NXT:2150i kann Wafer auf unter ein Nanometer genau ausrichten, also auf wenige Atome genau. Diese Angabe ist wörtlich zu verstehen, anders als bei den fantasiebehafteten Nanometer-Bezeichnungen moderner Fertigungsprozesse.
Der für China zugelassene Twinscan NXT:1800Di hat eine sogenannte Überdeckungsgenauigkeit von 1,6 nm. Chinas eigene Lithografie-Systeme hinken in der Metrik noch erheblich hinterher.
Im Geekbench abgeschlagen
Erste mutmaßliche Benchmarks des Kirin 9030 Pro zeigen, dass der Prozessor deutlich langsamer ist als die westliche Konkurrenz. Ein frühes Ergebnis im Vergleichs-Benchmark Geekbench nennt 1131 Single- und 4277 Multithreading-Punkte. Zum Vergleich: Apples aktueller A19 Pro im iPhone 17 Pro schafft fast 4000 beziehungsweise 10.000 Punkte. Qualcomms Snapdragon 8 Elite kommt auf bis zu 3200 beziehungsweise ebenfalls knapp 10.000 Punkte.
Ein Grund liegt bei den niedrigen Taktfrequenzen. Während Apple und Qualcomm auf über 4,0 GHz kommen, schafft der Kirin 9030 Pro offenbar nur knapp 2,8 GHz. Selbst wenn die bisherigen Ergebnisse noch unter dem vollen Potenzial des Kirin-Prozessors liegen, dürfte Huawei kaum bald die ganze Lücke schließen.
(mma)
Künstliche Intelligenz
„Wollen nicht perfekt, gut genug reicht“: KI soll US-Verkehrsregeln verfassen
Das US-Verkehrsministerium will Regeln für die Verkehrssicherheit künftig von KI-Technik vorfertigen lassen, Beamten und Beamtinnen sollen diese dann nur noch korrekturlesen. Eine erste Regel der Flugaufsicht wurde sogar schon KI-gestützt verfasst, ist aber noch unveröffentlicht. Das berichtet das US-Magazin ProPublica unter Berufung auf mehrere Quellen, die bei internen Vorstellungen der Pläne anwesend waren. Der Justiziar des Ministeriums habe dabei deutlich gemacht, dass damit vor allem der Prozess der Erarbeitung von Vorgaben beschleunigt werden soll. „Wir brauchen nicht die perfekte Regel für XYZ, wir brauchen nicht einmal eine sehr gute Regel für XYZ“, zitiert ProPublica aus der Mitschrift der Aussagen von Gregory Zerzan: „Wir wollen gut genug.“ Weiterhin habe er erklärt: „Wir überschwemmen den Bereich.“
Weiterlesen nach der Anzeige
Geschwindigkeit als oberstes Gebot
Die Ankündigung habe im Ministerium Besorgnis ausgelöst, schreibt ProPublica. Immerhin sei das Haus für Regeln zuständig, die so gut wie jeden Bereich der Transport- und Verkehrssicherheit betreffen. Dabei gehe es um die Sicherheit von Flugzeugen, Pipelines oder des Güterverkehrs. Gegenwärtig dauere es Monate oder gar Jahre, die komplexen Vorgaben zu verfassen, die in den gesamten Vereinigten Staaten gelten sollen. Mit einer eigenen Version von Googles Gemini, die dafür zum Einsatz kommen soll, würden nur noch Minuten oder gar Sekunden benötigt. Erklärtes Ziel ist es dem Bericht zufolge, die Erstellung von Verkehrsregeln drastisch zu verkürzen. Von der Idee bis zur Vorlage beim Office of Information and Regulatory Affairs, das diese dann prüfen muss, sollen maximal 30 Tage vergehen.
Bei einer internen Vorstellung der Pläne wurde demnach erklärt, dass Gemini 80 bis 90 Prozent der Erstellung von Regularien übernehmen soll. Um die Leistungsfähigkeit vorzuführen, habe die KI-Technik während der Präsentation eine typische Ankündigung für eine geplante Regel erstellen sollen. Diese werden vorab veröffentlicht, damit die Öffentlichkeit dazu Stellung nehmen kann. Im konkreten Fall habe in der KI-generierten Version aber offenbar genau jener Text gefehlt, der die Regel ausführt. Trotzdem hätten sich die Verantwortlichen nicht besorgt gezeigt, dass die sogenannten Halluzinationen von KI-Textgeneratoren für Probleme sorgen könnten. Und selbst wenn, wäre es dann an den Beamten und Beamtinnen des Ministeriums, solche Fehler zu finden und zu entfernen.
Von den Verantwortlichen hat ProPublica keine Stellungnahme zu dem Bericht erhalten, wohl aber von den anonymen Quellen aus dem Ministerium. Diese hätten darauf hingewiesen, dass die Ausarbeitung von Vorschriften eine komplexe Aufgabe sei, die viel Fachwissen erfordere. Beachtet werden müssten bestehende Gesetze und andere Vorschriften, aber auch Rechtsprechung durch Gerichte. Fehler oder Versäumnisse bei der Formulierung könnten zu Rechtsstreitigkeiten oder sogar Verletzungen und Todesfällen führen. Sogar der ehemalige KI-Chef des Ministeriums hat die Pläne demnach kritisiert. Mike Hortin hat das Amt Ende August aufgegeben, als es die Pläne noch nicht gegeben hatte. Für ihn klinge das, als würde man „einen Highschool-Praktikanten die Vorschriften ausarbeiten lassen“.
(mho)
Künstliche Intelligenz
Automatisierte Accessibility-Prüfung im Web: Möglichkeiten und Grenzen
Mit dem European Accessibility Act (EAA) und seiner nationalen Umsetzung durch das Barrierefreiheitsstärkungsgesetz (BFSG) gelten seit Juni 2025 in Deutschland verbindliche Anforderungen für zahlreiche digitale Produkte und Dienstleistungen. Parallel dazu wurden die organisatorischen Voraussetzungen geschaffen: Die zuständige Marktüberwachungsbehörde ist eingerichtet und nimmt schrittweise ihre Arbeit auf. Damit rückt Barrierefreiheit für viele Unternehmen erstmals in den konkreten Fokus von Compliance, Risikoabwägung und Produktverantwortung.
Weiterlesen nach der Anzeige

Maria Korneeva ist Frontend Technology Lead und Google Developer Expert mit Fokus auf Angular und Barrierefreiheit. Sie arbeitet freiberuflich an Frontend-Anwendungen, leitet Workshops und teilt ihre Erfahrungen auf Konferenzen und Meetups sowie in ihrem Buch „Barrierefreie Webentwicklung: von den Grundlagen bis zur praktischen Umsetzung“.
Und es wächst der Wunsch nach effizienten, skalierbaren Lösungen. Viele Organisationen hoffen auf automatisierte Accessibility-Checks als schnellen und möglichst vollständigen Weg zur Konformität. Entsprechend populär sind Linter, Browser-Extensions, CI/CD-Integrationen und KI-gestützte Prüfwerkzeuge. Automatisierung ist dabei ein wichtiges und sinnvolles Werkzeug – doch sie hat klare technische Grenzen.
Denn zahlreiche Barrieren lassen sich nicht maschinell erkennen. Sie entstehen durch fehlenden Kontext, unklare Bedeutung, komplexe Interaktionen oder mangelnde Verständlichkeit – Aspekte, die menschliches Urteilsvermögen erfordern. Dieser Artikel zeigt, welche Arten von Accessibility-Tools es gibt, welche Aufgaben sie sinnvoll übernehmen können und warum ein erheblicher Teil der Barrieren auch mit modernster Automatisierung unsichtbar bleibt.
Testwerkzeuge und ihre Grenzen
Um die Möglichkeiten und Grenzen automatisierter Barrierefreiheitsprüfungen zu verstehen, lohnt sich zunächst ein Blick auf die unterschiedlichen Werkzeugtypen und darauf, welche Aspekte von Accessibility sie jeweils erfassen können.
Linter sind statische Analysetools für Quellcode. Sie erkennen syntaktische oder strukturelle Fehler, etwa ob ein alt-Attribut fehlt oder ein Button kein Label besitzt. Allerdings haben sie keine Kenntnis darüber, wie sich Seiten im Browser verhalten, wie Fokusabläufe funktionieren oder ob interaktive Komponenten korrekt reagieren. Statische Tools sehen nur Code – nicht Nutzung.
Weiterlesen nach der Anzeige
Browser-Extensions analysieren hingegen das Document Object Model (DOM) im gerenderten Zustand und können so mehr erkennen als statische Analyzer. Dennoch bleiben sie „Snapshot-Tools“: Sie bewerten einen Zustand, aber nicht die Interaktion über mehrere Schritte hinweg. Komplexe Fokusänderungen, Tastaturfallen oder dynamisch aktualisierte Inhalte bleiben typischerweise unsichtbar.
Unit-Test-Plug-ins sind nützlich, um bestimmte einzelne Komponenten auf Barrieren zu prüfen. Allerdings decken Unit-Tests die Funktionalität (zum Beispiel Tastaturbedienbarkeit) nur einer Komponente ab und bilden typischerweise keine vollständigen Nutzerflows ab.
End-to-End-Testtools bieten eine größere Abdeckung. Sie können komplexere Interaktionen simulieren, etwa die Fokussteuerung beim Öffnen und Schließen eines Modals, also eines Dialogs, der sich über die Inhalte der Seite legt und oft eine zusätzliche Aktion beinhaltet. An solche Testszenarien müssen Entwicklerinnen und Entwickler jedoch selbst denken. Werden Accessibility-Plug-ins integriert, lassen sich einige Aspekte automatisiert prüfen. Das umfangreichste Ergebnis erhält man, indem man Testfälle für wichtige Prozesse selbst schreibt und zusätzlich verschiedene Zustände seiner Website über automatisierte Plug-ins prüfen lässt. Doch auch dann bleibt ein grundsätzliches Problem: End-to-End-Tests wissen nicht, ob ein Bedienablauf „logisch“ oder „verständlich“ ist. Sie führen Befehle aus – aber sie „erleben“ die Nutzung nicht so, wie es ein Mensch tut.
CI/CD-Scanner automatisieren Prüfungen im Build- oder Deployment-Prozess. Sie eignen sich besonders gut dafür, typische fehlerhafte Muster frühzeitig aufzudecken und Regressionen zu vermeiden. Ihre Grenzen sind jedoch die gleichen wie die der zugrunde liegenden Tools. Ob man Linter, Browsererweiterungen, Unit-Tests oder End-to-End-Tests einbindet: Sie prüfen Code, Struktur und einfache Interaktionen – aber keine komplexen Navigationsabläufe oder inhaltlichen Bedeutungen.
Alle diese Werkzeuge leisten wertvolle Beiträge im Entwicklungsprozess. Doch wie viel Testaufwand lassen sie noch übrig?
(Bild: jaboy/123rf.com)

Mehr über Accessibility im Web erfährst du auf der enterJS 2026 am 16. und 17. Juni in Mannheim. Die Konferenz dreht sich rund um die JavaScript/TypeScript-Entwicklung im Enterprise-Bereich. Vergünstigte Frühbuchertickets sind im Online-Ticketshop erhältlich.
Wie viel Automatisierung wirklich leisten kann: Erkenntnisse aus Studien und Praxis
Mehrere Studien haben untersucht, wie hoch der Anteil der Barrieren ist, den automatisierte Tools tatsächlich erkennen können. Eine umfassende Analyse des Accessibility-Software-Anbieters Deque Systems ergab 2024, dass dessen automatisierte Tests etwa 57 Prozent aller Accessibility-Probleme in realen Audits identifizieren konnten. Mit KI-Unterstützung will das Unternehmen sogar gut 80 Prozent erreicht haben.
Accessibility-Praktikerinnen und -Praktiker sehen die Wirksamkeit der automatisierten Tools deutlich eingeschränkter und schätzen, dass sich nur 20 bis 40 Prozent der potenziellen Barrieren technisch erkennen lassen. Mehrere Expertinnen und Experten, darunter Adrian Roselli und Steven Faulkner, berichten aus umfangreichen Feldtests, dass automatisierte Checks sogar nur 4 bis 10 Prozent der wirklichen Probleme erkennen.
Womit lässt sich diese Diskrepanz in den Schätzungen erklären? Natürlich unterscheiden sich die Zahlen der Marketing-Abteilung und der unabhängigen Accessibility-Beratung, weil sie damit unterschiedliche Ziele verfolgen. Auch die absichtlich eingefügten Bugs, die die Testseiten enthalten, unterscheiden sich, und somit auch die Testergebnisse. WCAG-Versionen (Web Content Accessibility Guidelines), genutzte Tools – all das sorgt für eine hohe Varianz in Schätzungen.
Trotz der Unterschiede zeigen diese Zahlen eindeutig, dass die existierenden Tools noch nicht hundertprozentig beurteilen können, ob eine Website barrierefrei ist. Selbst die formelle Prüfung der WCAG-Kriterien ist noch nicht zu 100 Prozent automatisiert möglich.
Typische Limitierungen und Fallbeispiele
Auch wenn Barrierefreiheit deutlich mehr als stupide Einhaltung der WCAG-Erfolgskriterien erfordert, stellen diese Richtlinien eine fundierte Checkliste zum Einstieg dar. Die darin enthaltenen Anforderungen betreffen sowohl die technische als auch die semantische Seite der Inhalte, das heißt, wie sie programmatisch zur Verfügung gestellt werden und wie verständlich sie formuliert sind.
Automatisierte Accessibility-Tools können in erster Linie Strukturen, Muster und technische Eigenschaften prüfen. Sie erkennen fehlende Attribute, inkorrekte Rollen oder syntaktische Fehler – aber sie verstehen nicht, was Inhalte bedeuten, wie Nutzerinnen und Nutzer mit einer Anwendung interagieren oder wie logisch ein Interface aufgebaut ist.
Deswegen lohnt sich der Blick auf die WCAG-Kriterien aus folgender Perspektive: Welche Anforderungen betreffen nicht nur Strukturen und formelles Vorhandensein von bestimmten Elementen, sondern auch Aspekte wie intuitive Nutzung, Interpretation, Kontext und Relevanz? Dabei stehen die Kriterien der Konformitätsstufen A und AA (siehe Infokasten) im Fokus, da sie von sämtlichen Barrierefreiheitsgesetzen als rechtliche Anforderung genannt werden. Die WCAG-Richtlinien basieren auf den Grundprinzipien der Barrierefreiheit für Webinhalte – Wahrnehmbarkeit, Bedienbarkeit, Verständlichkeit und Robustheit. Rund um diese Prinzipien sind auch die Beispiele in diesem Artikel gruppiert.
Die Web Content Accessibility Guidelines (WCAG) sind ein internationaler Standard des World Wide Web Consortium (W3C) zur barrierefreien Gestaltung von Webinhalten. Sie definieren prüfbare Erfolgskriterien, die sich an vier Grundprinzipien orientieren: wahrnehmbar, bedienbar, verständlich und robust.
Die WCAG unterscheiden drei Konformitätsstufen, die unterschiedliche Ebenen von Wirkung, Aufwand und fachlicher Komplexität der Anforderungen beschreiben:
- Stufe A
Anforderungen mit grundlegender Wirkung auf die Barrierefreiheit und vergleichsweise geringem Umsetzungsaufwand. Ohne ihre Erfüllung ist eine Nutzung für viele Menschen mit Behinderungen kaum oder gar nicht möglich (z. B. Alternativtexte für Bilder, Tastaturbedienbarkeit). - Stufe AA
Anforderungen mit hoher Wirkung für eine breite Nutzer:innengruppe, die zentrale Barrieren im Nutzungskontext abbauen, aber bereits ein höheres Maß an gestalterischem, redaktionellem und technischem Barrierefreiheits-Know-how erfordern (z. B. ausreichende Farbkontraste, verständliche Beschriftungen, konsistente Navigation).
Diese Stufe gilt in der Praxis als maßgeblicher rechtlicher Standard und wird von nahezu allen Barrierefreiheitsgesetzen gefordert. - Stufe AAA
Anforderungen mit sehr spezifischer Wirkung für einzelne Nutzergruppen, die mit hohem konzeptionellem, technischem oder organisatorischem Aufwand verbunden sind und daher nicht für alle Inhalte realistisch umsetzbar sind (z. B. Gebärdensprachversionen).
Künstliche Intelligenz
Frankreichs Parlament für Social-Media-Verbot unter 15
Die französische Nationalversammlung hat für ein Nutzungsverbot sozialer Netzwerke für Kinder und Jugendliche unter 15 Jahren gestimmt. Die Abgeordneten in Paris nahmen am Montagabend einen entsprechenden Gesetzesvorschlag an. Er sieht vor, dass „der Zugang zu einem von einer Onlineplattform bereitgestellten Onlinedienst für ein soziales Netzwerk“ für Minderjährige unter 15 Jahren verboten ist. Der Text muss noch im Senat abgestimmt werden, der anderen Parlamentskammer.
Weiterlesen nach der Anzeige
Welche sozialen Medien konkret vom Verbot betroffen wären, lässt die verabschiedete Formulierung offen. Klargestellt wird lediglich, dass „Online-Enzyklopädien“ sowie „Bildungs- oder Wissenschaftsverzeichnisse“ davon ausgenommen sein sollen. Auch private Messengerdienste sollen nicht betroffen sein.
Ursprünglicher Gesetzesvorschlag sah kein Komplettverbot vor
Der ursprünglich eingebrachte Text, über den die Abgeordneten debattierten, ging weniger weit: Er sah vor, dass bestimmte Seiten mit Erlaubnis der Eltern auch weiterhin hätten genutzt werden können. Das ist nun nicht mehr der Fall.
Der Gesetzesvorschlag wurde in der Nationalversammlung vor allem vom Lager des französischen Präsidenten Emmanuel Macron unterstützt. Nach der Abstimmung teilte Macron auf der Plattform X mit: „Das ist es, was Wissenschaftler empfehlen, und das ist es, was die Franzosen in großer Mehrheit fordern.“
Der Staatschef will, dass die Regelung bereits zum nächsten Schuljahr greift. „Ab dem 1. September werden unsere Kinder und Jugendlichen endlich geschützt sein. Dafür werde ich sorgen“, schrieb Macron.
EU-Recht führte zu Problemen bei vorherigem Gesetz
Weiterlesen nach der Anzeige
Frankreich hatte bereits vor einigen Jahren versucht, ein Mindestalter von 15 Jahren dafür einzuführen, dass Jugendliche ohne Erlaubnis ihrer Eltern ein eigenes Konto auf sozialen Netzwerken anlegen können. Das Gesetz konnte wegen der europäischen Rechtslage aber nicht angewandt werden. Ob die neuen Regeln dem aktuellen EU-Recht standhalten, muss sich noch zeigen.
Das Europäische Parlament stimmte vergangenes Jahr mit deutlicher Mehrheit für die Forderung nach einem EU-weiten Mindestalter. Der verabschiedete Bericht hat aber bislang keine bindende Wirkung.
Sollte das Gesetz in Frankreich endgültig verabschiedet werden, wäre Deutschlands Nachbar eines der ersten Länder, das derart restriktive Vorgaben für Minderjährige einführt. In Australien dürfen Kinder und Jugendliche unter 16 Jahren seit Kurzem keine eigenen Social-Media-Konten mehr auf vielen großen Plattformen haben.
In Großbritannien stimmte das Oberhaus in der vergangenen Woche ebenfalls für ein Social-Media-Verbot bis 16 Jahre, das jetzt noch durch das von der Regierungspartei Labour dominierte Unterhaus muss. In Dänemark verständigte sich die Regierung mit der Opposition darauf, eine nationale Altersgrenze von 15 Jahren für den Zugang zu bestimmten sozialen Medien einzuführen.
Und auch in Deutschland gibt es eine Debatte darüber, ob der Zugang zu sozialen Medien für Kinder eingeschränkt werden sollte.
(dahe)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 4 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
