Künstliche Intelligenz
Studie: Live-Gesichtserkennung durch Polizei nur rechtswidrig möglich
Darf die deutsche Polizei Datenbanken mit Personenbildern aufbauen, um damit eine Live-Gesichtserkennung etwa bei Videokameraaufnahmen zu ermöglichen? Dieser politische Wunsch einer weitgehend automatisierten Suche nach Gefährdern, Straftätern und polizeilich Gesuchten ist nicht ganz neu. Immerhin enthält der Koalitionsvertrag zwischen CDU, CSU und SPD eine Formulierung, nach der Sicherheitsbehörden „unter Berücksichtigung verfassungsrechtlicher Vorgaben und digitaler Souveränität, die automatisierte Datenrecherche und -analyse sowie den nachträglichen biometrischen Abgleich mit öffentlich zugänglichen Internetdaten, auch mittels Künstlicher Intelligenz“ erlaubt werden soll.
Weiterlesen nach der Anzeige
Doch neben sehr viel Science Fiction spielt vor allem eine Frage eine Rolle: Was sind die technischen Voraussetzungen, damit diese Kriterien erfüllt werden könnten? Denn davon hängen die politischen und rechtlichen Antworten maßgeblich ab. Die Organisation Algorithmwatch hat beim Hamburger Informationswissenschaftler Dirk Lewandowski eine Studie in Auftrag gegeben, um die technischen und rechtlichen Grenzen solcher Planspiele auszuloten.
Live-Suche „nur theoretisch möglich“
Lewandowski untersucht verschiedene Ansätze, wie ein Echtzeitabgleich von Gesichtsaufnahmen mit dem öffentlich zugänglichen Internet oder mit gänzlich eigenen Datenbanken technisch organisiert sein kann. Der Wissenschaftler beschreibt unter anderem, wie die in der EU unzulässige, aber bekannte Bildersuchmaschine PimEyes vorgeht: Sie speichert nicht nur die Bilder und ihre Eigenschaften, sondern auch ein Template mit wesentlichen Merkmalen der abgebildeten Person. Das führt zu schnelleren und genaueren Sucheergebnissen. „Die Überlegenheit in der Suche liegt darin, dass die biometrischen Gesichtsmerkmale für die Suche verwendet werden und nicht nur Low-Level-Features wie Formen und Farbverteilungen oder Umgebungstexte“, heißt es in der Studie.
Was aber nicht funktioniert, ist eine reine Livesuche: „Ohne eine Datenbank aufzubauen, kann kein ‚One to many‘-Abgleich durchgeführt werden, sondern nur ein ‚One to One‘-Vergleich.“ Dieser direkte Vergleich zweier Bilddateien müsste dann wiederum massenhaft stattfinden, um die Notwendigkeit einer Datenbank zu umgehen – aus informationswissenschaftlicher Perspektive sei eine „Live-Suche“ im Web daher „nur theoretisch möglich“, meint Lewandowski.
Doch was bedeutet das für die Pläne der Bundesregierung, hier weitere Möglichkeiten zu schaffen? Bei einer gemeinsamen Pressekonferenz am Vormittag in Berlin betonten Vertreter verschiedener Organisationen, die Bundesregierung müsse daraus Konsequenzen ziehen. Die Regierung könne diese technischen Tatsachen nicht ignorieren, meint Algorithmwatch-Geschäftsführer Matthias Spielkamp – und fordert, die Vorbereitungen im Bundeskabinett abzubrechen. „Die angestrebten biometrischen Erkennungsverfahren würden zwangsläufig gegen EU-Recht verstoßen, weil sie ohne den Einsatz von Datenbanken nicht umsetzbar sind.“ Die KI-Verordnung der EU verbiete genau solche Datenbanken.
Tatsächlich enthält die KI-Verordnung zahlreiche Vorschriften für „biometrische Echtzeit-Fernidentifizierung“, verbietet diese jedoch für Strafverfolgungszwecke nicht grundsätzlich. Allerdings verbietet Artikel 5 der Verordnung ausdrücklich „das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“. Lewandowskis Gutachten dürfte die Debatte darum, ob die Verbotstatbestände und die Erlaubnisausnahmen technisch überhaupt sinnvoll miteinander vereinbar sind, erneut anfeuern.
Lesen Sie auch
Der ehemalige Bundesdatenschutzbeauftragte Ulrich Kelber warnt Bundesinnenminister Alexander Dobrindt (CSU) denn auch unverblümt davor, dass die Gesetzgebung wieder vor dem Verfassungsgericht landen dürfte: „Das Bundesinnenministerium hat daraus nicht gelernt und will erneut gesetzliche Regelungen, die erkennbar gegen Vorgaben der Verfassung, des Datenschutzes und der KI-Regulierung verstoßen.“ Kelber hatte bereits während seiner Amtszeit bis 2024 deutliche Kritik an entsprechenden Plänen geäußert.
Weiterlesen nach der Anzeige
Simone Ruf von der Gesellschaft für Freiheitsrechte (GFF) sieht wenig Spielraum für den Gesetzgeber: „Aus unserer Perspektive sehr wahrscheinlich, dass der Abgleich mit einer Referenzdatenbank vor dem Verfassungsgericht nicht standhalten.“ Bei einer bereits existierenden, entsprechenden Befugnis beim Bundesamt für Migration und Flüchtlinge würde zudem im Raum stehen, sämtliche Sicherungsmechanismen zu streichen. Risiko und Erfolg stünden in keinem Verhältnis.
Amnesty: Palantir von öffentlichen Aufträgen ausschließen
Körperdaten von Menschen dürften keine freie Verfügungsmasse sein, betonte Matthias Marx vom Chaos Computer Club (CCC). Bereits existierende Anbieter wären aus gutem Grund in der EU illegal. „Egal, wer sie betreibt: Biometrische Massenüberwachung ist rechtswidrig. Die Polizei darf auch nicht auf kriminelle private Gesichter-Suchmaschinen wie Pimeyes oder ClearviewAI ausweichen, schon gar nicht, um sie durch die Hintertür zu legitimieren“, warnt Marx vor der Versuchung, die sich aus dem Fall der früheren RAF-Terroristin Daniela Klette ergeben hätten. Die kommerziellen Dienste müssten von deutschen Datenschutzbehörden mit allen Mitteln des Rechts aktiv bekämpft werden.
Julia Duchrow von Amnesty International warnt vor Missbrauchspotenzialen sowie der einschüchternden Wirkung von KI und biometrischen Abgleichmethoden, die zudem eine erhebliche Diskriminierungsgefahr darstellten. Sie warnt explizit davor, Software des US-Anbieters Palantir einzusetzen und fordert, das Unternehmen von öffentlichen Aufträgen auszuschließen.
Dass die EU im Rahmen derzeitiger Reformbemühungen unter dem Stichwort „Digitaler Omnibus“ möglicherweise auch die entsprechenden Einschränkungen der KI-Verordnung ändern könnte, erwarten die Akteure der Zivilgesellschaft und der ehemalige Bundesdatenschutzbeauftragte derzeit nicht. Damit bleibt das Kabinettsvorhaben von Schwarz-Rot aus Sicht von Matthias Spielkamp sinnlos: „Wenn man keine Datenbank aufbaut, hat man nichts davon, aber eine Datenbank aufbauen darf man nicht.“
(afl)
Künstliche Intelligenz
Apples neue Vision-Pro-Aufhängung: Das kann das „Dual Band aus Strickgewebe“
Zusammen mit der Ankündigung der zweiten Vision Pro, die erstmals einen M5-Chip erhält, hat Apple auch ein neues Kopfband im Programm. Das sogenannte Dual Band aus Strickgewebe ist eine Erweiterung des bisherigen Solo Bands und liegt dem neuen Headset künftig standardmäßig bei. Das alte Dual Loop Band, das deutlich einfacher konstruiert war und der ersten Vision Pro bislang zusätzlich beilag, wird nicht mehr mitgeliefert. Es muss, wenn man es denn noch haben möchte, für 115 Euro dazugekauft werden. Doch welche Vorteile hat das neue Dual Band aus Strickgewebe?
Weiterlesen nach der Anzeige
Druckentlastung oben und unten
Bislang hatte man bei der Vision Pro – außer man griff zu Alternativen aus dem Zubehörhandel – genau zwei Möglichkeiten, das Headset auf dem Kopf zu platzieren. Mit dem Solo Band aus Strickgewebe, das Apple auch in seinem gesamten Marketingmaterial verwendet hatte, ging das leicht und auf den ersten Blick bequem: Es ist etwas gepolstert und sah zudem recht gut aus. Allerdings verteilte sich damit der Druck auf den Hinterkopf, was teilweise auch zu einer Belastung des Gesichtsbereichs (Gegendruck) führte. Die Alternative war besagtes Dual Loop Band samt Klettverschluss. Das sah zwar nicht mehr so hip aus wie das Solo Band, verteilte aber den Druck besser, weil es auch noch über die Kopfoberfläche gezogen wird. Nachteil: Eine Polsterung hat dieses quasi nicht und es ist zudem vergleichsweise dünn.
Apple sucht nun in einer Kombination sein Heil: Das Dual Band aus Strickgewebe kombiniert Stoff am Kopf oben mit Stoff am Kopf unten – und besteht zweimal aus dem gleichen, bequemen Material mit Polsterung. Das Zuziehen erfolgt wie gewohnt mittels Stellschraube, was in der Praxis meist gut funktioniert – sie zieht dann beide Bereiche zusammen oder lockert diese. Die Gewichtsverteilung sollte so insgesamt ausgeglichener erfolgen. Interessanterweise war diese Konstruktionsart auch schon Bastlern in den Sinn gekommen, die mittels 3D-gedruckter Befestigung einfach zwei der Solo Bands miteinander kombinierten.
Preise und Verfügbarkeit
Apple liefert das Dual Band aus Strickgewebe wie erwähnt mit der Vision Pro 2 standardmäßig mit. Es wird aber auch einzeln verkauft und passt zudem auch an die erste Vision Pro. Der (bereits hohe) Preis wurde lobenswerterweise nicht weiter erhöht: Es kostet, wie schon die Solo-Variante und das Dual Loop Band, 115 Euro.
Etwas nervig: Käufer müssen einen Vermessungsprozess des Kopfes mittels Face-ID-fähigem iPhone durchlaufen, bevor sie bestellen dürfen, damit sie die passende Variante finden. Das kennt man bereits von anderem Vision-Pro-Zubehör wie der Lichtdichtung. Das neue Dual Band soll in den kommenden Wochen erstmals ausgeliefert werden. Wie viel bequemer es tatsächlich ist, müssen erste Tests zeigen.
Weiterlesen nach der Anzeige
(bsc)
Künstliche Intelligenz
RWE liefert Fracht mit autonomen Drohnen an Windkraftanlagen
Der Energiekonzern RWE hat mithilfe von Skyways-Transportdrohnen durch Skyports Drone Services mehr als 80 autonome Flüge zu Windkraftanlagen in Offshore-Parks durchgeführt. Das teilte RWE am Mittwoch mit. Bei den selbstständig ausgeführten Lang- und Kurzstreckenflügen vom Land und von Schiffen aus wurden bis zu 30 kg Fracht pro Flug zu den Windturbinen transportiert. Die Versorgungskosten können so geringer gehalten werden als bei herkömmlichen Transporten per Schiff oder Helikopter. Zudem erfolgen die Lieferungen schneller.
Weiterlesen nach der Anzeige
Langstreckenversorgungsflüge vom Land
Im Rahmen des Pilotprojekts führte RWE drei Testreihen durch. Begonnen wurde das Projekt bereits 2024. Damals starteten autonome Drohnen vom Hafen Mukran von der Insel Rügen aus, um Komponenten mit einem Gewicht von bis zu 4 kg an das Offshore-Umspannwerk des Windparks Arkona auszuliefern.
In der jüngsten Testreihe im September 2025 wurden dort innerhalb von drei Wochen weitere autonome Drohnenflüge durchgeführt. Zum Einsatz kam eine Drohne von Skyways. Sie flog auf einer vordefinierten, 40 km langen Route vom Hafen Mukran zum Offshore-Windpark Arkona, um dort Fracht mit bis zu 10 kg Gewicht abzuwerfen. Der Abwurf erfolgte automatisch. Die Drohne positionierte sich dabei selbstständig über der Gondel einer Windkraftanlage und klinkte die Fracht aus, um danach den Rückflug zum Hafen Mukran anzutreten. Skyports-Piloten überwachten den gesamten Prozess aus der Ferne.
Der Drohnenflug dauerte pro Strecke unter 30 Minuten und damit weniger als halb so lange wie herkömmliche Frachtlieferungen, die per Boot durchgeführt werden. Die Drohnenflüge können bei Bedarf gebucht werden, um etwa zeitkritische Lieferungen von Ersatzteilen an den Offshore-Park durchzuführen. Zudem sind die elektrisch- und benzinbetriebenen Hybrid-Drohnen umweltfreundlicher als Schiffe und Helikopter.
Kurzstreckenversorgungsflüge vom Schiff
Anfang 2025 testete RWE zusätzlich Kurzstreckenflüge von Versorgungsschiffen aus zu Windkraftanlagen des Offshore-Windparks Nordsee Ost. Zum Einsatz kam dabei eine rein elektrisch angetriebene autonome Drohne, die bis zu 100 kg Gewicht transportieren kann. Diese Drohnenlieferungen auf kurzer Strecke sollen dabei helfen, die Überfrachtung und lange Kranzeiten an den Anlagen zu verhindern. Pro angeflogener Turbine können bis zu 1,5 Stunden Zeit eingespart werden, hätten die Tests gezeigt. Das senke die Arbeitsbelastung des technischen Personals. Zudem werde auch der Kraftstoffverbrauch der Schiffe verringert, die Anlieferung des Materials werde durch die Drohnenlieferungen also umweltfreundlicher.
Die Drohnenflüge zu Offshore-Windkraftanlagen sind aus Sicht von RWE so erfolgreich verlaufen, dass nun ein Regelbetrieb angestrebt wird. Dazu müssen die Flüge als Nächstes skaliert werden. RWE ist sich sicher, dass die schnelleren und flexibleren Transporte von Material die Wartungsarbeiten beschleunigen können, sodass dadurch die Verfügbarkeit der Turbinen ansteige.
Weiterlesen nach der Anzeige
(olb)
Künstliche Intelligenz
c’t 2025: Deep-dive workshops for modern web development
The c’t
Weiterlesen nach der Anzeige
AI and UX
Sebastian Springer’s workshop „AI Applications in Node.js with LangChain and LangGraph“ takes developers beyond simple chatbot implementations. Participants will build a sophisticated AI application from scratch, learning how to implement modular architectures and intelligently chain components using LangChain. The workshop covers seamless LLM integration, tool-calling for external system interactions, and dynamic logic implementation with LangGraph. A highlight is the introduction to the Model Context Protocol (MCP) for creating standardized interfaces.
Vicky Pirker brings participants „Back to the roots“ of UX with her workshop on Nielsen’s 10 Usability Heuristics. These timeless principles remain the backbone of every usability evaluation, yet many developers underestimate their power for modern interfaces. The morning session establishes the theoretical foundation, while the afternoon gets practical: in small groups, participants analyze real applications and conduct initial usability tests.
Security and Web Components
Security vulnerabilities can sink even the most beautifully designed applications. Martina Kraus’s „Web Security Fundamentals“ workshop addresses this through real-world scenarios and current best practices. Starting with the OWASP Top 10, participants dive deep into common vulnerabilities – from injection attacks like XSS and SQL Injection to CSRF, authentication failures, and broken access control. Special attention goes to the risks surrounding access tokens and OAuth. But it’s not just about understanding threats: the workshop emphasizes effective defense strategies including data sanitization, Content Security Policy implementation, and secure cookie configuration. Participants immediately apply their knowledge through hands-on examples in an Angular application.
Katja Potency challenges conventional wisdom with her workshop „No, webcomponents are not the past“. Despite simple basics and grand promises, webcomponents often face skepticism compared to frameworks. Recent resistance from prominent figures has added fuel to the debate. But should developers abandon this approach? Through building actual webcomponents and learning practical tricks along the way, participants will discover where the platform truly helps and what should be left to frameworks. This workshop provides clarity in an often confusing landscape.
Conference and c’t slam
Weiterlesen nach der Anzeige
On the two conference days, November 19-20, 2025, the entire spectrum of frontend development will be covered, from testing, accessibility and UX in general to basics such as CSS. As part of the get-together on the first conference evening, November 19th at 6 pm, there will be a small bonus „conference“: the c’t slam. Editors from c’t and sister publications take the stage to explain their areas of expertise. The c’t slam is also open to external visitors.
The c’t
(jo)
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 1 Monat
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 3 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows