Connect with us

Künstliche Intelligenz

Studie: Live-Gesichtserkennung durch Polizei nur rechtswidrig möglich


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Darf die deutsche Polizei Datenbanken mit Personenbildern aufbauen, um damit eine Live-Gesichtserkennung etwa bei Videokameraaufnahmen zu ermöglichen? Dieser politische Wunsch einer weitgehend automatisierten Suche nach Gefährdern, Straftätern und polizeilich Gesuchten ist nicht ganz neu. Immerhin enthält der Koalitionsvertrag zwischen CDU, CSU und SPD eine Formulierung, nach der Sicherheitsbehörden „unter Berücksichtigung verfassungsrechtlicher Vorgaben und digitaler Souveränität, die automatisierte Datenrecherche und -analyse sowie den nachträglichen biometrischen Abgleich mit öffentlich zugänglichen Internetdaten, auch mittels Künstlicher Intelligenz“ erlaubt werden soll.

Weiterlesen nach der Anzeige

Doch neben sehr viel Science Fiction spielt vor allem eine Frage eine Rolle: Was sind die technischen Voraussetzungen, damit diese Kriterien erfüllt werden könnten? Denn davon hängen die politischen und rechtlichen Antworten maßgeblich ab. Die Organisation Algorithmwatch hat beim Hamburger Informationswissenschaftler Dirk Lewandowski eine Studie in Auftrag gegeben, um die technischen und rechtlichen Grenzen solcher Planspiele auszuloten.

Lewandowski untersucht verschiedene Ansätze, wie ein Echtzeitabgleich von Gesichtsaufnahmen mit dem öffentlich zugänglichen Internet oder mit gänzlich eigenen Datenbanken technisch organisiert sein kann. Der Wissenschaftler beschreibt unter anderem, wie die in der EU unzulässige, aber bekannte Bildersuchmaschine PimEyes vorgeht: Sie speichert nicht nur die Bilder und ihre Eigenschaften, sondern auch ein Template mit wesentlichen Merkmalen der abgebildeten Person. Das führt zu schnelleren und genaueren Sucheergebnissen. „Die Überlegenheit in der Suche liegt darin, dass die biometrischen Gesichtsmerkmale für die Suche verwendet werden und nicht nur Low-Level-Features wie Formen und Farbverteilungen oder Umgebungstexte“, heißt es in der Studie.

Was aber nicht funktioniert, ist eine reine Livesuche: „Ohne eine Datenbank aufzubauen, kann kein ‚One to many‘-Abgleich durchgeführt werden, sondern nur ein ‚One to One‘-Vergleich.“ Dieser direkte Vergleich zweier Bilddateien müsste dann wiederum massenhaft stattfinden, um die Notwendigkeit einer Datenbank zu umgehen – aus informationswissenschaftlicher Perspektive sei eine „Live-Suche“ im Web daher „nur theoretisch möglich“, meint Lewandowski.

Doch was bedeutet das für die Pläne der Bundesregierung, hier weitere Möglichkeiten zu schaffen? Bei einer gemeinsamen Pressekonferenz am Vormittag in Berlin betonten Vertreter verschiedener Organisationen, die Bundesregierung müsse daraus Konsequenzen ziehen. Die Regierung könne diese technischen Tatsachen nicht ignorieren, meint Algorithmwatch-Geschäftsführer Matthias Spielkamp – und fordert, die Vorbereitungen im Bundeskabinett abzubrechen. „Die angestrebten biometrischen Erkennungsverfahren würden zwangsläufig gegen EU-Recht verstoßen, weil sie ohne den Einsatz von Datenbanken nicht umsetzbar sind.“ Die KI-Verordnung der EU verbiete genau solche Datenbanken.

Tatsächlich enthält die KI-Verordnung zahlreiche Vorschriften für „biometrische Echtzeit-Fernidentifizierung“, verbietet diese jedoch für Strafverfolgungszwecke nicht grundsätzlich. Allerdings verbietet Artikel 5 der Verordnung ausdrücklich „das Inverkehrbringen, die Inbetriebnahme für diesen spezifischen Zweck oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“. Lewandowskis Gutachten dürfte die Debatte darum, ob die Verbotstatbestände und die Erlaubnisausnahmen technisch überhaupt sinnvoll miteinander vereinbar sind, erneut anfeuern.

Lesen Sie auch

Der ehemalige Bundesdatenschutzbeauftragte Ulrich Kelber warnt Bundesinnenminister Alexander Dobrindt (CSU) denn auch unverblümt davor, dass die Gesetzgebung wieder vor dem Verfassungsgericht landen dürfte: „Das Bundesinnenministerium hat daraus nicht gelernt und will erneut gesetzliche Regelungen, die erkennbar gegen Vorgaben der Verfassung, des Datenschutzes und der KI-Regulierung verstoßen.“ Kelber hatte bereits während seiner Amtszeit bis 2024 deutliche Kritik an entsprechenden Plänen geäußert.

Weiterlesen nach der Anzeige

Simone Ruf von der Gesellschaft für Freiheitsrechte (GFF) sieht wenig Spielraum für den Gesetzgeber: „Aus unserer Perspektive sehr wahrscheinlich, dass der Abgleich mit einer Referenzdatenbank vor dem Verfassungsgericht nicht standhalten.“ Bei einer bereits existierenden, entsprechenden Befugnis beim Bundesamt für Migration und Flüchtlinge würde zudem im Raum stehen, sämtliche Sicherungsmechanismen zu streichen. Risiko und Erfolg stünden in keinem Verhältnis.

Körperdaten von Menschen dürften keine freie Verfügungsmasse sein, betonte Matthias Marx vom Chaos Computer Club (CCC). Bereits existierende Anbieter wären aus gutem Grund in der EU illegal. „Egal, wer sie betreibt: Biometrische Massenüberwachung ist rechtswidrig. Die Polizei darf auch nicht auf kriminelle private Gesichter-Suchmaschinen wie Pimeyes oder ClearviewAI ausweichen, schon gar nicht, um sie durch die Hintertür zu legitimieren“, warnt Marx vor der Versuchung, die sich aus dem Fall der früheren RAF-Terroristin Daniela Klette ergeben hätten. Die kommerziellen Dienste müssten von deutschen Datenschutzbehörden mit allen Mitteln des Rechts aktiv bekämpft werden.

Julia Duchrow von Amnesty International warnt vor Missbrauchspotenzialen sowie der einschüchternden Wirkung von KI und biometrischen Abgleichmethoden, die zudem eine erhebliche Diskriminierungsgefahr darstellten. Sie warnt explizit davor, Software des US-Anbieters Palantir einzusetzen und fordert, das Unternehmen von öffentlichen Aufträgen auszuschließen.

Dass die EU im Rahmen derzeitiger Reformbemühungen unter dem Stichwort „Digitaler Omnibus“ möglicherweise auch die entsprechenden Einschränkungen der KI-Verordnung ändern könnte, erwarten die Akteure der Zivilgesellschaft und der ehemalige Bundesdatenschutzbeauftragte derzeit nicht. Damit bleibt das Kabinettsvorhaben von Schwarz-Rot aus Sicht von Matthias Spielkamp sinnlos: „Wenn man keine Datenbank aufbaut, hat man nichts davon, aber eine Datenbank aufbauen darf man nicht.“


(afl)



Source link

Künstliche Intelligenz

Japan: Drohnen vergrämen Bären mit Hundegebell und Feuerwerkskörpern


Die japanische Präfektur Gifu hat auf die zunehmende Gefahr durch Bären für die Bevölkerung mit einer ungewöhnlichen Maßnahme reagiert. Sie setzt rund um die ländlich gelegene Stadt Hida eine „Hunting Drone“ des Unternehmens Aero Japan ein, um mit Hundegebell aus dem Lautsprecher und abgeschossenen Feuerwerkskörpern herumstreunende Bären in Stadtnähe zu verjagen.

Weiterlesen nach der Anzeige

In Hida sei die Anzahl der Bärensichtungen im Herbst 2025 im Vergleich zum Vorjahr um das Achtfache angestiegen, heißt es vom Umweltamt der Präfektur Gifu. Die Bären würden vor dem Winterschlaf bei ihrer Futtersuche immer weniger Nahrung in ihrem natürlichen Lebensraum finden und nähern sich deshalb häufiger der Stadt.

Bären sind jedoch nicht nur ein Problem in Hida. Allein seit April 2025 seien 220 Menschen bei Bärenangriffen in ganz Japan verletzt worden. Dreizehn Menschen kamen dabei ums Leben. Sieben davon im Monat Oktober. Die meisten Angriffe seien jedoch in eher abgelegenen Gegenden erfolgt. Allerdings wagen sich Bären auch in Stadtnähe. Grund dafür sei die geschrumpfte Anzahl natürlicher Nahrungsquellen, darunter etwa Eicheln oder Bucheckern, ausgelöst vermutlich durch den Klimawandel. Zudem habe sich die Population der geschützten Schwarzbären in Japan nach Schätzungen seit 2012 auf 45.000 in etwa verdreifacht. Hinzu kommen rund 12.000 Braunbären. Um die Populationen in den Griff zu bekommen, wurde das Abschussverbot erst kürzlich gelockert. Abschüsse seien jedoch eher das letzte Mittel.

Um der wachsenden Gefahr durch Bären auf die Bevölkerung zu begegnen, hat das Umweltamt von Hida Maßnahmen geprüft, wie sich die Bären von Menschen fernhalten lassen, ohne die Tiere zu gefährden. Zunächst habe man Schilder zur Warnung der Bevölkerung aufgestellt und Einwohner und Besucher der Stadt dazu veranlasst, Glöckchen zu tragen, die die Bären fernhalten sollen.

Diese Maßnahmen sollten aber nach einem Bärenangriff auf einen spanischen Touristen in Shirakawa-go in der Nähe von Hida verstärkt werden. Touristen wurden dazu aufgefordert, bestimmte Bereiche in der Dunkelheit zu meiden. Dies reiche jedoch nicht aus. So wurden etwa Vergrämungsteams zu Fuß und mit Hunden diskutiert, was jedoch wohl auch aus Kostengründen verworfen wurde. Letztlich wurde der Einsatz von Drohnen als die praktischste Methode angesehen.

Zum Einsatz kommt dabei eine Drohne von Aero Japan, die „Hunting Drone“, wie ein Video zeigt. Ausgestattet ist der 0,9 m x 0,9 m große Quadkopter in roter Warnfarbe und Kulleraugen mit einem Megafon, über das kontinuierlich aufgezeichnetes Hundegebell abgespielt wird, auf das die Bären mit Flucht reagieren. In Gegenden, in denen öfter Bären gesichtet werden, ziehen die Drohnen ihre Runden, um die Tiere zu vergrämen.

Weiterlesen nach der Anzeige

Besonders Obstplantagen wie etwa der Obstpark Kurouchi Orchard mit seinen Äpfeln und Pfirsichen seien davon betroffen. Bären würden auf ihrer Nahrungssuche den Obstpark sonst plündern. Bei besonders hartnäckigen Gesellen können zwei Feuerwerkskörper von der Drohne aus abgeschossen werden, um der Verscheuchungsaktion noch etwas mehr Nachdruck zu verleihen.


(olb)



Source link

Weiterlesen

Künstliche Intelligenz

Tiktok: KI erkennen und Wohlbefinden steigern


Einatmen, ausatmen. Klooong. Bei Tiktok, das eigentlich bekannt ist für die schnellen Wechsel der kurzen Videos, gibt es nun einen neuen Bereich, der sich „Zeit und Wohlbefinden“ nennt. Er soll Menschen helfen, zu entspannen. Für eine entspanntere Nutzung der Plattform soll außerdem eine Verbesserung der KI-Hinweise und des Umgangs mit KI sorgen.

Weiterlesen nach der Anzeige

Bei Jugendlichen und jungen Erwachsenen ist das Journaling seit einigen Jahren ziemlich angesagt. Früher hätte man dazu „Tagebuch schreiben“ gesagt. Tiktok greift den Trend auf und bietet ein Achtsamkeitsjournal an. Dahinter verbergen sich 120 Karten, auf denen man seine Stimmung und Gefühle oder Ziele für einen Tag festhalten kann. Außerdem gibt es in dem Wohlfühl-Bereich des Dienstes auch einen beruhigenden Klanggenerator. Man kann sich also bei Bedarf Geräusche von Regen oder Wellen vorspielen lassen oder sogenannte White-Noise-Klänge – die sind nachgewiesen besonders beruhigend. Tiktok-Nutzer hören laut Tiktok besonders häufig Musik zum Einschlafen. Warum also nicht lieber ein bisschen Hintergrundrauschen. Es finden sich obendrein auch gleich noch Atemübungen in der App.

Und Tiktok wäre natürlich nicht die beliebte Kurzvideoplattform, wenn nicht auch in Kurzvideos vorgestellt würde, wie man die Tools nutzen kann. Creator sprechen über ihre Bildschirmzeiten, die Anpassung des eigenen Feeds und Funktionen für den begleiteten Modus. Das ist jener Modus, der für Jugendliche gilt. Eltern können dabei das Nutzungsverhalten der Kinder einsehen und zum Teil auch steuern – Inhalte als auch die Bildschirmzeit.

„Die kurzen, unterhaltsamen Aufgaben sollen die Community, darunter insbesondere Teenager, dabei unterstützen, Technologie zielgerichteter und selbstbewusster zu nutzen“, schreibt Tiktok. Diese Ambitionen sind nicht ganz neu, sie haben jedoch zuletzt an Fahrt aufgenommen. Alle großen Social-Media-Anbieter beteuern derzeit, dass sie sich um das Wohlbefinden der Jugendlichen kümmern. Hintergrund ist nicht zuletzt, dass es immer häufiger zur Diskussion steht, ob man eine Altersgrenze für soziale Netzwerke einführt. Auch jetzt liegt die eigentlich bei 13 Jahren. Die Kontrolle erweist sich jedoch als schwierig.

Auch Künstliche Intelligenz macht die Plattformen kaum sicherer. Entsprechend steuert Tiktok hier ebenfalls nach und gegen. KI-generierte Inhalte sollen noch besser als bisher schon gekennzeichnet werden. Das geschieht automatisch. Nicht alle Inhalte können jedoch als KI-generiert erkannt werden – das liegt in der Natur der Sache. Und nicht jede Bearbeitung macht aus einem Video sofort ein KI-generiertes Video. Dennoch will Tiktok versuchen, die Hinweise zu verbessern. Dafür stellt die Plattform selbst Werkzeuge zur Verfügung, mit denen Creator ihre Videos kennzeichnen können, es wird aber auch der branchenübergreifende Standard C2PA genutzt – dabei handelt es sich um Informationen in den Metadaten. Tiktok arbeitet außerdem an „unsichtbaren Wasserzeichen“ – konkreter wird es hier in der Umsetzung nicht.

Lesen Sie auch

Nutzer können zudem anpassen, welche Inhalte sie sehen wollen. Tiktok nennt als Beispiel, dass man mehr oder weniger von „KI-generierten (prä-)historischen Inhalten“ auswählen kann. Die Tatsache, wie ein Video erstellt wurde, gehört nun also zur Auswahl.

Weiterlesen nach der Anzeige

Tiktok investiert zwei Millionen US-Dollar in einen Bildungsfonds, der Experten dabei unterstützen soll, Inhalte zu erstellen, in denen es um den verantwortungsvollen Umgang mit KI geht.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

programmier.bar: CTO-Special mit Fabian Hagen von Faaren


Jährlich schreiben Hunderttausende Studierende ihre Bachelorarbeit in Deutschland, doch nur selten entsteht daraus ein ganzes Unternehmen. Fabian Hagen, CTO bei Faaren, hat genau das geschafft. Gemeinsam mit Mitstudierenden gründete er dank einer Projektarbeit eines der ersten deutschen Mobility-Start-ups für Auto-Abos. Aus dem studentischen Projekt mit fünf Personen wurde ein wachsendes Unternehmen mit dutzenden Mitarbeitenden.

Weiterlesen nach der Anzeige

Im Gespräch mit Jan Gregor Emge-Triebel und Garrelt Mock erzählt Fabian Hagen, wie aus einer Idee ein marktreifes Produkt wurde, welche Rolle das Gründungsteam dabei spielte und welche Erfahrungen er auf dem Weg vom Studierenden zum CTO sammeln konnte. Dabei geht es um frühe Technologieentscheidungen, den Wandel hin zu einer modernen, White-Label-fähigen Architektur und die Bedeutung der ersten Teammitglieder.

Außerdem spricht Fabian über seine persönliche Entwicklung – vom einzigen Entwickler der gesamten Infrastruktur zum Leiter eines großen Teams. Er zeigt, welche Prozesse das Team finden musste, wie Bewerbungsprozesse im Start-up funktionieren und an welchen Code-Stellen er bis heute selbst gern Hand anlegt.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externer Inhalt geladen.

Die aktuelle Ausgabe des Podcasts steht auch im Blog der programmier.bar bereit: „Fabian Hagen von Faaren„. Fragen und Anregungen gerne per Mail oder via Mastodon, Bluesky, LinkedIn oder Instagram.


(mdo)





Source link

Weiterlesen

Beliebt