Datenschutz & Sicherheit
KI-Suche für Gesichter breitet sich ungehindert aus
Im ebenso bekannten wie brutalen Kindermärchen „Rumpelstilzchen“ der Brüder Grimm muss eine Königin den Namen eines „Männleins“ mit magischen Kräften erraten. Über mehrere Tage hinweg versucht sie es mit allen Namen, die sie jemals gehört hatte, aber vergeblich.
Erst am dritten Tag berichtet ein von ihr entsandter Bote von einem Wesen, das bei seinem Tanz ums Feuer sang: „Ach, wie gut, dass niemand weiß, dass ich Rumpelstilzchen heiß“. Nur durch diese Zufallsbegegnung gelingt es der Königin, das Männlein beim Namen zu nennen und damit zu bezwingen.
Mit einer Gesichter-Suchmaschine wie PimEyes hätte die Königin nicht drei Tage gebraucht, und sie hätte auch keinen Boten entsenden müssen. Genügt hätte ihr ein Schnappschuss per Smartphone und ein wenig Glück bei der Online-Suche. Dann hätte das identifizierte Rumpelstilzchen schon nach einer simplen Suchanfrage schreien müssen: „Das hat dir der Teufel gesagt!“ und sich vor Wut entzweigerissen.
Welle der Empörung
Über die Macht von öffentlich zugänglichen Gesichter-Suchmaschinen berichteten wir erstmals im Jahr 2020 und lösten damit eine Welle der Empörung aus. Sie dienen Stalker*innen als ideales Werkzeug und gefährden die Anonymität im öffentlichen Raum. Zwei Jahre später zeigten unsere Recherchen, dass so eine Suchmaschine nicht nur für Märchen-Königinnen nützlich sein kann, sondern auch für Männer, die fremden Frauen nachstellen.
Alarmierte Reaktionen auf unsere PimEyes-Recherchen kamen aus dem Bundestag, von den Polizeigewerkschaften GdP und DPolG sowie von Europa-Abgeordneten der SPD und CDU. Fachleute stellten die Legalität solcher Gesichter-Suchmaschinen infrage, besonders mit Blick auf Datenschutzgrundverordnung (DSGVO). Deshalb leitete auch die Datenschutzbehörde Baden-Württemberg ein Verfahren gegen PimEyes ein.
Fünf Jahre nach unseren ersten Berichten sind die rechtlichen Hürden noch höher geworden. Die neue KI-Verordnung der EU (AI Act) enthält eine Regelung, die sich als Reaktion auf Gesichter-Suchmaschinen wie PimEyes werten lässt. Zu den „verbotenen Praktiken“ in der EU zählen demnach KI-Systeme, „die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.
Wer gegen diese Verbote aus der KI-Verordnung verstößt, muss mit Geldstrafen bis zu 35 Millionen Euro oder bis zu 7 Prozent des weltweiten Jahresumsatzes rechnen.
Branche breitet sich ungehindert aus
Zumindest auf dem Papier ist die Luft für Gesichter-Suchmaschinen also ziemlich dünn. Neue Recherchen von netzpolitik.org zeigen allerdings, wie die Branche wächst. Zu PimEyes sind mindestens drei Konkurrenten hinzugekommen: „ProFaceFinder“, „TrustPics“ und „FaceCheck.ID“.
Ihre kostenpflichtigen Dienste bieten die Unternehmen offen im Netz an. Eine abschreckende Wirkung durch EU-Gesetze lässt sich nicht erkennen. Einige Anbieter haben sogar Verbindungen zu EU-Mitgliedstaaten, wie aus unseren Recherchen hervorgeht.
AlgorithmWatch-Geschäftsführer Matthias Spielkamp spricht von einer „Katastrophe für Demokratie und Rechtsstaat“. Europa-Abgeordnete von CDU, Grünen und FDP fordern ein entschlossenes Eingreifen der Aufsichtsbehörden. Doch die treten seit Jahren auf der Stelle.
So funktioniert die Gesichtersuche
Eine typische Gesichter-Suchmaschine funktioniert grundsätzlich so: Automatisch durchforsten die Betreiber*innen das Netz nach Fotos. Sie erfassen dabei die einzigartigen Merkmale von Gesichtern, etwa die Abstände von Augen, Nase und Kinn. Das Ergebnis speichern sie in Form einer mathematischen Repräsentation, zum Beispiel als Hash oder Vektor. So entsteht eine riesige Bibliothek. Ob und wie die einzelnen Anbieter, die wir in diesem Artikel vorstellen, davon abweichen, können wir nicht beurteilen.
Laden Nutzer*innen in der Suchmaschine ein neues Foto hoch, werden dessen Merkmale erfasst und mit der Bibliothek abgeglichen. Sie erhalten daraufhin eine Liste mit identischen oder ähnlichen Gesichtern – inklusive Link zum Fundort im Netz. Die verlinkten Websites können Aufschluss darüber geben, wer die gesuchte Person ist, auch wenn die Suchmaschine nicht direkt einen Namen ausspuckt.
Ob auf einer Demo, im Wartezimmer oder im Nachtbus: Wer die Aufnahme eines Gesichts ergattert, kann die Suchmaschine damit füttern. So lassen sich anhand der Suchergebnisse oftmals Unbekannte identifizieren. Es genügt, wenn die gesuchte Person auf einem online veröffentlichten Foto mit Namensbezug auftaucht, selbst wenn es nur klein und im Hintergrund ist. Ob Jahrzehnte alte Fotos von einer Vereinsfeier oder eine von der Lokalzeitung fotografierte Kundgebung: Das und mehr können Gesichter-Suchmachinen zutage fördern.
Ins Visier geraten können alle. Besonders gefährdet sind vulnerable Gruppen wie beispielsweise Frauen, queere Menschen, Aktivist*innen und Dissident*innen.
ProFaceFinder: Server in Belgien
Der erste von insgesamt drei PimEyes-Konkurrenten, den wir hier näher beleuchten, trägt den Namen ProFaceFinder. Ein Interesse am deutschsprachigen Markt scheint das Unternehmen zu haben. Wiederholt erhielt Redaktion E-Mails einer Marketing-Person, die uns zur Berichterstattung über ProFaceFinder als PimEyes-Alternative ermuntern wollte. Dabei hob sie hervor, dass die Suchmaschine anhand von Gesichtern sogar Social-Media-Profile aufspüren könne.
Auf der englischsprachigen Startseite heißt es, das Werkzeug nutze „fortschrittliche künstliche Intelligenz, um Gesichtsmerkmale präzise zu erkennen“. Es sei „perfekt für die Suche nach Menschen auf Dating-Websites, sozialen Medien oder in Strafregistern“. Auf Englisch heißt es:
Durchsuchen Sie Milliarden von Gesichtern im Internet und finden Sie die Person, die Sie suchen, in Sekunden!
Bis vor kurzem wurde in der Datenschutz-Richtlinie noch ein Inhaber und Datenverantwortlicher benannt. Dessen Name verschwand allerdings von dieser Seite, nachdem wir uns mit Fragen an das Unternehmen gewandt hatten.
Wir wollten mehr darüber erfahren, wo das Unternehmen seinen Sitz hat, wie viele Menschen dort arbeiten und wie es sich an DSGVO und KI-Verordnung halten will. Deshalb haben wir dem Unternehmen eine E-Mail geschickt. Zumindest die erste Antwort wurde mit „GS“ unterzeichnet.
Laut „GS“ umfasse die Datenbank von ProFaceFinder „Hunderte Millionen Bilder, die aus öffentlich zugänglichen Online-Quellen indexiert wurden“. Das Unternehmen verwende „fortschrittliche Hashing- und Face-Clustering-Techniken, um Duplikate zu erkennen und eindeutige Gesichter zu identifizieren.“ Die Bilder stammen demnach aus „Blogs, Foren, Nachrichtenseiten und öffentlich zugänglichen Profilen“.
Die Firma sei im Jahr 2023 in den USA gegründet worden und beschäftige weniger als zehn Angestellte. Monatlich habe die Seite geschätzt mehr als 80.000 Besucher*innen sowie eine „kleine, aber wachsende Anzahl Abonnent*innen“.
„Der Mensch ist der Stalker, nicht die Suchmaschine“
„GS“ zufolge sei es verboten, mit der Gesichtersuche Menschen zu stalken, zu überwachen, zu diskriminieren oder zu de-anonymisieren. Um Missbrauch zu verhindern, würden Suchanfragen auch händisch überprüft. Nach dem Einsatzzweck der Suchmaschine gefragt, schreibt er, die Nutzer*innen würden mit ProFaceFinder unter anderem kontrollieren, ob Online-Kontakte ihr wahres Gesicht zeigten („Catfishing“) sowie „Identitäten prüfen“, etwa zur „persönlichen Sicherheit“ oder für „berufliche Zwecke“.
Hier wird ein Widerspruch erkennbar: Wie sollen Nutzer*innen die Identität einer Person prüfen, wenn es ihnen nicht erlaubt ist, Menschen mit der Suchmaschine zu de-anonymisieren? Entweder finden sie einen Namen oder nicht.
Mit Blick auf DSGVO und KI-Verordnung schreibt „GS“, dass das Unternehmen derzeit rechtliche Beratung in Anspruch nehme, um die Einhaltung zu prüfen. Zudem betreibe es „einige operative Infrastrukturen in Belgien“. Weiter schreibt „GS“:
Wir verarbeiten keine biometrischen Daten im Sinne der DSGVO; es sei denn, die Nutzer laden ausdrücklich ein Bild zum Abgleich hoch. Wir erstellen keine dauerhaften Identitätsprofile und versuchen auch nicht, einzelne Personen zu identifizieren. […] Wir sammeln nicht wahllos Gesichtsdaten oder verstoßen gegen die KI-Verordnung – wir konzentrieren uns auf verantwortungsvoll gesammelte und eindeutig öffentliche Inhalte.
Die DSGVO definiert „biometrische Daten“ hingegen als:
mit speziellen technischen Verfahren gewonnene personenbezogene Daten zu den physischen, physiologischen oder verhaltenstypischen Merkmalen einer natürlichen Person, die die eindeutige Identifizierung dieser natürlichen Person ermöglichen oder bestätigen, wie Gesichtsbilder […].
Was „GS“ in seiner E-Mail-Antwort nicht offenlegt, ist der Name des Unternehmens hinter „ProFaceFinder“ sowie der US-Bundesstaat, in dem das Unternehmen registriert ist. Wir haken mehrfach vergeblich nach.
Wir bohren dort nach, wo andere wegschauen.
Recherchen wie diese sind nur möglich durch eure Unterstützung.
„Wir ziehen es derzeit vor, die Marke ‚ProFaceFinder‘ nicht mit unserem internen Unternehmensnamen zu verknüpfen“, erklärt „GS“. Damit wollte er „Team und Infrastruktur vor potenziellem Missbrauch oder Belästigung“ schützen. Vertrauen und Transparenz nehme man dennoch „ernst“, gerade mit Blick auf DSGVO und KI-Verordnung. „Ich hoffe, das ergibt Sinn“, schreibt der mutmaßliche Chef einer Firma, die nicht einmal ihren Namen verraten will.
TrustPics: Mutterfirma auch in EU aktiv
Der zweite von drei PimEyes-Konkurrenten hat das Wort „Vertrauen“ gleich in den eigenen Namen gepackt: „TrustPics“. Auf der Startseite erklärt das Unternehmen, Gesichter anhand eines Hashing-Verfahrens wiederzuerkennen.
Betreiber laut Website ist die US-amerikanische Outlimit Inc., die gleich hinter mehreren Online-Diensten steckt. Darunter sind zwei Apps, mit denen man Handys aus der Ferne überwachen kann. Vermarktet werden sie als Werkzeuge für Eltern, die kontrollieren wollen, wo sich ihre Kinder aufhalten. Auch eine Suchmaschine für Background-Checks zu Personen gehört zum Portfolio. Laut Website soll sie öffentlich zugängliche Informationen anhäufen, etwa aus Telefonbüchern und sozialen Netzwerken.
Über mehrere Wochen haben wir immer wieder E-Mails verschickt, um zu erfahren, wie „TrustPics“ zur Einhaltung von DSGVO und KI-Verordnung steht. Wir haben hierfür sowohl TrustPics selbst kontaktiert als auch andere Dienste aus dem Portfolio der Outlimit Inc. – doch unsere Fragen blieben unbeantwortet.
Mindestens ein Dienst der Outlimit Inc. ist wohl auch in der EU aktiv. Im Impressum der Kinder-Überwachungs-App „Kidgy“ steht der Name eines Unternehmens in Prag. Auch im tschechischen Handelsregister ist es zu finden. Geschäftsführer ist demnach ein Mann aus Bulgarien.
Gerne hätten wir von ihm mehr über die Outlimits Inc. erfahren. In unseren E-Mails an Kidgy und die anderen Dienste haben wir uns ausdrücklich nach ihm erkundigt. Keine Antwort.
FaceCheck.ID: Einsatz durch Polizei in Neuseeland
Der dritte und letzte PimEyes-Konkurrent dieser Recherche heißt „FaceCheck.ID“ und soll Medienberichten zufolge bereits von der Polizei in Neuseeland eingesetzt worden sein.
Auf der Startseite prangt das Zitat eines „anonymen Benutzers“, der die Gesichtersuche „erschreckend gut“ finden soll. In einem „Hinweis“ ganz unten auf der Startseite heißt es: „FaceCheck ist eine Suchmaschine zur Gesichtserkennung“.
Außerdem finden sich dort mehrere Sätze, die offenbar der rechtlichen Absicherung dienen sollen, etwa:
- „Nur für Bildungszwecke.“
- „FaceCheck speichert keine sensiblen oder persönlich identifizierbaren Daten.“
- „Die KI von FaceCheck ist so trainiert, dass sie keine Kindergesichter indiziert.“
Besonders wirksam scheint das erwähnte KI-Training in Bezug auf Kindergesichter nicht gewesen zu sein. Die Suchmaschine ermöglicht es, mühelos nach Gesichtern von Kindern zu suchen und fördert dabei Dutzende Ergebnisse zutage.
Die Betreiberfirma sitzt laut Website in Belize. In einer Pressemitteilung der Suchmaschine Ende 2024 wurde allerdings ein Sitz im US-Bundesstaat Hawaii genannt sowie der Name eines „Präsidenten von FaceCheck.ID“.
Kontaktieren konnten wir das Unternehmen allerdings nicht. Wir schickten E-Mails an die bei FaceCheckID hinterlegte Adresse sowie über das Kontaktformular des PR-Portals. Die Nachrichten ließen sich nicht zustellen.
PimEyes will keine Gesichter-Suchmaschine sein
Im Gegensatz zur Konkurrenz gibt sich PimEyes alles andere als verschlossen. Betrieben wird die Suchmaschine von der Carribex LTD aus Belize. Firmenchef Giorgi Gobronidze aus Georgien erklärt auf Anfrage ausführlich, dass PimEyes seiner Auffassung nach häufig falsch dargestellt werde.
„PimEyes ist keine Gesichtserkennungsplattform“, will Gobronidze per E-Mail klarstellen. Die Startseite von PimEyes erweckt einen anderen Eindruck. Dort steht: „PimEyes nutzt Suchtechnologien zur Gesichtserkennung“, „Die Gesichtserkennungs-Website PimEyes ist eines der leistungsfähigsten Gesichtserkennungs-Tools der Welt“ und „Es ist Gesichtserkennung auf Steroiden“.
Weiter schreibt Gobronidze, mit der Suchmaschine würde „niemand“ eindeutig identifiziert, es würden lediglich Websites gefunden. Ein Fall aus der jüngsten Geschichte zeigt, wie Identifizierung konkret aussehen kann. Ende 2023 spürten Journalisten mit Hilfe von PimEyes das seit Jahren untergetauchte, ehemalige RAF-Mitglied Daniela Klette in Berlin auf. Die Suchmaschine fand ihr Gesicht auf den Fotos eines Capoeira-Vereins, den sie unter falscher Identität besucht hatte.
Gobronidze zufolge sei die Rolle biometrischer Merkmale bei PimEyes „null“. Auf der Startseite von PimEyes steht jedoch: „In den Suchergebnissen zeigen wir nicht nur ähnliche Fotos, […] sondern auch Bilder, auf denen Sie vor einem anderen Hintergrund, mit anderen Personen oder sogar mit einem anderen Haarschnitt zu sehen sind.“ Das heißt, für die Suchmaschine werden die besonderen Merkmale eines Gesichts mit Hilfe technischer Verfahren erkannt – was gemeinhin als Biometrie bezeichnet wird.
Mehrere Datenschutzbehörden hätten PimEyes untersucht, schreibt Gobronidze weiter. „Wir haben vollständig und transparent kooperiert.“ Verstöße seien keine festgestellt worden. „Das ist ein überprüfbares Ergebnis.“
Auf Nachfrage liefert der Landesdatenschutzbeauftragte Baden-Württemberg Kontext. Demnach habe die Behörde PimEyes noch nicht abschließend bewertet. Die Antworten des Unternehmens hätten Fragen offengelassen, weshalb die Behörde ein Bußgeldverfahren eingeleitet habe. Allerdings ruhe das Verfahren derzeit – dazu später mehr.
Die britische Datenschutzaufsicht ICO teilt mit, einen Fall zu PimEyes eröffnet zu haben. Man habe sich jedoch gegen ein formelles Verfahren entschieden und den Fall im März 2023 geschlossen. Zu den Gründen will sich die Behörde auf Anfrage von netzpolitik.org nicht äußern.
AlgorithmWatch: „Katastrophe für Demokratie und Rechtsstaat“
Fachleute lassen keine Zweifel daran, dass sie öffentliche Gesichter-Suchmaschinen für gefährlich halten. „Bereits jetzt ist die Tatsache, dass es diese Suchmaschinen gibt, eine der schlimmsten Entwicklungen der Digitalisierung und eine Katastrophe für Demokratie und Rechtsstaat“, warnt Matthias Spielkamp, Geschäftsführer der Organisation AlgorithmWatch. Solche Suchmaschinen bedeuteten das Ende der Anonymität im öffentlichen Raum, mit entsprechenden Konsequenzen für politischen Protest.
Spielkamps Einschätzung nach sind die Suchmaschinen aus gleich mehreren Gründen in der EU verboten. Neben dem Verbot aus der KI-Verordnung würden auch Vorgaben für den Datenschutz und andere Grundrechte verletzt. Aus dem Hochladen eines Fotos oder Videos könne man kein Einverständnis in die Datenerhebung durch Gesichter-Suchmaschinen herleiten.
Eine mögliche biometrische Identifizierung könne Menschen auch davon abhalten, ihr Grundrecht auf freie Meinungsäußerung oder die Versammlungsfreiheit wahrzunehmen.

Gerade Anbieter ohne Sitz in der EU seien zugleich nur schwer zur Verantwortung zu ziehen, sagt Spielkamp. Die Staaten, in denen die Firmen sitzen, hätten oft wenig Interesse an einem Verbot. Aus der vergleichbaren Erfahrung mit Steuerhinterziehung wisse man aber, dass EU-Behörden trotzdem Druck auf die Anbieter ausüben könnten.
Als Beispiel nennt er das Unternehmen Clearview AI, das seine Gesichtersuche ausschließlich für Ermittlungsbehörden anbietet. Zwar konnten die von EU-Behörden verhängten Geldbußen gegen das Unternehmen nicht eingetrieben werden. „Aber die Behörden könnten Strafanträge gegen Verantwortliche stellen, auf deren Basis dann Haftbefehle ausgestellt werden können.“
Die Verantwortung sieht Spielkamp bei Regierungen und Behörden in Staaten wie Deutschland, die sich nicht klar gegen solche Systeme aussprechen. Oft würden Polizei und Geheimdienste selbst solche Gesichter-Suchmaschinen einsetzen wollen – und dabei die fatalen Folgen „für uns alle“ ignorieren.
HateAid: Warnung vor Einschüchterung und Stalking
Die Juristin Josephine Ballon warnt vor den Gefahren, die von Gesichter-Suchmaschinen wie PimEyes ausgehen. Für die NGO HateAid berät sie Betroffene von Gewalt im Netz. Teilnehmende von Demonstrationen ließen sich mit Hilfe der Suchmaschinen identifizieren und anschließend einschüchtern. Persönliche Informationen könnten im „feindseligen Kontext“ weiterverbreitet oder zum Stalking eingesetzt werden.
Es sei denkbar, dass Nutzer*innen mit Hilfe der Suchmaschinen die Identität einer gesuchten Person überhaupt erst ermitteln, etwa indem sie Bildausschnitte von Demonstrationen einspeisen und so zu Social-Media-Profilen gelangen.
Der Vollständigkeit halber weist Ballon allerdings darauf hin: Auch Betroffene bildbasierter digitaler Gewalt könnten die Gesichtersuche einsetzen, etwa um herauszufinden, wo Inhalte über sie selbst verbreitet werden. Bei HateAid setze man diese Tools jedoch aus datenschutzrechtlichen Gründen nicht ein.
Axel Voss (CDU): Behörden müssen handeln
Wir haben die Ergebnisse unserer Recherche mehreren EU-Parlamentarier*innen vorgelegt, die das Verbot in der KI-Verordnung mit ausgehandelt haben.
„Nach meinem Verständnis ist dieses Geschäftsmodell kaum mit europäischem Datenschutzrecht vereinbar“, sagt etwa Axel Voss (CDU), Koordinator der EVP-Fraktion im Rechtsausschuss, „insbesondere nicht mit dem AI Act, der genau solche massenhaften, ungezielten Gesichtserkennungsdatenbanken ausdrücklich verbietet“. Dass sich Anbieter anonym oder aus Drittstaaten heraus dem Zugriff entziehen, zeigt für ihn ein Defizit bei der Durchsetzung. „Hier müssen Datenschutzbehörden und die künftige KI-Aufsicht konsequent und koordiniert handeln.“
„Die öffentlichen Gesichtssuchmaschinen sind ein massiver Eingriff in die Privatsphäre und verstoßen gegen geltendes EU-Recht“, sagt auch die liberale deutsche Abgeordnete Svenja Hahn. Dieses Recht müsse jetzt durchgesetzt werden – unabhängig davon, ob ein Unternehmen innerhalb oder außerhalb der EU ansässig ist.
Es sei wahrscheinlich, dass die Verstöße mehr als nur einen EU-Mitgliedsstaat betreffen, deshalb gehe es um grenzübergreifende Rechtsdurchsetzung. Hierbei komme auch dem koordinierenden AI Office der EU-Kommission sowie dem Ausschuss für künstliche Intelligenz eine wichtige Rolle zu, wie Hahn erklärt. Das AI Office ist eine neue Regulierungsbehörde, die unter anderem das gemeinsame Vorgehen der Mitgliedstaaten bei der Durchsetzung der KI-Verordnung koordinieren soll. Es arbeitet seit Mitte 2024.
Auch die niederländische Grünen-Abgeordnete Kim van Sparrentak sieht das Problem bei der Durchsetzung der bestehenden Regeln. Datenschutzbehörden müssten schneller handeln. Im Fall der nationalen Aufsichtsbehörden für die KI-Verordnung sei mitunter nicht einmal klar, wer zuständig ist.
Warum das deutsche PimEyes-Verfahren ruht
Auf diesen Umstand verweist auch die Datenschutzbehörde Baden-Württemberg, die bereits im Jahr 2021 ein Verfahren gegen PimEyes einleitete, es derzeit aber ruhen lässt. Die Behörde sieht neuen Abstimmungsbedarf durch die KI-Verordnung, die nationale Aufsichtsbehörden für deren Durchsetzung vorsieht.
Wer diese Rolle in Deutschland übernimmt, muss noch per Gesetz beschlossen werden. Sehr wahrscheinlich wird es die Bundesnetzagentur (BNetzA) sein; sie bereitet sich bereits auf die Aufgabe vor.
Solange die nationale KI-Aufsicht noch nicht da ist, will man allerdings in Baden-Württemberg nichts weiter tun. „Da der Verlauf eines künftigen weiteren Verfahrens rechtlich mit Blick auf die Zuständigkeit noch nicht abschließend geregelt ist, führen wir das Verfahren derzeit nicht aktiv fort“, erklärt die Behörde auf Anfrage.
Die Bilanz der Aktivitäten der Datenschutzbehörde in Bezug auf PimEyes ist ernüchternd: Vier Jahre lang passierte wenig, jetzt passiert erst mal gar nichts.
Dafür gibt es Kritik: „Ich halte es nicht für selbsterklärend, warum eine Datenschutzbehörde auf die Einsetzung der BNetzA warten sollte“, sagt Josephine Ballon von HateAid.
EU-Mitgliedstaaten könnten gemeinsam vorgehen
Die Trägheit der Aufsichtsbehörden hat Konsequenzen. Anbieter von Gesichter-Suchmaschinen münzen das als Erfolg um, wie die vor Selbstbewusstsein strotzenden Antworten von PimEyes-Chef Gobronidze zeigen. Könnte die Bundesnetzagentur Schwung in die Sache bringen?
Auf Anfrage verweist die Behörde darauf, dass sie noch nicht per Gesetz als KI-Aufsicht eingesetzt wurde. Und selbst wenn es soweit ist, könnten wiederum andere zuständig sein. Die Auslegung der KI-Verordnung zu verbotenen Praktiken müsse „mit anderen designierten Behörden und dem AI Office der EU koordiniert werden“, schreibt die BNetzA auf Anfrage. Grundlage seien die umfangreichen Leitlinien der EU-Kommission. „Möglich wäre auch ein gemeinsames Vorgehen von Aufsichtsbehörden mehrerer EU-Mitgliedstaaten.“
Zu konkreten Zeitplänen äußert sich die BNetzA nicht. Zumindest vonseiten der EU gibt es eine Frist. Demnach müssen die Mitgliedstaaten die nationale Umsetzung der KI-Aufsicht bis August 2025 regeln. Zuständig ist in Deutschland dafür das neue Digitalministerium. Dessen Sprecher teilt auf Anfrage mit: Der Entwurf für das Gesetz zur Umsetzung sei derzeit in Abstimmung zwischen den Ressorts und solle noch vor der Sommerpause ins Kabinett.
Selbst wenn Aufsichtsbehörden in Gang kommen, ist das Problem nicht einfach zu lösen. Die BNetzA gesteht ein: Wenn Anbieter ihren Sitz außerhalb der EU haben, gestalte sich die Handhabe „schwierig“.
Das können Betroffene tun
Wer seine Rechte gegenüber Gesichter-Suchmaschinen geltend machen möchte, hat mehrere Möglichkeiten. Zunächst bieten alle vier in diesem Artikel genannten Anbieter laut ihrer Websites einen sogenannten Opt-out an. Das heißt, Nutzer*innen können sich aktiv melden und den Anbieter dazu auffordern, Suchergebnisse mit ihrem Gesicht nicht länger anzuzeigen. Wie zuverlässig das funktioniert, haben wir allerdings nicht getestet.
Zudem können Interessierte den Anbietern unter Berufung auf die DSGVO eine Auskunftsanfrage stellen. So lässt sich herausfinden, ob ein Unternehmen die eigenen personenbezogenen Daten verarbeitet hat. Auch eine Löschung dieser Daten könne sie beantragen.
Sollte ein Unternehmen die eigenen Daten ohne Einwilligung verarbeitet haben oder die Auskunftsanfrage ignorieren, können sich Betroffene bei ihrer Datenschutzaufsicht beschweren. Zuständig sind die jeweiligen Landesdatenschutzbehörden. Der Chaos Computer Club Hamburg hat hierfür eine Anleitung veröffentlicht.
Oftmals sind es die Beschwerden einzelner Personen, die bewirken, dass eine Datenschutzbehörde tätig wird. Auch wenn sich die Verfahren viele Jahre ohne Ergebnis in die Läge ziehen können: Wenn sich die Beschwerden von Betroffenen häufen, ist das zumindest ein Zeichen dafür, dass sich Menschen für das Problem interessieren, und dass wirksame Gegenmittel fehlen.
Datenschutz & Sicherheit
Trump wants ‘strategic chaos’ to dismantle institutions
The political situation in the U.S. is escalating. Last week, the authoritarian President Donald Trump deployed military troops to California to quell protests against the immigration authorities, ICE. Shocking images, such as the forced removal of California’s Democratic Senator Alex Padilla from a press conference, were seen around the world.
Over the weekend, Trump attended a military parade in the capital, Washington, on his birthday—highly unusual for the U.S., even though the military was celebrating its 250th anniversary on the same day. At the same time, resistance is growing among the population, not only in Los Angeles. On Saturday, massive protests took place in over 2,000 cities across the country under the slogan “No King.”
Can the U.S. still be saved from a complete authoritarian takeover by Trump and his movement?

We asked constitutional law expert Anthony Michael Kreis what is happening right now and what matters most at this point. Kreis is a professor at Georgia State University and is critically following the upheavals on Bluesky, among other places.
This interview has also been translated into German.
„Strategic chaos“
netzpolitik.org: In Germany, many people are watching in disbelief at what is happening with one of their most important allies, a country long considered a stable democracy. How would you describe what has happened in your country over the last few months?
Anthony Kreis: The best thing I can describe it is “strategic chaos.” The Trump Administration has been working in overdrive to dismantle institutions and decimate the federal government – often contrary to law – and they are taking positions which are deeply offensive to the constitution. Unfortunately, there have been so many attacks on the Constitution and American democracy that it is hard to keep track.
netzpolitik.org: As we’ve seen in recent weeks: Donald Trump has deployed National Guard troops and Marines in California to quell protests. Is there any precedent for that, and what does the law say about the domestic use of armed forces?
Anthony Kreis: The use of federal troops or the federalized National Guard is exceptionally rare – especially because the local officials did not ask for support. Under American law, it is not permissible to use federal troops to enforce civilian laws. They can protect federal buildings and officers, but usually, that is a measure of last resort. The fact that the president wants to use troops on American streets so cavalierly suggests to me that this is more about a show of strength and not about enforcing the law and keeping the peace – which non-military personnel should be able to do, given the relatively isolated nature of the problem compared to peaceful protesters.
„People need to protest and vote“
netzpolitik.org: If the goal was to deter civil society from dissent, it seems to have failed: we’ve seen massive „No King“ protests all around the country last weekend, even in the wake of the politically motivated assassination of a Democratic lawmaker in Minnesota. How healthy is the state of the U.S. civil society right now, and how powerful can protests be in effecting change?
Anthony Kreis: American democracy is at a real low point right now. The threats of political violence, disrespect for the rule of law, and attempts to gut democratic institutions show how dire things are. Protests, of course, can help galvanize the public and encourage people to get involved in the political process. But ultimately, people need to protest and vote. It will take long-term, serious engagement from millions of Americans to turn the page on this latest chapter of American democratic backsliding.
netzpolitik.org: Voting only works if there are consequences. But it seems that Congress isn’t putting any kind of meaningful pressure on Trump. Is this a problem caused by the US constitutional system or a political problem?
Anthony Kreis: We often talk about the three branches of government as having checks and balances on each other. But it’s historically been more a question of separation of parties, not separation of powers. So long as Republicans control Congress and the Supreme Court, there will be less institutional resistance from the legislative branch and the judiciary. It would take a real turn in events where Trump loses popularity among Republicans for that to happen. Otherwise, there’s a lot riding on the 2026 elections for Democrats. That’s their one real opportunity to stop the bleeding.
„The rule of law is under threat“
netzpolitik.org: Have the Democrats already pulled all the available levers, or do they have any options left?
Anthony Kreis: They have very few options, other than raising public awareness and shaping public opinion. So far, they haven’t done a terribly good job with that.
netzpolitik.org: Okay, so until the 2026 elections, the Supreme Court will have the final say on most of these matters. So far, its decisions have been a mixed bag for the Trump administration. But Trump continues to push through apparently illegal orders – whether it’s the domestic use of military or ending constitutionally guaranteed birthright citizenship. We’ve already seen him ignore Supreme Court decisions. Is the U.S. already in a constitutional crisis?
Anthony Kreis: Everyone will define “constitutional crisis” differently. For me, it’s a moment when the rule of law is under threat, and those in power try to change rules and institutions outside of a legitimate process— in other words, arbitrary and unstable governance. That has been the state of affairs in America since January. I’d say we are in a constitutional crisis.
Datenschutz & Sicherheit
Datenschutzbehörde findet Verstöße bei Berliner Werbefirma
Es kommt nicht alltäglich vor, dass Datenschutzbehörden für Vor-Ort-Kontrollen bei Unternehmen anrücken. Im vergangenen Jahr war es in der Hauptstadt jedoch wieder soweit. Wie im Jahresbericht 2024 der Berliner Datenschutzbehörde steht, führte die Behörde eine Prüfung bei einem Unternehmen durch, „das im Bereich der Onlinewerbung als Datenhändler tätig ist“. Dabei stellte die Behörde weitreichende Datenschutzverstöße bei den „sehr invasiven Verarbeitungen personenbezogener Daten“ fest.
Das Unternehmen biete verschiedene Dienste an, heißt es in dem Bericht ab Seite 94. Ein Teil dieser Dienste beruhe auf Auswertungen, welche Nutzer:innen vermeintlich bestimmte Eigenschaften aufweisen. Die Werbetreibenden und deren Dienstleister könnten betreffenden Nutzer:innen dann gezielt auf diese Zielgruppe zugeschnittene Werbung anzeigen. Ein anderer Teil der Dienste des Unternehmens beruhe darauf, die Aufenthaltsorte von Nutzer:innen auszuwerten und daraus Informationen abzuleiten.
Untersuchung ist Folge unserer Berichterstattung
Um welches Unternehmen es sich dabei handelt, schreibt die Behörde in ihrem Bericht nicht. Die Schilderungen erinnern jedoch stark an ein Berlin Unternehmen, dessen mutmaßliche Datenschutzverstöße netzpolitik.org im Jahr 2023 aufgedeckt hatte: Adsquare.
Die Werbe- und Datenfirma war eines von mehreren deutschen Unternehmen, die als Anbieter umfassender Tracking-Daten in der Angebotsliste des US-Datenhändlers Xandr auftauchten. Werbekund:innen konnten mithilfe von Adsquare offenbar Menschen als Zielgruppe auswählen, die in Kategorien wie „Fragile Senioren“, „Familien in Schwierigkeiten“ und „Glücksspiel“ gesteckt wurden oder mutmaßlich Geldautomaten der Berliner Sparkasse und Luxusgeschäfte besucht hatten. Adsquare betonte damals auf Anfrage, dass es sich dabei teilweise um veraltete Kategorien handelte.
Wir haben aufgrund der Ähnlichkeit der geschilderten Geschäftspraktiken bei der Datenschutzbehörde nachgefragt und die Bestätigung erhalten, dass es sich bei dem im Jahresbericht genannten Unternehmen tatsächlich um Adsquare handelt:
Wir können bestätigen, dass es sich bei der im genannten Jahresberichts-Kapitel genannten Firma um Adsquare handelt und die Untersuchung eine Folge der Berichterstattung von netzpolitik.org ist.
Adsquare selbst antwortete nicht auf eine Presseanfrage von netzpolitik.org.
Erhebliche Mängel bei Einwilligungen
Im Rahmen der Berichterstattung aus dem Jahr 2023 teilte Adsquare gegenüber netzpolitik.org noch mit, sich an datenschutzrechtliche Vorgaben zu halten. Das sieht die Berliner Datenschutzbehörde nach ihrer Kontrolle in den Räumen der Firma offenbar anders.
Schwerpunktmäßig richtet sich die Kritik der Behörde auf Probleme mit der Einwilligung und somit das Fehlen einer gültigen Rechtsgrundlage für die invasive Überwachung von Verbraucher:innen. 2023 teilte Adsquare gegenüber netzpolitik.org mit, dass es in der Verantwortung der Datenlieferanten liege, für die Wirksamkeit der Einwilligungen zu sorgen.
Auch dies sieht die Datenschutzbehörde anders und listet zahlreiche Mängel auf. „Teilweise war bereits aus den Unterlagen des Unternehmens ersichtlich, dass keine oder keine wirksame Einwilligung erteilt worden war, teilweise konnte das Unternehmen wegen struktureller Defizite die Einwilligungen nicht nachweisen.“
Zu den Datenlieferanten gehören dem Bericht zufolge sowohl Unternehmen, die Apps betreiben, als auch andere Datenhändler, die Daten weiterverkaufen. Wie diese eine Einwilligung einholen, habe das Unternehmen zwar geprüft und wegen besonders schwerwiegender Verstöße auch einigen Datenlieferanten gekündigt. „Allerdings arbeitete das Unternehmen weiterhin mit diversen Datenlieferanten zusammen, bei denen es selbst festgestellt hatte, dass datenschutzrechtliche Mängel bestanden.“
Probleme bei der Datenqualität
Weil Adsquare Daten aus sehr vielen unterschiedlichen Quellen zusammenführe, habe man zudem einen interessanten Einblicke in die Qualität der Tracking-Daten erhalten, schreibt die Datenschutzbehörde weiter. Sie habe eine Stichprobe der Datensätze untersucht und dabei festgestellt, dass die „Zuschreibungen von Eigenschaften in erheblichem Umfang widersprüchlich waren.“ Beispielsweise sei derselben Person „praktisch jede Alters- und jede Einkommensklasse zugeschrieben“ worden.
Die durchwachsene Datenqualität ist in der Branche ein bekanntes Thema. Um ihre Datensätze künstlich aufzublasen, vergeben Datenhändler willkürlich IDs und Zuschreibungen. Das NATO-Forschungszentrum Stratcom schreibt dazu in einer Studie [PDF]: „Unsere Untersuchungen zeigen, dass in der Datenbroker-Branche Quantität über Qualität steht, und dass im Durchschnitt nur 50 bis 60 Prozent der Daten als präzise angesehen werden können.“
Auch die Databroker-Files-Recherchen von netzpolitik.org und Bayerischem Rundfunk bestätigten Probleme mit der Datenqualität. Gleichzeitig zeigte die Recherche, dass in anderen Fällen äußert akkurate Daten vorliegen, die es ermöglichen, Menschen bis in ihre Intimsphäre hinein auszuspähen.

Behörde empfiehlt gesetzliche Lösung des Einwilligungsproblems
Insgesamt weise der Fall Adsquare weit über die einzelne Firma hinaus, schreibt die Datenschutzbehörde in ihrem Jahresbericht. Er zeige exemplarisch, „welche Schwierigkeiten im Bereich des Trackings (…) bestehen“ – insbesondere im Hinblick auf die Wirksamkeit der Einwilligungen. Denn auch Firmen, die im Dickicht der Datenindustrie versteckt sind und keinen direkten Kontakt zu Betroffenen hätten, müssten wirksame Einwilligungen nachweisen können.
Das sei häufig nicht der Fall, weil „Hunderte Akteur:innen als Datenempfänger:innen aufgeführt werden, die Datenflüsse derart komplex sind, dass diese nicht transparent gemacht werden können und die Zwecke nicht ausreichend und transparent bezeichnet sind.“ Das führe regelmäßig dazu, dass die eingeholten Einwilligungen unwirksam sind.
Adsquare habe sich wie viele Firmen bei den Einwilligungen auf das Transparency & Consent Framework (TCF) der Branchenorganisation IAB Europe verlassen. „Im Rahmen des TCF wird regelmäßig eine Einwilligung für die Verarbeitung von mehreren Hundert Akteur:innen, die in dem Werbenetzwerk von IAB Europe tätig werden, zusammen eingeholt.“ Gerade erst hatte ein beglisches Gericht festgestellt, dass das aktuelle TCF-System in Teilen datenschutzwidrig ist.
Die Datenschutzbehörde verbindet ihren Bericht deshalb auch mit einer politischen Empfehlung: „Angesichts der Schwächen der Einwilligungslösung im Bereich des Onlinewerbetrackings wäre eine (…) klarere gesetzliche Regulierung des Onlinetrackings und -profilings wünschenswert.“
Firma muss mit Bußgeld rechnen
Welche Konsequenzen die festgestellten Datenschutzverstöße für die Firma haben werden, ist derzeit noch unklar. Im Jahresbericht heißt es dazu lediglich, dass ein Bußgeldverfahren „aufgrund der hohen Zahl betroffener Personen“ geprüft werden solle. Der Fall soll dafür an die Sanktionsstelle der Datenschutzbehörde übergeben werden.
Grundsätzlich ermöglicht die Datenschutzgrundverordnung Bußgelder von bis zu 4 Prozent des Jahresumsatzes. Für Adsquare, das laut dem Branchendienst NorthData im Jahr 2023 einen Umsatz von 35 Millionen Euro gemacht hat, könnte es also teuer werden. Denkbar wäre auf dieser Basis ein Bußgeld von bis zu 1,4 Millionen Euro. In den vergangenen Jahren hatten Gerichte jedoch wiederholt Bußgelder von Datenschutzbehörden als zu hoch eingestuft.
Datenschutz & Sicherheit
Leitfaden von Save the Children: Pädokriminellen das Bild-Material entziehen
Die gemeinnützige, internationale Organisation „Save the Children“ hat einen kostenfreien Leitfaden für öffentliche Einrichtungen wie Schulen, Kindergärten oder auch Vereine herausgegeben, um stärker dafür zu sensibilisieren, wie Pädokriminelle im Internet veröffentlichte Fotos und Videos von Kindern für ihre Zwecke missbrauchen. Er klärt darüber auf, wie Einrichtungen ihre eigene Medienarbeit so verändern können, dass Kinder und Jugendliche im Netz besser geschützt werden. Dafür enthält er auch konkrete Beispiele, wie Pädokriminelle vorgehen, welches Material sie gerne suchen, kommentieren und weiterverarbeiten. Jugendschutz.net ist als Kooperationspartner am Leitfaden beteiligt.
Das ist doch nur ein schönes Foto!
Abwehrende Sätze, wie diese, hat vermutlich schon jeder Mensch einmal gehört, der die Veröffentlichung von einem Kinderfoto im Netz beispielsweise im Bekanntenkreis kritisiert hat: „Das ist doch nur ein schönes Foto!“; „Das macht gute Laune!“, „Das ist doch total harmlos!“. Genau hier setzt der Leitfaden von Save the Children an. Was für die einen völlig harmlos erscheint, sogar als geteilte Freude gilt, ist für die anderen neues Material für ihre Missbrauchsfantasien.
Wie Save the Children klarmacht, werden sogenannte Alltagsaufnahmen von Kindern und Jugendlichen gezielt aus sozialen Netzwerken und von Webseiten gestohlen und in speziellen Internetforen von Pädokriminellen hochgeladen. Dort werden sie „milliardenfach aufgerufen, getauscht und kommentiert. Das geschieht etwa mit sexualisierenden Texten, sexuellen Lauten oder bestimmten Hashtags und Emojis.“ In Zeiten von leicht zugänglichen KI-Tools gehen Pädokriminelle aber auch noch einen Schritt weiter. Sie können mittels KI-Tools existierende Aufnahmen täuschend echt verändern. Mit Deepnude-Generatoren oder auch Nudifiern können dadurch auch Bilder von bekleideten Kindern mit wenigen Klicks zu Nacktaufnahmen werden.
Jasmin Wahl, Leiterin des Bereichs Sexualisierte Gewalt bei jugendschutz.net, erklärt hierzu: „Die Sexualisierung von Aufnahmen, die Kinder und Jugendliche in alltäglichen Situationen zeigen, ist ein Phänomen, welches wir seit Jahren bei der Bearbeitung von Hinweisen und Recherchen beobachten – in zum Teil drastischen Ausprägungen. Neue technologische Entwicklungen, die eine Manipulation von Bildern und Videos ermöglichen, verstärken das Problem. Das Bewusstsein für Risiken auch in Institutionen und Organisationen zu schärfen, ist deshalb von großer Relevanz“. Jugendschutz.net ist das gemeinsame Kompetenzzentrum von Bund, Ländern und Landesmedienanstalten für den Schutz von Kindern und Jugendlichen im Internet, das unter anderem in seinem jüngsten Jahresbericht schon auf die Deep-Nude-Problematik aufmerksam machte.
Einmal mehr über Internetauftritte nachdenken
Normalweise wurden in den vergangenen Jahren insbesondere Eltern immer wieder auf die Gefahren von Kinderfotos im Internet hingewiesen. Britt Kalla, Expertin für institutionellen Kinderschutz bei Save the Children Deutschland und Autorin des Leitfadens, unterstreicht allerdings, dass Pädokriminelle überall dort nach Material suchen, wo es zur Verfügung gestellt wird. Da mittlerweile auch Kindergärten, Schulen, Horte, Sport- und Musikvereine und andere Organisationen über Internetauftritte oder Social-Media-Profile verfügen und dort gerne auch werbliche Fotos hochladen, richtet sich der Leitfaden (PDF) nun an diese Einrichtungen – er soll eine publizistische Lücke schließen. „Wir möchten Verantwortlichen in Institutionen und Organisationen Wissen an die Hand geben, um informiert zu entscheiden, welche Bilder sie teilen und welche besser nicht. Dabei schauen wir auch kritisch auf unsere eigenen Veröffentlichungen – immer mit dem Ziel, Kinder und ihre Rechte bestmöglich zu schützen.“
Eins macht der Leitfaden zu Beginn sehr deutlich: Jede Aufnahme kann zweckentfremdet werden, egal wie harmlos sie aus eigener Perspektive zu sein scheint. Zudem zählt er auf, welche Rechte der Kinder und Jugendlichen durch Aufnahmen und deren Verbreitung und dann auch den Missbrauch verletzt werden können: Hierzu zählen die Menschenwürde, das Allgemeine Persönlichkeitsrecht, das Recht auf ungestörte Persönlichkeitsentwicklung oder auch das Recht auf Schutz der Privatsphäre und Ehre. Außerdem verfügen auch Kinder und Jugendliche über das Recht am eigenen Bild, das Recht auf informationelle Selbstbestimmung und Schutz personenbezogener Daten, sowie das Recht auf Schutz der psychischen Gesundheit und Schutz vor Missbrauch und Ausbeutung.
Da es immer wieder Menschen gibt, die glauben, dass vermeintlich „harmlose“ Bilder für Pädokriminelle uninteressant sind, listet der Leitfaden beispielhaft auf, wie auch solche Bilder missbraucht, kommentiert und aus dem Kontext gerissen werden. Für diese Beschreibungen gibt es im Leitfaden auch eine Content-Warnung. Illustrationen von im Netz gängigen Fotomotiven werden exemplarisch darauf abgeklopft, was Pädokriminelle an ihnen reizen könnte. Zwei Listen mit einmal vier und einmal zwölf Tipps fassen dann Empfehlungen zusammen, worauf Einrichtungen bei Kinderfotos achten sollten (Seite 25). Eine weitere Reihe von Illustrationen zeigt, wie Fotos und Videos gestaltet werden können, damit sie für Pädokriminelle uninteressanter sind.
Wie können Fotos von Kindern im Internet weniger Material für Pädokriminelle bieten? Der Leitfaden gibt Tipps.
Kinder nicht unsichtbar machen, aber schützen
Laut Save the Children und Jugendschutz.net soll der Leitfaden nicht dazu führen, Kinder und Jugendliche im Internet unsichtbar zu machen, sondern eine Hilfestellung bieten, ihre Schutz- und Freiheitsrechte gegeneinander abzuwiegen. In der Gesellschaft gebe es recht unterschiedliche Betrachtungsweisen „zur Notwendigkeit der Darstellung von Kindern in der Öffentlichkeit“. Drei Positionen stellt der Bericht stellvertretend vor. So vertrete etwa das Bundeskriminalamt auf seiner Webseite die Position: „Kinderbilder gehören nicht ins Netz.“ Einige Institutionen und Organisationen möchten allerdings Fotos und Videos von und mit Minderjährigen erstellen, weil sie „Kinder als einen wichtigen Teil der Gesellschaft [sehen,] und möchten, dass sie Beachtung und Wertschätzung erfahren.“ Für sie gelinge das am besten, wenn Kinder „als Rechteinhaber:innen und Expert:innen ihrer Lebenswelt sicht- und hörbar bleiben.“ Kinderbilder und -videos würden zudem dazu beitragen, für Anliegen der Kinder oder sie vertretende Organisationen zu werben.
Die dritte Position sei eine, die sich zwischen den ersten beiden verorte, heißt es im Leitfaden: Die Veröffentlichung von Fotos und Videos von Heranwachsenden wird nicht rundheraus abgelehnt, sondern nach Schutzbedürfnis gestaffelt betrachtet. Bei jüngeren Kindern stehe der Schutzgedanke im Vordergrund. Bei älteren Kindern und Jugendlichen gehe man davon aus, dass bereits Selbstschutzkompetenzen entwickelt wurden, um mit möglichen Risiken umzugehen. Hierfür formuliere man Empfehlungen, wie sie sich auch im Leitfaden wiederfinden.
Vier Empfehlungen sollen „das Risiko für die missbräuchliche Verwendung von Kinderfotos und -videos“ mindern. Zwölf weitere Empfehlungen sensibilisieren für Motivwahl und z. B. Kameraeinstellungen.
(kbe)
-
Online Marketing & SEOvor 5 Tagen
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
Digital Business & Startupsvor 5 Tagen
Von Peter Thiel finanziertes Krypto-Startup Bullish will an die Börse
-
Künstliche Intelligenzvor 5 Tagen
Telemedizin: Patientenversorgung braucht einfach zugängliche Kommunikationswege
-
Künstliche Intelligenzvor 5 Tagen
Amazon soll Werbung bei Prime Video verdoppelt haben
-
Apps & Mobile Entwicklungvor 3 Tagen
So gut ist Dune: Awakening: Dune sehen und durch Sandwürmer sterben
-
Datenschutz & Sicherheitvor 5 Tagen
CCC: Gesammelte Ausweisdaten von Übernachtungsdienstleister Numa gefunden
-
UX/UI & Webdesignvor 5 Tagen
Kunst & KI begleitet die Münchner Standort-Eröffnung › PAGE online
-
Online Marketing & SEOvor 5 Tagen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen