Datenschutz & Sicherheit
Überwachung gegen Ladendiebstahl: Einzelhandel fordert digitale Aufrüstung
Der deutsche Einzelhandel sieht sich einer wachsenden Welle von Kriminalität gegenüber und schlägt Alarm. Laut der Studie „Kameraeinsatz im Einzelhandel“, die Ibi Research an der Uni Regensburg mit Unterstützung der Deutschen Industrie- und Handelskammer (DIHK) mit einem Fokus auf Präventionsoptionen durchgeführt hat, ist Ladendiebstahl längst keine Petitesse mehr: Mehr als die Hälfte der Handelsunternehmen in Deutschland wurde 2025 nachweislich von Dieben heimgesucht. Die Dunkelziffer gilt als hoch.
Weiterlesen nach der Anzeige
Dabei berichten die Betroffenen laut der Untersuchung nicht nur von einer zunehmenden Professionalisierung der Täter. Auch die Gewaltbereitschaft steige. Viele Händler fühlen sich in dieser Situation von der Politik und den Sicherheitsbehörden im Stich gelassen, während die wirtschaftlichen Schäden durch Inventurdifferenzen Milliardenhöhe erreichen.
Ein zentraler Baustein in der Verteidigungsstrategie der Unternehmen ist moderne Videotechnik. Die Forscher verdeutlichen, dass Kameras heute mehr seien als passive Aufzeichnungsgeräte. Sie dienten der frühzeitigen Risikoerkennung, der Abschreckung und als psychologische Stütze für das Personal. Dieses könne in brenzligen Situationen ruhiger agieren, wenn es sich durch Videomaterial abgesichert wisse.
KI-Kameras gegen organisierte Banden
Besonders den Einsatz von Künstlicher Intelligenz sieht der Handel als Hoffnungsträger. KI-gestützte Systeme könnten Verhaltensmuster analysieren, Personalengpässe an Kassen identifizieren oder zur Optimierung des Energiemanagements beitragen, indem sie Licht- und Kühlsysteme an die Kundenfrequenz koppeln. In Zeiten von akutem Personalmangel wird die Technik als Kompensationsinstrument verstanden, um die Aufmerksamkeit gezielt auf kritische Situationen zu lenken, die das Verkaufspersonal nicht immer im Blick haben kann.
Hier stößt der digitale Schutzwall auf rechtliche Hürden. Die Datenschutz-Grundverordnung (DSGVO) wird vom Handel als größtes Hindernis für einen effektiven Kameraeinsatz wahrgenommen. Ein Streitpunkt ist die zulässige Speicherdauer der Aufzeichnungen.
In der Praxis gelten aktuell 48 bis 72 Stunden als datenschutzkonformer Richtwert. Für viele Händler ist dieser Zeitraum zu kurz, da professionelle Diebstähle häufig erst später bemerkt werden, etwa bei der nächsten Inventur oder Warenverräumug. Dann sind die entscheidenden Bilder oft bereits automatisiert überschrieben, was eine spätere Identifizierung der Täter und eine erfolgreiche Strafverfolgung vereitelt.
Weiterlesen nach der Anzeige
Rechtsunsicherheit bremst
Die Branche fordert daher praxistauglichere und einheitlichere Regeln. Es herrscht Unsicherheit darüber, was rechtlich zulässig ist. Während einfache Überwachungsmaßnahmen zum Schutz von Eigentum unter das „berechtigte Interesse“ fallen können, sind komplexere Anwendungen wie biometrische Gesichtserkennung zur Identifizierung bekannter Ladendiebe rechtlich problematisch und im stationären Handel in der Regel unzulässig.
Diese Lage führt laut der Analyse dazu, dass Pilotprojekte zur KI-gestützten Überwachung in Deutschland oft abgebrochen oder gar nicht gestartet werden. In anderen europäischen Ländern laufen den Autoren zufolge aufgrund einer weniger restriktiven Auslegung der DSGVO dagegen bereits Tests.
Zusätzlich sorgt die Überlastung von Justiz und Polizei für Frustration bei den Ladenbetreibern. Wenn Anzeigen wegen Geringfügigkeit eingestellt werden oder Wiederholungstäter trotz Hausverbot und Videobeweis keine spürbaren Konsequenzen fürchten müssen, sinkt die Motivation, Delikte zur Anzeige zu bringen. Der Handel wünscht sich daher auch eine konsequentere Strafverfolgung und eine engere Zusammenarbeit mit den Behörden.
Bedenken von Aufsichtsbehörden
Um die Lücke zwischen Sicherheitsbedarf und Datenschutz zu schließen, setzen die Verfasser auf Aufklärung und bieten praktische Leitlinien für Händler. Ohne eine Anpassung der Rahmenbedingungen werde die Schere zwischen technischem Potenzial und realem Schutz im deutschen Einzelhandel aber noch größer.
Datenschützer betonen die Notwendigkeit der Verhältnismäßigkeit sowie den Schutz von Grundrechten. Aus ihrer Sicht muss Videoüberwachung das letzte Mittel („Ultima Ratio“) bleiben, nachdem mildere Maßnahmen wie Warenetikettierung oder erhöhte Personalpräsenz nicht ausreichen. Bedenken haben die Aufsichtsbehörden wegen der Gefahr einer flächendeckenden Überwachung des öffentlichen Raums sowie der unzulässigen Identifizierung Unbeteiligter durch biometrische Verfahren. Potenziell drohe eine Vorratsdatenspeicherung ohne konkreten Verdacht, befürchten sie. Vor allem bei KI-Systemen warnen Experten vor einer Blackbox-Problematik, bei der automatisierte Entscheidungsprozesse nicht nachvollziehbar sind und zu Diskriminierung führen können.
(nen)
Datenschutz & Sicherheit
US-Regierung traf sich vor Mythos-Preview-Rollout mit KI-Herstellern
US-Vizepräsident JD Vance und US-Finanzminister Scott Bessent haben sich mit den Köpfen führender Big-Tech-Unternehmen besprochen, um über KI-Sicherheit zu reden. Ein entsprechendes Telefonat soll vergangene Woche stattgefunden haben, etwa eine Woche, bevor Anthropics neues KI-Modell Mythos Preview ausgewählten Unternehmen zur Verfügung gestellt wurde. Mythos soll in jeder wichtigen Software Sicherheitslücken finden und auch gleich passende Angriffe entwickeln können.
Weiterlesen nach der Anzeige
Dem US-Nachrichtensender CNBC zufolge sollen dem Anruf Anthropic-CEO Dario Amodei, xAI-Chef Elon Musk, Google-Chef Sundar Pichai, OpenAI-Chef Sam Altman, Microsoft-Chef Satya Nadella, CrowdStrike-Chef George Kurtz und Palo-Alto-Networks-Chef Nikesh Arora zugeschaltet gewesen sein. Als Quellen beruft sich CNBC auf zwei Personen, deren Namen aufgrund der Vertraulichkeit der Angelegenheit nicht bekannt werden sollen. Ein Anthropic-Sprecher wollte zu dem Thema keinen Kommentar abgeben, bestätigte aber, dass es am Freitag voriger Woche ein Treffen mit Spitzenvertretern der Regierung gegeben habe.
Noch vor jeglicher externer Veröffentlichung habe Anthropic hochrangige Vertreter der US-Regierung über den vollen Funktionsumfang von Mythos Preview informiert, einschließlich seiner offensiven und defensiven Cyber-Anwendungen, erklärte er. „Die Regierung frühzeitig einzubeziehen – darüber, was das Modell leisten kann, wo die Risiken liegen und wie wir damit umgehen – hatte von Anfang an Priorität“, so der Sprecher.
Den beiden anonymen Quellen zufolge sollen die Teilnehmer des Anrufs über die Sicherheitslage bei LLMs und ihren sicheren Einsatz gesprochen haben und auch darauf eingegangen sein, wie eine mögliche Reaktion aussehen könnte, falls sich die Modelle zugunsten der Angreifer entwickeln.
Weitere Banken testen Mythos
Im Zuge der jetzt vorgestellten Initiative „Project Glasswing“ hatte Anthropic nach eigenen Angaben seine neue KI einer Reihe ausgewählter Unternehmen zur Verfügung gestellt. Dazu gehören demnach unter anderem Amazon Web Services (AWS), Apple, Broadcom, Cisco, CrowdStrike, Google, JPMorganChase, die Linux Foundation, Microsoft, NVIDIA und Palo Alto Networks. 40 weitere Organisationen, die Software für kritische Infrastruktur verantworten, seien ebenfalls beteiligt.
Weiterlesen nach der Anzeige
Bessent und der US-Notenbankchef Jerome Powell riefen die Chefs der wichtigsten US-Banken am selben Tag zu einem dringenden Treffen zusammen, um vor den Gefahren von Anthropics neuem KI-Modell Claude Mythos Preview zu warnen. Sie appellierten an die Finanzhäuser, die KI ernstzunehmen. Zu den Unternehmen mit Mythos-Zugang sollen dem Nachrichtensender Bloomberg zufolge auch die Banken Goldman Sachs, Citigroup, Bank of America und Morgan Stanley zählen. Sie sind von der US-Regierung aufgefordert, mit Mythos nach Schwachstellen zu suchen. Bloomberg erfuhr das von eingeweihten Personen.
Hierzulande beschäftigt Mythos das Bundesamt für Sicherheit und Informationstechnik. Man erwarte „Umwälzungen im Umgang mit Sicherheitslücken und in der Schwachstellenlandschaft insgesamt“, sagte BSI-Präsidentin Claudia Plattner der dpa. Konsequent zu Ende gedacht, könnte es mittelfristig keine unbekannten klassischen Software-Schwachstellen mehr geben, meint sie. „Dies würde eine Verschiebung der Angriffsvektoren und einen Paradigmenwechsel mit Blick auf die Cyberbedrohungslage zur Folge haben.“
Lesen Sie auch
(nen)
Datenschutz & Sicherheit
KW 15: Die Woche, in der es endlich Konsequenzen für die Datenindustrie geben muss
Liebe Leser:innen,
es war mal wieder eine „Databroker-Woche“ bei netzpolitik.org – und so langsam nervt mich dieser Satz, der regelmäßig in unserer Redaktion zu hören ist. Und das, obwohl ich selbst ständig über das Thema schreibe. Die ausufernde Tracking-Industrie, der unkontrollierte Handel mit unseren Daten, sie beschäftigen uns seit Jahren. Wir treiben die Debatte dazu voran wie wohl kein anderes deutschsprachiges Medium. Nur langsam frage ich mich: Soll das ewig so weitergehen?
Aber der Reihe nach. Eigentlich waren es ja drei begrüßenswerte Anlässe, aus denen wir diese Woche über das Thema berichtet haben.
Erstens haben unsere Kolleg:innen vom Bayerischen Rundfunk die sehr sehenswerte ARD- und Arte-Doku „Gefährliche Apps: Im Netz der Datenhändler“ veröffentlicht. Mein Kollege Sebastian und ich arbeiten seit mehr als zwei Jahren mit ihnen an den „Databroker Files“. Der Film erzählt von unseren Recherchen und den sehr konkreten Gefahren, die etwa von vermeintlich harmlosen Tracking-Daten ausgehen und unterschiedliche Menschen wie zum Beispiel eine Journalistin oder ukrainische Soldaten betreffen.
Zweitens schreiten Ermittlungen von Datenschutzbehörden gegen zwei deutsche Apps voran, die unsere Databroker-Files-Recherchen ausgelöst haben. Die Behörden sind sich inzwischen sicher, dass eine Wetter-App und eine Dating-App, beide mit Millionen Nutzer:innen, datenschutzwidrig genaue Standortdaten verarbeitet und an Dritte weitergegeben haben. Konsequenzen hat das bislang aber noch nicht, die Verfahren laufen noch.
Drittens haben das Citizen Lab, der Wiener Tracking-Forscher Wolfie Christl und der ungarische Journalist Szabols Panyi eine bemerkenswerte Recherche veröffentlicht. Sie können am Beispiel einer US-Überwachungsfirma detailliert aufzeigen, wie Daten aus dem Ökosystem der Online-Werbung für Geheimdienste und andere Behörden nutzbar gemacht werden. Und sie berichten, dass die Produkte dieser Firma nicht nur von Trumps paramilitärischer Abschiebetruppe ICE genutzt werden, sondern auch von der ungarischen Regierung angeschafft wurden. Dort finden am Sonntag Wahlen statt und Viktor Orbán kämpft mit allen Mitteln um den Machterhalt.
Ein komplettes Versagen von Datenschutz, Politik und Medien
Ich bin angesichts dieser Ereignisse diese Woche hin- und hergerissen. Einerseits freue ich mich über aufklärende Recherchen, Public-Value-Journalismus und konkrete Konsequenzen. Andererseits bin ich frustriert, dass es all das noch immer braucht. Wir haben doch eigentlich bei diesem Thema längst kein Erkenntnis-, sondern ein Umsetzungsdefizit.
Juristisch gibt es – soweit ich weiß – wenig Zweifel daran, dass das umfassende Tracking durch ein riesiges, undurchsichtiges Firmennetzwerk ebenso illegal ist wie der Handel mit den dabei erfassten Daten. Doch die Datenschutzbehörden kommen nicht hinterher.
Die Wissenschaftlichen Dienste des Bundestages haben zudem klargestellt, dass eine Nutzung solcher Daten durch staatliche Stellen im besten Fall auf wackeligen Füßen stünde, wahrscheinlich aber doch eher überwiegend ebenfalls illegal wäre. Doch die Bundesregierung schweigt einfach dazu, ob auch deutsche Sicherheitsbehörden kommerzielle Daten nutzen.
Wir erleben bei diesem Thema ein komplettes Versagen von Datenschutz, Politik und leider auch von vielen Medien.
Also was tun? Digitale Selbstverteidigung geht immer. Aber eigentlich müsste man das Problem ja politisch angehen. Doch Regulierung, womöglich sogar Verbote bestimmter Geschäftspraktiken, das ist momentan einfach nicht angesagt. Als wir im Sommer 2024 die ersten Storys der Databroker Files veröffentlichten, gab es große Bestürzung in allen demokratischen Parteien. Heute haben wir eine Bundesregierung, die sich in Brüssel dafür einsetzt, dass der Datenschutz möglichst mit dem Vorschlaghammer reformiert – also abgebaut – wird. Die Datenindustrie macht derweil munter weiter.
Deshalb machen auch wir weiter, decken auf und erzeugen Druck. Wir lesen uns also sicher bald wieder, wenn es mal erneut heißt: Databroker-Woche bei netzpolitik.org.
Danke für eure Unterstützung bei der journalistischen Sisyphusarbeit!
Euer Ingo
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Datenschutz & Sicherheit
Studie der Medienanstalten: Debattenkultur im Netz erodiert

Plattformen-Nutzer:innen und Social-Media-Redakteur:innen sind sich offenbar gleichermaßen einig: Die Debattenkultur im digitalen Raum verschlechtert sich zunehmend. Zu diesem Ergebnis kommt die „Transparenz-Check“-Studie der Medienanstalten. Konstruktive Debatten seien online demnach „kaum noch möglich“ und würden zum Teil gar als unwillkommen wahrgenommen. Dennoch wünsche sich eine deutliche Mehrheit der Befragten einen konstruktiven Austausch.
Mit der als negativ wahrgenommenen Diskursqualität sinkt offenbar auch die Bereitschaft, in den Kommentarspalten mitzudiskutieren. Der häufigste Grund dafür sei die aggressive Stimmung. Dementsprechend werde der respektvolle Umgang miteinander als zentral dafür angesehen, sich mehr zu beteiligen.
Zur Meinungsfreiheit im digitalen Raum liegen bei den Befragten zwei gegensätzliche Wahrnehmungen vor. Eine Gruppe versteht darunter, ohne Sorge vor Hass und Abwertung sprechen zu können. Die andere Gruppe will dagegen grundsätzlich alles ungehindert sagen dürfen. Besonders Menschen, die der AfD zuneigten, hätten das Gefühl, in ihrer Meinungsäußerung eingeschränkt zu sein. Wähler:innen der Linken oder der Grünen gaben dagegen häufiger an, frei artikulieren zu können.
Vertrauen in Soziale Medien ist sehr gering
Der Studie nach gibt es zwischen den Plattformen große Unterschiede. Im Vergleich zu Instagram würden Facebook und Twitter/X als wesentlich problematischer wahrgenommen – insbesondere von ehemaligen Nutzenden der Plattformen. Die schlechte Diskursqualität dort sei demnach einer der Gründe, warum Nutzende den Plattformen den Rücken kehren.
Facebook sei die Plattform, die am zweithäufigsten genutzt werde. Gleichzeitig ist sie die meistgenutzte Plattform, auf der Nutzende journalistische Beiträge lesen und kommentieren. Trotz Klarnamen werde die Atmosphäre dort aber als „toxisch“ wahrgenommen.
Das Vertrauen in die Sozialen Medien fällt insgesamt sehr gering aus. Dennoch gibt etwa ein Drittel der Befragten an, in den Kommentaren unter journalistischen Beiträgen bei Facebook, Instagram und YouTube mitzulesen.
„Vertrauen und Laune sinken nach dem Lesen von Kommentaren“
Ein Viertel derer, die aktiv kommentieren, wollen zumeist nur ihre Meinung äußern; knapp ein Viertel von ihnen will andere überzeugen und etwa jede achte Person möchte lediglich ihren Ärger kundtun. „Insgesamt überwiegen die negativen Auswirkungen von Diskursen in den Sozialen Medien“, so ein Fazit der Studie. „Extreme Meinungen überwiegen, Vertrauen und Laune sinken nach dem Lesen von Kommentaren.“
Allerdings zeigten die durchgeführten Experimente, dass eine erkennbare Moderation entscheidend dafür sein kann, dass die Diskursqualität positiver wahrgenommen wird. Je strenger moderiert wird und je konstruktiver der Austausch ist, desto respektvoller und ausgewogener wird der Diskurs wahrgenommen. Allerdings sind die Ressourcen für ein konstruktives Community-Management oftmals knapp.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Bei den Befragten bleibt unterm Strich eine Grundskepsis: Sie bezweifeln, dass Online-Diskurse überhaupt funktionieren und Kommentare zu neue Perspektiven führen können. Eine Mehrheit hat laut Studie das Gefühl, dass Online-Diskussionen spalten.
Desinformation und Bots
Die Anforderungen an das Community-Management sind in den vergangenen Jahren gewachsen. Verantwortlich dafür sind die steigende Zahl an Kommentaren und der zunehmend raue Tonfall. Zudem nehme der Anteil an Desinformation und Fake News zu.
Auch die Bedeutung von Bots hat die Studie unter die Lupe genommen. Insgesamt wurden vier Prozent der Kommentare als „wahrscheinliche Bot-Kommentare“ klassifiziert. Bei kontroversen Themen seien deutlich höhere Werte zu verzeichnen.
Eine Mehrheit der Befragten ist der Ansicht, aufgrund der Bot-Aktivität könnten sie sich im Netz inzwischen kaum noch mit echten Menschen austauschen.
Eine noch größere Rolle als die Bots spielen Trolle, Fake-Accounts und koordinierte Kommentar-Ströme. Diese würden laut den befragten Moderator:innen dazu genutzt, um den Verlauf von Diskussionen in Kommentarspalten gezielt zu beeinflussen.
Vorgehen der Studie
Der „Transparenz-Check“ der Medienanstalten ist dreistufig aufgebaut: Inhaltsanalyse, qualitative Tiefeninterviews und quantitative repräsentative Befragung.
Die Inhaltsanalyse zur Ermittlung der Rolle von Bots beruht auf Tausenden von Kommentaren unter insgesamt 39 Beiträgen von Bild, Der Spiegel, Süddeutsche Zeitung, Die Zeit sowie auf den Plattformen Facebook, Instagram und YouTube.
Elf Tiefeninterviews haben die Forschenden mit Personen aus Social-Media-Redaktionen, aus dem Community-Management sowie mit weiteren Expert:innen durchgeführt. Die quantitative repräsentative Befragung fand mit mehr als 3000 Internetnutzenden statt.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
