Datenschutz & Sicherheit
Automatisierungs-Tool n8n: Angreifer können Schadcode einschleusen
Weiterlesen nach der Anzeige
Im KI-gestützten Prozessautomatisierungs-Tool n8n haben IT-Forscher elf Schwachstellen entdeckt. Angreifer können dadurch etwa Schadcode einschleusen und ausführen. Aktualisierte Versionen schließen die Sicherheitslücken. Admins sollten rasch aktualisieren.
Von den drei als kritisch eingestuften Sicherheitslücken basiert die erste darauf, dass angemeldete User mit der Berechtigung, Workflows zu erstellen oder zu modifizieren, den SQL-Query-Modus nutzen können, um beliebigen Code auf dem n8n-Server auszuführen oder beliebige Dateien darauf abzulegen (CVE-2026-27497, CVSS4 9.4, Risiko „kritisch“). Ebenso können derartige Nutzer manipulierte Ausdrücke in Workflow-Parametern zum Starten von Systembefehlen auf dem n8n-Hostsystem missbrauchen; es handelt sich um einen Ausbruch aus der Sandbox für derartige Expressions, die in der Ausführung von Code aus dem Netz münden kann (CVE-2026-27577, CVSS4 9.4, Risiko „kritisch“). Im JavaScript-Task-Runner können Nutzer zudem aus der Sandbox ausbrechen und beliebigen Code außerhalb der Sandbox ausführen. In der Standardeinstellung kann das in vollständige Kompromittierung des n8n-Hosts führen (CVE-2026-27495, CVSS4 9.4, Risiko „kritisch“).
n8n: Fehlerbereinigte Versionen
Die Versionen 2.10.1, 2.9.3 und 1.123.22 sowie neuere Fassungen von n8n stopfen die Sicherheitslecks. Die sind unter anderem über die Release-Ankündigungen im n8n-GitHub-Repository erhältlich. Wer n8n als Docker-Container nutzt, kann in der Docker-Verwaltung die Aktualisierung vornehmen.
Die neuen n8n-Versionen schließen zudem weitere Sicherheitslücken:
- Stored XSS via Various Nodes (CVE-2026-27578, CVSS4 8.5, Risiko „hoch“)
- Unauthenticated Expression Evaluation via Form Node (CVE-2026-27493, CVSS4 laut NIST 9.5, Einstufung aufgrund der Ausnutzbarkeit jedoch nur als „hoch“)
- Authentication Bypass in Chat Trigger Node (kein CVE, CVSS 6.3, Risiko „mittel“)
- n8n Guardrail Node Bypass (kein CVE, CVSS4 6.3, Risiko „mittel“)
- Webhook Forgery on Github Webhook Trigger (kein CVE, CVSS4 6.3, Risiko „mittel“)
- Webhook Forgery on Zendesk Trigger (kein CVE, CVSS4 6.3, Risiko „mittel“)
- SSO Enforcement Bypass (kein CVE, CVSS4 6.0, Risiko „mittel“)
- SQL Injection in MySQL, PostgreSQL, and Microsoft SQL nodes (kein CVE, CVSS4 5.3, Risiko „mittel“)
Anfang Februar hat das n8n-Projekt ebenfalls teils kritische Sicherheitslücken geschlossen. Damals sogar sechs an der Zahl, vier weitere galten als hohes Risiko.
Weiterlesen nach der Anzeige
(dmk)
Datenschutz & Sicherheit
Mit minimalen Anpassungen in Richtung Überwachungsstaat
Die sächsische Polizei soll Bilder im Internet biometrisch auswerten dürfen – zumindest wenn es nach dem Willen der sächsischen Regierung geht. Und das ist lange nicht die einzige massive Befugniserweiterung der Polizei, die die Regierung plant. Auch Verhaltensscanner, verdeckte Kennzeichenerkennung und eine automatisierte Datenanalyse sollen kommen. Lediglich bei zwei problematischen Plänen machte das Innenministerium einen Rückzieher. Unter Zeitdruck muss nun der sächsische Landtag entscheiden.
Geringfügige Änderungen für eine „rechtsstaatlich sehr hohe Qualität“
Am Dienstag beschloss das Kabinett den Gesetzentwurf für das Sächsische Polizeivollzugsdienstgesetz (SächsPVDG). Dieser fällt in Teilen weniger scharf aus als die ursprünglich geplante Novelle. Wenn man den sächsischen Innenminister Armin Schuster (CDU) fragt, sogar ein gutes Stück zurückhaltender. Sein Referentenentwurf aus dem Herbst war auf viel Kritik gestoßen, auch die mitregierende SPD kritisierte einige der geplanten Befugniserweiterungen.
Im Vergleich dazu enthielten die neuen Pläne „sehr viele grundrechtssichernde Bestimmungen“, so Schuster. Er verweist auf Richtervorbehalte, Lösch- und Berichtspflichten. „Für Polizisten ist dieses Gesetz eine Herausforderung“, sagte der Innenminister auf einer Pressekonferenz am Dienstag nach der Kabinettssitzung. Der Entwurf habe nun eine „rechtsstaatlich sehr hohe Qualität“, betonte er.
Tatsächlich gibt es bei den meisten Bestimmungen des Entwurfs, wenn überhaupt, geringfügige Änderungen und Konkretisierungen. So ist der präventive Staatstrojaner-Einsatz zur Quellen-Telekommunikationsüberwachung nach wie vor enthalten, ebenso Verhaltensscanner, die gesetzlichen Grundlagen für eine Datenanalyse-Plattform sowie der biometrische Abgleich von Gesichtern und Stimmen mit dem Internet.
Kein Palantir, keine Drohnen gegen Handy-Sünder:innen
Gestrichen wurde vor allem das Filmen in Autos, um Handy-Nutzer:innen am Steuer zu erwischen. Diese Vorschrift sollte laut dem ursprünglichen Entwurf sogar mit Drohnen umgesetzt werden.
Die sächsische Datenschutzbeauftragte Juliane Hundert hielt das für „offensichtlich verfassungswidrig“ und sprach von einer „auf der Hand liegenden Unverhältnismäßigkeit“. Ihrer Empfehlung nach einer ersatzlosen Streichung folgte die sächsische Regierung offenbar.
Außerdem setzte die SPD durch, dass Palantir keinen sächsischen Auftrag für eine polizeiliche Datenanalyse-Plattform bekommt. Der Verzicht wird vom sächsischen Innenminister bedauert: „Der Vorsprung der Firma Palantir ist mit Händen greifbar“, sagte Schuster. Man führe Gespräche mit anderen Anbietern. Laut Kostenplanung im Entwurf rechnet die Staatsregierung mit einer zentralen Bereitstellung durch den Bund, an der man sich dann finanziell beteiligt.
Das 3-Stufen-Modell der polizeilichen Datenanalyse
Weiterhin enthalten ist die Vorschrift, die ermöglichen soll, dass die Polizei eine Plattform zur automatisierten Datenanalyse nutzt. Inzwischen findet sich im Entwurf dafür ein 3-Stufen-Modell.
Auf der ersten Stufe steht ein einfacher Datenabgleich, bei dem jede:r Polizist:in personenbezogene Daten in den Beständen der Polizei Sachsen suchen kann. Ausgenommen sind Biometrie-Daten, personenbezogene Daten von Unbeteiligten aus der Vorgangsbearbeitung sowie Daten aus der Wohnraumüberwachung.
Auf der nächsten Stufe folgt die Befugnis, Daten zur Gewinnung neuer Erkenntnisse automatisiert zusammenzuführen und auszuwerten. Voraussetzung ist ein drohender erheblicher Angriff auf den Staat oder Leib, Leben oder Freiheit einer Person. Für drohende terroristische Straftaten liegt die Gefahrenschwelle niedriger. Anordnen dürfen diese Art der Datenanalyse nur hochrangige Polizist:innen, wie etwa die Präsidentin einer Polizeidirektion.
Polizeidaten fürs KI-Training – auch ohne Pseudonymisierung
Nur bei der dritten und letzten Stufe muss die Polizei eine richterliche Erlaubnis einholen. Diese Stufe umfasst den Einsatz von „selbstlernender KI“ sowie die Bildung von Verhaltensprofilen.
Nach wie vor plant die Staatsregierung, der Polizei auch das Training und Testen von eigenen KI-Anwendungen mit echten Polizeidaten zu erlauben. Erlaubt ist außerdem die Weitergabe personenbezogener Daten an Drittanbieter, die mit der Polizei zusammenarbeiten.
Voraussetzung dafür ist, dass die Anonymisierung und Pseudonymisierung sowie die Verarbeitung bei der Polizei „nur mit unverhältnismäßigen Aufwand möglich“ ist. Auch diese Vorschrift wurde, trotz Kritik von der SPD-Fraktion und der Opposition, im Vergleich zum letzten Entwurf aus dem Herbst kaum angepasst.
Gesichtersuche im Netz – im Einklang mit der KI-Verordnung?
Auch der „Klette-Paragraf“, wie ihn Armin Schuster nennt, hat im Gesetzesentwurf weiterhin Bestand. Die RAF-Terroristin Daniela Klette war bis zu ihrer Festnahme 2024 mehrere Jahrzehnte untergetaucht. Dennoch fanden zwei Journalisten im Dezember 2023 Hinweise auf Klettes Aufenthaltsort über die Gesichtersuchmaschine PimEyes. „Diese Blamage darf so nie wieder passieren“, betonte Schuster in der Pressekonferenz.
Dieser biometrische Abgleich von Gesichtern und Stimmen mit Internetdaten wurde trotz viel Kritik kaum angepasst. Die Polizei soll nun lediglich nach Opfern und potenziellen Täter:innen suchen dürfen.
Doch es gibt Zweifel, ob die von Innenminister Armin Schuster als „Klette-Paragraf“ bezeichnete Vorschrift grundsätzlich mit der KI-Verordung der EU in Einklang zu bringen ist.
Laut einem Gutachten von AlgorithmWatch ist es technisch nicht umsetzbar, frei verfügbare Bilder aus dem Internet für einen Abgleich praktikabel durchsuchbar zu machen, ohne eine Datenbank dieser Bilder zu erstellen. Das verbietet die KI-Verordnung.
Das sächsische Innenministerium rechtfertigt die Pläne auf Anfrage von netzpolitik.org damit, dass das Gutachten auf die Erstellung einer anlassunabhängigen Datenbank abziele, das vorgeschlagene Gesetz aber „auf den anlassbezogenen Auftragsbereich der Gefahrenabwehr“ fokussiere. Das Innenministerium schreibt weiter:
Zu OSINT-Recherchen werden sowohl Sachbearbeiter als auch Tools eingesetzt, die sich der grundsätzlichen Datenbankstruktur des Internets bedienen und keine polizeieigene Datenbank für alle Informationen des Internets erstellen.“ Die Methodik hielte sich an die von den Informationsanbietern gesetzten Grenzen, so das Ministerium weiter. „OSINT-Recherchen sind für einen anlassbezogenen Lichtbildvergleich mit Bildern aus dem Internet rechtmäßig unter Wahrung der DSGVO sowie europäischen Datenschutzrichtlinien.
Tatsächlich aber ist es laut KI-Verordnung unerheblich, ob die Polizei selbst eine anlassunabhängige Datenbank mit allen Bildern erstellt oder eine von Drittanbietern nutzt. Konkret verbietet die Verordnung in Artikel 5 (1e) „das Inverkehrbringen, die Inbetriebnahme […] oder die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsaufnahmen erstellen oder erweitern“.
Videoüberwachung mit Mustererkennung
Auch Verhaltensscanner und Gesichtserkennung in der Videoüberwachung sind weiterhin vorgesehen. Die Verhaltensscanner sollen Beamt:innen alarmieren, wenn die Software auf den Kamerabildern Bewegungsmuster erkennt, die auf Waffen, gefährliche Gegenstände oder die Begehung einer Straftat hindeuten. Die Beamt:innen sollen dann überprüfen, ob die Software zurecht angeschlagen hat. Sie können daraufhin auch eine automatisierte Nachverfolgung des vermeintlich gefährlichen Menschen durch die verschiedenen Kameras in die Wege leiten.
Diese Form der Überwachung soll prinzipiell nicht nur an allen Kriminalitätsschwerpunkten möglich sein, sondern etwa auch in Straßenbahnen und Bussen, wenn die Polizei annimmt, dass dort künftig Straftaten begangen werden.
Obwohl die SPD-Fraktion sich explizit gegen diese Vorschrift aussprach, ist auch die Möglichkeit eines Live-Gesichtsscans im Gesetzentwurf enthalten. Eingeschränkt wurde hier nur die Menge an Menschen, nach denen die Polizei suchen darf, nämlich nach Terrorverdächtigen sowie vermissten Menschen und Opfern von Entführungen und Menschenhandel.
Diese „Echtzeit-biometrische Fernidentifizierung“ muss von Richter:innen angeordnet werden, die auch Umfang und Dauer der Maßnahme absegnen müssen. Obwohl also prinzipiell alle gescannt werden, die durch das Kamerabild laufen, soll die Software nur nach einzelnen Menschen suchen.
Völlig unverändert: Staatstrojaner, Kennzeichenscan und Bodycams
Bei anderen Befugniserweiterungen hat sich nichts verändert.
Der Bodycam-Einsatz in Wohnungen soll weiterhin erlaubt werden. Auch der Einsatz von Staatstrojanern zur Gefahrenabwehr im Rahmen der Quellen-TKÜ soll möglich sein. Der Innenminister wollte zudem die verdeckte Online-Durchsuchung von Computern einführen, hat das aber nicht „durchgekriegt“, wie er bei der Pressekonferenz freimütig zugab. Auch die CDU-Fraktion macht Druck.
Nach wie vor ist das verdeckte automatisierte Scannen von Auto-Kennzeichen geplant. Diese Überwachungsmaßnahme soll in grenznahen Regionen erfolgen. Das Innenministerium begründet die Maßnahme explizit mit der Suche nach Autodieben und gestohlenen Fahrzeugen. Der verdeckte Scan ist bis zu 30 Kilometer vor der Grenze zu Tschechien oder Polen erlaubt. Das entspricht etwa der Hälfte der Fläche Sachsens.
Bei den Tasern gibt es einen Kompromiss. SPD- und BSW-Fraktion plädierten auf eine gestaffelte Einführung. Die Staatsregierung schafft nun zwar die Rechtsgrundlage, um alle Polizist:innen damit auszustatten. Über die nächsten drei Jahre sollen allerdings nur 120 Stück angeschafft werden. Außerdem ist eine verpflichtende Evaluation im Jahr 2029 vorgesehen.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Minority Report und chinesische Verhältnisse
Auch wenn die Minderheitskoalition den Entwurf im Vergleich zur vorherigen Version in Details verändert hat, bleibt es bei einer massiven Erweiterung der Polizeibefugnisse. Der Dresdener Chaos Computer Club (C3D2) kritisiert das: „Die Landesregierung will klassische Mittel der Strafverfolgung auf Landesebene einführen und verschiebt damit die rechtliche Grenze der behördlichen Befugnisse: Gefahrenabwehr ist Sache des Landes, Strafverfolgung des Bundes.“ Als Beispiel nennen sie die Staatstrojaner, deren Einsatz bundesweit durch die Strafprozessordnung geregelt ist.
Der Verein erinnert in seiner Mitteilung an dystopische Welten wie „Minority Report“, in denen Predictive-Policing die Unschuldsvermutung ersetzt. „Sicherheitsbehörden bauen derzeit solche Systeme aus, ungeachtet der juristischen Grenzen und gesellschaftlichen Folgen für die Demokratie und individuelle Freiheiten.“
Der C3D2 warnt insbesondere vor der Einführung einer Plattform zur automatischen Datenanalyse. Diese sei „moderne Rasterfahndung mit Vorhersagefunktion“, so die Sprecherin weiter. „Ob es Palantir wird oder eine andere vergleichbare Lösung, ist letztendlich egal. Solche Systeme funktionieren in der Regel nur, wenn sie an möglichst viele Sensoren und Datenbanken angeschlossen sind“, heißt es in der Mitteilung. Die Einführung einer solchen Software öffne die Büchse der Pandora.
„Der Chaos Computer Club sieht die Novelle des Sächsischen Polizeigesetzes als einen erneuten Angriff auf die informationelle Selbstbestimmung, die rechtsstaatlich gebotene Gewaltenteilung sowie als Gefahr für eine offene und demokratische Gesellschaft.“
Aus dem Landtag kommt die schärfste Reaktion von der Fraktion Bündnis 90/Die Grünen: „Der massive Einsatz von KI zu Überwachungszwecken, die intelligente Videoüberwachung und die Möglichkeit des Datenabgriffs aus dem Internet sind keine Lappalien, sondern schwerwiegende Eingriffe in die Bürgerrechte aller Menschen in Sachsen“, sagte der innenpolitische Sprecher der Grünen-Fraktion, Valentin Lippmann. Er wiederholte seine Kritik aus dem Herbst, wonach sich der Entwurf eher an chinesischen Überwachungsfantasien orientiere als an dem Grundgesetz.
Grüne und Linke scheiden als Mehrheitsbeschaffer aus
Die Linksfraktion äußerte sich in einer ersten Mitteilung zurückhaltender und verwies darauf, den aktuellen Entwurf noch nicht zu kennen. In der Vergangenheit hatte auch sie die geplanten Befugnisse für die automatisierte Datenanalyse, verdeckte Kennzeichenerkennung und biometrische Suche im Internet zurückgewiesen.
Aufgrund der Mehrheitsverhältnisse im Landtag und die klare Ablehnung der Grünen ist die Position der Linken für die Staatsregierung aber nicht entscheidend. Der schwarz-roten Minderheitskoalition fehlen zehn Stimmen. AfD (40) und Bündnis Sahra Wagenknecht (15) können den Entwurf durch ihre alleinige Zustimmung über die Ziellinie bringen, Grüne (7) und Linke (6) müssten hingegen gemeinsam mit der Minderheitskoalition votieren.
AfD nicht konstruktiv, BSW sieht noch Änderungsbedarf
Eine Zusammenarbeit mit der AfD haben CDU und SPD in ihrem Koalitionsvertrag ausgeschlossen. Die AfD hat keine Stellungnahme im Konsultationsprozess abgegeben. Als einzig verbleibende Option bleibt der Koalition damit das BSW.
Dessen innenpolitischer Sprecher Bernd Rudolph kündigte Anpassungen im parlamentarischen Verfahren an. Besonders bei den Themen automatisierte Datenanalyse, Training von KI-Systemen mit Polizeidaten und Tasern sieht die BSW-Fraktion noch Änderungsbedarf. „Der vorliegende Gesetz-Entwurf enthält sinnvolle Modernisierungen, aber auch gefährliche Überdehnungen.“ Man wolle ein Polizeigesetz, das wirksam schützt, aber nicht überwacht.
Die Uhr tickt
Viel Zeit für Änderungen im Parlament bleibt indes nicht mehr. Wegen eines Urteils des Verfassungsgerichtshofs laufen einige Polizeibefugnisse aus dem aktuellen sächsischen Polizeigesetz bald aus. Grüne und Linke hatten gegen das Gesetz geklagt, der sächsische Verfassungsgerichtshof gab ihnen in Teilen recht und setzte für manche Polizeibefugnisse eine Frist: Bis zum 30. Juni braucht es eine neue Regelung, sonst laufen sie aus.
Den Fraktionen verbleiben damit noch gut vier Monate für den gesamten parlamentarischen Prozess.
Grüne und Linke kritisieren die Regierung für den engen Zeitplan. Selbst Innenminister Schuster räumt ein, dass der Landtag „jetzt nicht komfortabel“, aber ausreichend Zeit habe. Man habe das durchgerechnet, versicherte Schuster.
Geplant ist, das Gesetz am 24. Juni im Plenum zu beschließen. Damit das alles zeitlich klappt, wurde eine Sondersitzung des Innenausschusses angesetzt. Bereits am 27. März steht die Sachverständigenanhörung im Landtag an.
Datenschutz & Sicherheit
Kommentar: KI-Müll treibt curls Bug-Bounty-Programm vor sich her
Maintainer Daniel Stenberg schiebt die Bug-Meldestelle für curl zurück zu HackerOne, von wo er sie erst im Januar abgezogen hatte. Sein unprofessionell wirkender Schlingerkurs spiegelt in Wirklichkeit nur die Unsicherheit wider, die derzeit die Open-Source-Szene bedrückt: Wie soll sie mit dem KI-Müll umgehen, der durch das Vibe-Coding über sie hereinbricht? Eine schnelle Lösung dafür scheint nicht in Sicht.
Weiterlesen nach der Anzeige

Wolf Hosbach ist Redakteur bei der iX. Sein Themengebiet ist die Softwareentwicklung.
Jedes Open-Source-Projekt freut sich über Meldungen von Bugs, gerade im Sicherheitsbereich. Als Meldestelle dient gerne HackerOne, wo die Projektverantwortlichen oft Belohnungen ausloben, um den Anreiz zur Fehlersuche zu erhöhen. Das führt jedoch im Zeitalter von Vibe-Coding zu massenhaft eingereichten, meist wertlosen Beiträgen, die den Maintainern letztlich nur die Zeit rauben, statt ihre Projekte voranzubringen oder abzusichern. Für Stenberg war das im Januar ausschlaggebend dafür, das Bug-Bounty-Programm der Belohnungen zu stoppen und mit dem curl-Reporting zu GitHub zu wechseln.
Entschuldigung für das Hin und Her
Den Rückzug vom Rückzug begründet Stenberg jetzt mit mangelnden Funktionen für das Management von Bug-Meldungen: GitHub sendet Berichte beispielsweise unverschlüsselt per Mail, obwohl die Daten manchmal Secrets enthalten. Außerdem ist es dem Sicherheitsteam nicht möglich, wertlose Meldungen einfach zu löschen. Viele Maintainer kritisieren genau das: Sie können wertlose, zunehmend massenhaft auftretende KI-Pull-Requests nicht schnell löschen. Allerdings ist GitHub inzwischen auf das Problem des KI-Slops eingegangen – obwohl der Besitzer Microsoft mit dem Copilot einer der hauptsächlichen KI-Treiber ist. Das Löschen der lästigen Pull-Requests soll bald möglich sein.
Stenberg gesteht selbst ein: „Dieses Hin und Her ist bedauerlich, aber wir tun es mit den besten Vorsätzen.“ Man kann ihm sicher nicht vorwerfen, nicht alles zu tun, um die beste Lösung zu suchen – aber vielleicht hat er etwas zu voreilig gehandelt, ohne zuvor die neue Plattform genauer zu prüfen. Aus seinem Ärger über den KI-Slop hat er jedenfalls nie einen Hehl gemacht. Insofern war seine erste Entscheidung sicher emotional – spiegelt aber die Unsicherheit wider, die in der Open-Source-Szene gerade herrscht: Wie soll man der vielen, belastenden KI-Beiträge Herr werden, ohne die wirklich wertvollen Eingaben zu verlieren?
Einen Königsweg hierfür scheint es derzeit nicht zu geben. Gerade das zeigt curls Hin und Her sehr deutlich. Das Bug-Bounty-Programm wird es für curl auf HackerOne künftig nicht mehr geben. „Geld für Belohnungen ist noch weg, es gibt kein Bug-Bounty, kein Geld für Schwachstellenberichte“. Der „inflow tsunami“ jedenfalls ist laut Stenberg derzeit ausgetrocknet, aber er befürchtet seine Wiederkehr: „Indem wir zu HackerOne zurückkehren, öffnen wir ihnen vielleicht wieder die Türen? Wir müssen einfach abwarten, was passiert.“
Weiterlesen nach der Anzeige
(who)
Datenschutz & Sicherheit
Betrug über Telegram steigt um 233 Prozent – Fake-Jobs sind das größte Problem
Die Neobank Revolut meldet einen sprunghaften Anstieg von Betrugsfällen, die über Telegram starten. Ein Bericht, der anonymisierte Daten aus dem Jahr 2025 analysiert, zeigt eine Verlagerung krimineller Aktivitäten: weg von klassischen sozialen Netzwerken, hin zu verschlüsselten Messaging-Apps. Telegram entwickelt sich dabei zur am schnellsten wachsenden Quelle für autorisierten Zahlungsbetrug.
Weiterlesen nach der Anzeige
Meta-Plattformen wie Facebook, WhatsApp und Instagram sind weiterhin für 44 Prozent der weltweiten Betrugsfälle verantwortlich. Doch die Fälle, die auf Telegram ihren Ursprung haben, stiegen um 233 Prozent.
Sogenannte „autorisierte Betrugsfälle“ machen insgesamt 40 Prozent aller Fälle aus. Dabei manipulieren Betrüger ihre Opfer mit psychologischen Tricks, um sie zu Geldüberweisungen oder vermeintlichen Investitionen zu bewegen. Der durchschnittliche Verlust pro Opfer liegt bei autorisiertem Betrug 13-mal höher als bei Fällen, in denen Kriminelle Kontodaten ausspähen und direkt auf das Konto zugreifen.
Job-Scams auf dem Vormarsch
Laut Revolut entfällt bereits ein Fünftel der weltweiten Betrugsfälle auf Telegram. In Deutschland starten 62 Prozent aller Job-Scams über die Plattform.
Die Zahl der Betrugsfälle mit gefälschten Jobangeboten hat sich im Vergleich zum Vorjahr mehr als verdoppelt. Sie machen nun 22 Prozent der Fälle aus und liegen damit hinter Kaufbetrug (57 Prozent), also gefälschten Angeboten für Produkte oder Dienstleistungen, aber vor Investment-Scams (10 Prozent). Betrüger nutzen zunehmend KI, um überzeugendere Nachrichten zu verfassen, und setzen verstärkt auf Deepfake-ähnliche Taktiken.
Die Erkenntnisse von Revolut stimmen mit Warnungen der Finanzaufsicht Bafin und des Bundeskriminalamts überein. So warnt etwa die Bafin regelmäßig vor Anlagebetrug in Whatsapp- und Telegram-Gruppen, in denen vermeintliche „Experten“ zu Investments oder Krypto-Anlagen verleiten.
Weiterlesen nach der Anzeige
Social-Media-Plattformen in der Pflicht
Revolut nutzt die neuen Zahlen, um die Forderung zu bekräftigen, Social-Media-Plattformen stärker in die Abwehr und Haftung solcher Betrugsfälle einzubinden. Die Bank selbst hat zuletzt einen KI-gestützten Chatbot eingeführt, der Kunden vor dem Abschluss von Transaktionen vor möglichem Betrug warnt. Ein In-App-Banner zeigt zudem an, ob Nutzer mit Revolut oder einem Betrüger telefonieren.
Nicht nur Banken fordern von Social-Media-Konzernen mehr Engagement gegen Betrugsformen, die auf ihren Plattformen entstehen. Auch Prominente, deren Identitäten für Fake-Profile missbraucht werden, verlangen eine schnellere Erkennung und Löschung solcher Accounts. Der Druck auf Unternehmen wie Meta wächst zudem, weil Regulierungsbehörden und die EU-Kommission ihren Umgang mit Betrug genau beobachten.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(jle)
-
Künstliche Intelligenzvor 2 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Apps & Mobile Entwicklungvor 3 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Datenschutz & Sicherheitvor 3 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGame Over: JetBrains beendet Fleet und startet mit KI‑Plattform neu
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
