Connect with us

Datenschutz & Sicherheit

Vodafones Spam-Warner hat schon millionenfach angeschlagen


Ein Jahr nach seinem Start ist ein Vodafone-Schutzsystem gegen Betrugsanrufe massenhaft in Gebrauch. Es seien bereits 64,5 Millionen Warnungen an Mobiltelefone verschickt worden, teilte das Unternehmen in Düsseldorf mit.

Weiterlesen nach der Anzeige

Wer einen Anruf von einer Nummer bekommt, die in einer Vodafone-Datenbank als unseriös oder betrügerisch erfasst ist, bekommt auf seinem Display den Text „Vorsicht: Betrug möglich“ angezeigt. Drangehen kann man trotzdem, aber man ist vorgewarnt und lässt sich möglicherweise nicht so leicht abzocken wie ohne die Warnung. Die Telekom hat im vergangenen Dezember ein ähnliches System gestartet, O2 hat dies bislang nicht getan.

„Die Bedrohung im Netz und am Telefon ist ein ständiges Risiko“, sagt Vodafone-Deutschlandchef Marcel de Groot und zieht eine positive Zwischenbilanz des Spam-Warners. „Täglich schützen wir so hunderttausende Menschen vor gefährlichen Betrugsanrufen“, sagt der Manager. Es sei aber auch klar, dass keine Technologie uns davon befreie, umsichtig zu bleiben. „Deshalb gilt für uns alle im Alltag: Genau prüfen, wer am anderen Ende der Leitung ist.“

Nur 14 Prozent der Anrufe, bei denen die Spam-Warnungen verschickt werden, werden angenommen – das zeigt, dass das Warnsystem die Betrugsanrufe oft ins Leere laufen lässt. Zum Vergleich: Bei Anrufern mit unterdrückter Nummer liegt die Annahmequote bei 60 Prozent. Wird ein Anruf trotz Spam-Warner angenommen, so dauert das Telefonat im Schnitt nur 40 Sekunden.

Der Gesamtschnitt aller Mobiltelefonate bei Vodafone liegt bei zwei Minuten und 40 Sekunden. 83 Prozent der potenziellen Betrugsanrufe kommen den Angaben zufolge aus Deutschland, bei den restlichen Anrufen aus dem Ausland sind es häufig Nummern aus den Niederlanden, Österreich und Großbritannien. Auch Zypern und das afrikanische Lesotho sind unter den Nummern oft vertreten. Seit Dezember hat die Anzahl der potenziellen Betrugsanrufe etwas abgenommen.

Weiterlesen nach der Anzeige

Vodafone zufolge gehen die meisten Betrugsanrufe mittwochs ein, an diesem Wochentag schlug der Spam-Warner im Schnitt 273.000 Mal an, und die wenigsten sonntags (5000). Auch samstags war wenig los (44.000).

Bei der Telekom werden pro Werktag zwischen 400.000 und 600.000 mögliche Betrugsversuche festgestellt, der Bonner Konzern nennt sein Schutzsystem Call Check. Auch bei Magenta kommen am Wochenende weniger dubiose Anrufe an. „Betrug ist ein Geschäftsmodell, und die Täter haben feste Arbeitszeiten, während sie es an Sonn- und Feiertagen locker angehen lassen“, sagt ein Telekom-Sprecher. Hinzu komme, dass die Täter zeitgleich mit ihren Opfern Ferien zu machen schienen: Weihnachten und Ostern seien in der Statistik Dellen zu erkennen.

Der Vodafone-Sicherheitsexperte Marc Atkins warnt, dass sich die digitale Bedrohungslage weiterentwickele. „Kriminelle setzen Deepfakes und Künstliche Intelligenz ein, um am Telefon Stimmen nachzuahmen und das Vertrauen ihrer Gesprächspartner zu gewinnen.“ Telefonbetrug sei dadurch professioneller und schwerer zu erkennen. Besonders ältere Menschen seien gefährdet.


(afl)



Source link

Datenschutz & Sicherheit

Trilog-Verhandlungen über gelockerte KI-Regeln gescheitert


Die EU-Institutionen können sich weiter nicht auf eine abgeschwächte Fassung der KI-Verordnung einigen. Medienberichten zufolge sind gut zwölfstündige Trilog-Verhandlungen zwischen dem Europäischen Parlament, dem Rat und der Kommission am Dienstag gescheitert.

Ein zentraler Streitpunkt war offenbar eine vorgeschlagene Ausnahme für risikoreiche KI-Systeme in der Industrie, wie Table Media [€] berichtet. Das Parlament hatte demzufolge vorgeschlagen, die sektorspezifischen Regelungen zu ändern: Industriemaschinen sollten demnach aus der Hochrisiko‑Kategorie herausfallen. Entscheidend für eine Einstufung als Hochrisiko sollte stattdessen die tatsächliche Sicherheitsfunktion der KI werden. Rat und Parlament sind sich in dieser Frage jedoch uneins.

Gestritten wurde dem Bericht zufolge zudem über ein Verbot sogenannte „Nudifier“-Anwendungen. Das sind generative KI‑Systeme, die Menschen auf Foto- oder Videomaterial entkleiden können. Das Parlament möchte nicht‑einvernehmliche intime Inhalte verhindern, es konnte jedoch keine Einigung darüber erzielt werden, welche Körperteile darunterfallen.

Das kritisiert unter anderem Eva Lejla Podgoršek, Senior Policy Managerin bei AlgorithmWatch. Es sei wichtig, „dass die wenigen guten Vorschläge nicht unter die Räder geraten.“ Das geplante Verbot von KI-Systemen, die nicht einvernehmliche sexualisierende Deepfakes ermöglichen, sei ein wichtiger Baustein, um Betroffene wirksam zu schützen.

Wenn drei sich streiten, freut sich niemand

Die Anpassungen der bereits im August 2024 in Kraft getretenen KI-Verordnung sollen im Rahmen des sogenannten Digitalen Omnibus erfolgen. Mit dem von der EU-Kommission vorgeschlagenen Gesetzespaket sollen Vorschriften im digitalen Sektor vereinfacht werden, um bürokratische Hürden für Unternehmen abzubauen und Europas Wettbewerbsfähigkeit zu steigern. Das Paket ist jedoch umstritten. Es enthält auch Lockerungen der Datenschutzgrundverordnung, etwa beim Training von KI mit personenbezogenen Daten oder einer Neudefinition personenbezogener Daten.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Während die Verhandlungen über den Daten-Omnibus sich offenbar länger hinziehen, machten die Beratungen über den KI-Omnibus schnell Fortschritte. Die Zeit drängt: Zentrale Pflichten des AI Acts für besonders risikoreiche KI-Systeme werden ab dem 2. August 2026 wirksam. Diese Fristen sollen mit dem Omnibus aufgeschoben werden. Gestern sind die finalen Verhandlungen allerdings bereits zum zweiten Mal geplatzt.

Laut Table Briefings sieht die zypriotische Ratspräsidentschaft keine Schuld bei sich: „Wir sind mit einer sehr konstruktiven Haltung in die heutige Sitzung gegangen und haben konkrete Vorschläge zur Lösungsfindung unterbreitet“. Man habe während der Verhandlungen ein hohes Maß an Flexibilität gezeigt, aber keine Einigung mit dem Europäischen Parlament erzielen können. Das Ziel der Vereinfachung werde jedoch weiterhin verfolgt.

Stimmen aus dem Parlament sehen dies anders. Es sei „inakzeptabel, dass die Ratspräsidentschaft nicht bereit war, einen substanziellen Kompromiss zu machen, um die Überregulierung von KI zu beenden“, sagte die Europaabgeordnete Svenja Hahn (FDP). Michael McNamara (parteilos), Verhandlungsführer für das EU-Parlament, räumte in einem Interview mit Tech Policy Press jedoch selbst ein, dass die vorgeschlagene Verlagerung in sektorale Gesetze „eher zu Deregulierung als zu einer Vereinfachung führen könnte“.

Schwere Vorwürfe kommen von den Grünen im EU-Parlament, insbesondere gegenüber deutschen Konservativen, wie Euractiv berichtet. Sie werfen der Europäischen Volkspartei vor, das Omnibus-Gesetz bewusst zu verzögern und dabei auch die Hilfe von rechtsextremen Parteien im Parlament in Anspruch zu nehmen. Merz wolle noch weitergehende Lockerungen der KI-Regeln, als sie derzeit verhandelt würden. Das wiederholte Scheitern lassen der Verhandlungen sei ein Schachzug, um Zeit zu gewinnen und so die Positionen der EU-Mitgliedstaaten zu beeinflussen.



Source link

Weiterlesen

Datenschutz & Sicherheit

Auf den Punkt: Wandern geht auch mit Datenschutz.


Liebe Leser*innen, wer sich in der Natur verlieren will, wird dennoch geortet. Zahlreiche Navigations- und Wanderapps sammeln persönliche Daten. Und sie setzen auf Premium-Abos. Meine Kollegin Anna stellt Alternativen vor, die weder datenhungrig sind noch in die Irre führen. Dass gescheiterte Start-ups angehäufte Nutzungsdaten gerne mal fürs KI-Training verscherbeln, könnt ihr in unserem Ticker nachlesen. […]

Liebe Leser*innen,

wer sich in der Natur verlieren will, wird dennoch geortet. Zahlreiche Navigations- und Wanderapps sammeln persönliche Daten. Und sie setzen auf Premium-Abos. Meine Kollegin Anna stellt Alternativen vor, die weder datenhungrig sind noch in die Irre führen.

Dass gescheiterte Start-ups angehäufte Nutzungsdaten gerne mal fürs KI-Training verscherbeln, könnt ihr in unserem Ticker nachlesen.

Genießt das Summen und Brummen

Daniel


Die Arbeit von netzpolitik.org finanziert sich zu fast 100% aus den Spenden unserer Leser:innen.
Werde Teil dieser einzigartigen Community und unterstütze auch Du unseren gemeinwohlorientierten, werbe- und trackingfreien Journalismus jetzt mit einer Spende.



Source link

Weiterlesen

Datenschutz & Sicherheit

Digitale Rasterfahndung: Regierung stimmt für Biometrie-Abgleich und KI-Analysen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Bundeskabinett hat am Mittwoch ein Gesetzespaket auf den Weg gebracht, das die Befugnisse der Sicherheitsbehörden im digitalen Raum deutlich ausweitet. Unter der Federführung des Innen- und des Justizministeriums sollen das Bundeskriminalamt (BKA), die Bundespolizei sowie das Bundesamt für Migration und Flüchtlinge künftig Technologien wie Künstliche Intelligenz und automatisierte biometrische Abgleiche nutzen dürfen.

Weiterlesen nach der Anzeige

Damit will die Regierung auf die technologische Entwicklung reagieren. Bisher mussten Beamte soziale Netzwerke oft händisch nach Fotos von Tatverdächtigen durchsuchen. Ein mühsamer Prozess, der nun durch Automatisierung ersetzt werden soll.

Im Zentrum der Neuregelungen der drei Entwürfe, die auf umstrittenen Referentenvorlagen der führenden Ressorts aufbauen, stehen Änderungen an der Strafprozessordnung. Der neue Paragraf 98d StPO soll die Basis für einen automatisierten biometrischen Online-Bildabgleich bieten. Erlaubt würde damit eine Rasterfahndung mit biometrischen Daten aus einem laufenden Verfahren und öffentlich zugänglichen Informationen im Internet. Ermittler könnten künftig Fotos von Verdächtigen automatisiert mit Bildern in sozialen Medien abgleichen, um Identität oder Aufenthaltsort festzustellen.

Die Regierung betont, dass kein Aufbau einer dauerhaften staatlichen Bilddatenbank erfolge und Echtzeit-Überwachungen über öffentliche Webcams ausgeschlossen bleibe. Experten halten diese Einschränkungen für eine Farce: Ein automatisierter Abgleich von Millionen Web-Bildern in Sekundenbruchteilen sei technisch unmöglich, ohne vorher eine strukturierte, durchsuchbare Datenbasis aller verfügbaren Gesichter anzulegen. Die Maßnahme ist an den Verdacht einer Straftat von „erheblicher Bedeutung“ geknüpft, was als dehnbar gilt. Sie bedarf nun einer richterlichen Anordnung, während zunächst eine Ansage eines Staatsanwalts hätte ausreichen sollen.

Zweiter Pfeiler der Reform ist die automatisierte Datenanalyse nach § 98e StPO. Dabei geht es darum, bisher isolierte Polizeidatenbanken miteinander zu vernetzen und mittels Analysesoftware zu durchleuchten, um Querverbindungen zwischen Verfahren schneller zu erkennen.

Justizministerin Stefanie Hubig (SPD) unterstrich: Es wäre fahrlässig, den Behörden solche Instrumente vorzuenthalten. Sie versicherte, dass Entscheidungen weiterhin von Menschen und nicht von KI-Systemen getroffen würden. IT-Systeme dürften künftig aber auch mit Echtdaten aus polizeilichen Beständen trainiert werden, um die Leistungsfähigkeit der Algorithmen zu steigern.

Weiterlesen nach der Anzeige

Ein Bündnis aus 14 zivilgesellschaftlichen Organisationen wie dem Chaos Computer Club (CCC) und AlgorithmWatch warnte vorab vor einem Paradigmenwechsel hin zur Massenüberwachung. Sie monierten, dass die neuen Befugnisse das Ende der Anonymität im öffentlichen Raum bedeuten könnten. Besonders die Möglichkeit, biometrische Scans im gesamten Internet durchzuführen, wäre ein massiver Grundrechtseingriff. Die Kritiker weisen darauf hin, dass Ermittler Dienste wie Clearview AI oder PimEyes nutzen dürften, was die staatliche Kontrolle über sensible Daten gefährde.

Konstantin von Notz, Vizefraktionschef der Grünen, sieht den Rechtsstaat in Gefahr: Die geplanten Instrumente beträfen „keineswegs nur Personen im direkten Fokus von Sicherheitsbehörden, sondern potenziell alle, auch gänzlich unbescholtene Bürger“. Er wirft dem Innenministerium vor, den Schutz der Bürger zu vernachlässigen, und stellt die Verfassungsmäßigkeit der Entwürfe infrage. Besonders der Versuch, europäische Bürgerrechte durch die Auslagerung von Datenabgleichen ins Ausland zu umgehen, sei ein heikles Manöver.

Verknüpft mit der Chiffre der automatisierten Datenanalyse ist die Sorge vor einem Lex Palantir. Die Zivilgesellschaft bemängelt, dass die Gesetze die rechtlichen Voraussetzungen für den Einsatz dieser Software schaffen, was zu einer technologischen Abhängigkeit von einem US-Konzern mit „demokratiefeindlicher Agenda“ führe. Von Notz nennt den potenziellen Einsatz von Palantir „maximal fahrlässig“. Statt die föderalen IT-Systeme der Polizei zu modernisieren, würden Rückstände mit intransparenten Algorithmen übertüncht.

Bürgerrechtler halten die Maßnahmen auch für unvereinbar mit der KI-Verordnung der EU, die biometrische Fernidentifizierung streng reglementiert. Es dürfe nicht sein, dass jedes Selfie im Netz potenziell zum Futter für die Analysesoftware der Sicherheitsbehörden wird. Das Paket, gegen das eine Petition mit bereits über 140.000 Unterschriften läuft, wandert nun in Bundestag und Bundesrat.


(dahe)



Source link

Weiterlesen

Beliebt