Connect with us

Datenschutz & Sicherheit

Degitalisierung: Das ruhmreiche Zaunweißen



Es war einmal ein Junge, der hatte etwas ausgefressen, und als Strafe dafür wies ihm seine Tante eine besonders harte Strafe zu: Samstags, wenn die anderen Jungs im Fluss schwimmen durften, sollte er den riesigen Zaun vor dem Haus seiner Tante Polly streichen. Er hat eben missmutig mit der Arbeit begonnen, als sein Kumpel Ben vorbeikommt. Der verspottet ihn wegen der mühseligen Arbeit. Doch unser Junge ist schlau: „Das macht doch keine Mühe, das ist der reine Spaß! Wann kann man schon mal ganz allein solch einen großen Zaun streichen?!“

Da staunt Ben – denn Spaß will jeder haben. Statt Plackerei die reine Freude? Ben bettelt geradezu, mitmachen zu dürfen. Er zahlt sogar dafür. Einen saftigen Apfel. Und er streicht wie ein Verrückter, während unser Held im Schatten liegt. Nach und nach kommen noch mehr Willige, und sie alle geben einiges dafür, den Zaun Tante Pollys streichen zu dürfen. Abends ist unser Freund reich – seine Taschen sind voller kleiner Schätze.

Dieser Einstieg für die heutige Degitalisierung ist ein abgewandeltes Zitat eines Essays von Wolf Lotter aus einer Brand Eins von 2007 mit dem Titel Elementarteilchen [€]. Damals ging es um die Beschreibung der Funktionsweise des Web 2.0. User würden mehr oder weniger freiwillig sogar dafür bezahlen, die Arbeit anderer Leute machen zu dürfen.

Lotter greift einen Vorgang auf, den Mark Twain „Das ruhmreiche Zaunweißen“ nannte, ein lehrreiches Stück aus seinem Romanepos „Tom Sawyer“. Das war 1876. Heute ist 2026, und diesen Prozess, an dem sich im Wesentlichen nichts geändert hat, nennt man Künstliche Intelligenz.

Im Zeitalter der sogenannten Künstlichen Intelligenz ist das aber alles viel besser, oder? Agentische KI macht ja jetzt die Arbeit und wir können die Füße hochlegen, oder? Natürlich nicht. Die Genese heutiger Systeme künstlicher Intelligenz ist leider wieder nur eine andere Art des ruhmreichen Zaunweißens. Immer wieder. In dieser Episode geht es mehr oder weniger um die Schaffung eines Mythos – oder um den Mythos um Anthropics Mythos aus Anlass aktueller Ereignisse.

Militär und Maven

Die Ereignisse, bei denen Menschen freudig und freiwillig die eigentliche Arbeit anderer machen, beginnen im Kontext Anthropic im Januar 2026 mit einem Streit zwischen Anthropic und dem amerikanischen Verteidigungsministerium. Dem vorausgegangen war eine vertragliche Vereinbarung von Googles Gemini für eine neue militärische KI-Plattform mit dem Titel GenAI.mil im Dezember 2025. Im Januar kam es dann zum Bruch von Anthropic und dem Pentagon, wegen der Weigerung Anthropics, seine Technologien für autonome Waffen oder Massenüberwachung freizugeben. Anthropics Technologien wurden dann zum Lieferkettenrisiko seitens des Pentagons erklärt und OpenAI sprang in die Bresche als neuer Technologielieferant.

Das erste ruhmreiche Zaunstreichen im Sinne Anthropics begann dann in der Folge dieser Ereignisse. Abos von OpenAIs ChatGPT wurden massenhaft gekündigt – Hashtag Cancel ChatGPT – und die Öffentlichkeit und Medien schwangen gleich freudig die Pinsel am Zaun mit. Man müsse jetzt gleich Abos bei OpenAI kündigen, forderte etwa der Guardian. Viele ehemalige OpenAI-Kund*innen wanderten ab zu Anthropic.

Das ist am Ende aber leider nur scheinheiliges Zaunstreichen für ein weiteres Big-Tech-Unternehmen, das nur auf eine andere Art problematisch ist. Kriegsführung ist inzwischen an vielen Fronten von KI-Technologie durchzogen, sei es in Gaza, in der Ukraine oder jetzt im Iran. Die Markierung und Auswahl von militärischen Zielen hat sich durch KI stark beschleunigt, es werden mehr Ziele schneller angegriffen und die Kollateralschäden in der Zivilbevölkerung nehmen damit eher zu.

Anthropic für Verantwortungsbewusstsein zu feiern beim Aufzeigen von Grenzen für die militärische Nutzung ist also etwas arg einfältig. Die militärische Initiative des Pentagons namens Maven, die KI mehr und mehr in militärische Operationen einbinden wird, basiert zwar im Kern auf Software von Palantir – Palantir hat aber Schwierigkeiten, Technologie von Anthropic nach dem Disput mit dem Pentagon wieder aus Maven zu entfernen. Weil Anthropics Claude eben schon sehr lange tief mit militärischen Anwendungsfällen verwoben ist und aktiv genutzt wird, etwa wohl auch bei der US-Militäroperation zur Festnahme des venezolanischen Präsidenten Nicolás Maduro.

Kein amerikanisches Big-Tech-Unternehmen kann also wegen seines Pazifismus gefeiert werden. Sie sind alle ähnlich tief in den Bereich des Militärs oder der Geheimdienste verstrickt, behaupten nur mehr oder weniger lautstark, zu den Guten zu gehören. Öffentlichkeit und Medien haben Anthropic aber aktiv geholfen, den eigenen Zaun weiß zu streichen beziehungsweise sich eine weiße Weste nach außen hin zu geben.

Mythos und Marketing

Inmitten dieser Melange aus Hype und verzerrter Außendarstellung kommt nun ein Mythos um ein neues KI-Modell namens Mythos. Das ist im Wesentlichen erst einmal im Kern ein neues Large-Language-Modell, wie so häufig, besser in diversen synthetischen Benchmarks. Aber besonders viel besser in der Fähigkeit, Sicherheitslücken in Software zu finden. Oder um es mit den Worten von Anthropic zu sagen: „strikingly capable at computer security tasks“.

Das Bemerkenswerte ist jetzt, ohne auf die eigentlichen Fähigkeiten eingehen zu müssen, der Hype um diese Ankündigung. IT-Security ist normalerweise ein Feld, in dem es eine konstante Bedrohungslage mit diversen Sicherheitsrisiken gibt, die im täglichen Arbeiten so negativ aufstoßen können. Datenleaks, DDoS-Angriffe, Zero-Day-Exploits, kann alles täglich passieren.

Daher ist es oftmals sinnvoll, nicht in Alarmismus zu verfallen, weil das Bedrohungen nicht weniger bedrohlich macht, sondern eher den Blick auf das Wesentliche verstellt und passende Gegenhandlungen wegen Hektik und Anspannung verlangsamt. Die Kommunikation um Mythos wird aber selbst zu einer Art Mythos erhoben. Da ist dieses mythische neue Sprachmodell, das ab morgen alle Computersysteme unsicher macht – überspitzt gesagt, aber nicht weit entfernt von der medialen Darstellung.

Claudia Plattner, Präsidentin des Bundesamtes für Sicherheit in der Informationstechnik, ließ sich zu einem Endorsement unter öffentlicher Nennung eines noch nicht neutral geprüftem Produkts eines kommerziellen, ausländischen Herstellers hinreißen, das für eine ansonsten eher um Neutralität bemühte Bundesbehörde doch eher selten ist: Das BSI nehme die Ankündigungen von Anthropic sehr ernst und erwarte „Umwälzungen im Umgang mit Sicherheitslücken und in der Schwachstellenlandschaft insgesamt“. Selbst wenn es so ist, tut das Feld der Informationssicherheit auch hier gut daran, nicht wieder den Zaun für andere zu weißen.

Die Kommunikation um die Security-Fähigkeiten von Mythos ist eher Doomsday-Marketing [€] und führt vor allem bei vielen für die IT-Sicherheit Verantwortlichen zum Kampf gegen FUD – Fear, Uncertainty und Doubt sowie eben Untergangsszenarien. Eigentlich gibt es schon länger entsprechend fähige KI-Modelle, die Lücken wie die von Mythos bisher wohl finden können, eventuell nur mit einem etwas spezifischeren Kontext und einem engeren Scope der automatisierten Analyse.

Und nicht jede der von Anthropic präsentierten Lücken ist gleich ein Riesenproblem, wie etwa Red Hat für den Linux-Kernel erklären muss. Die reißerische und mythische Kommunikation von Anthropic selbst blockiert also erst einmal Kapazitäten bei IT-Security-Expert*innen, die wesentlich besser im Absichern von Software und Prozessen zur Absicherung gebraucht werden können. Aber viele Medien pinseln lieber weiter am Zaun mit.

Gesetzt den Fall, der Hype um Mythos ist, sagen wir mal, auch nur zu einem Zehntel berechtigt, dann ist doch die Frage angebracht, wie wir mit der Situation umgehen sollten, damit kein globales IT-Sicherheitsdesaster droht. Auch hier geht vieles leider in Richtung Zaunweißen, weniger in eine faire Kooperation zur Verbesserung der IT-Sicherheit. Dieser Aspekt ist weniger in Technologie begründet, sondern eher in der soziologischen Wirkung von KI auf IT-Security und Programmierung.

Glasswing und Hollowing

Als besonders – aus Eigensicht – verantwortungsbewusstes KI-Unternehmen geht Anthropic mit Mythos ja sorgsam um. Mythos wird aus Sicherheitsgründen erst einmal nicht öffentlich zur Verfügung gestellt. Mit Project Glasswing wolle man Unternehmen und wichtigen Open-Source-Maintainern dabei helfen, durch geregelten Zugang auf Mythos-Systeme durch automatisierte Analysen auf Lücken prüfen und diese somit besser absichern zu können. Auffällig ist bei der Auswahl der Unternehmen ein gewisser Hang zu „America First“, da es sich hauptsächlich um Unternehmen mit Hauptsitz in den USA handelt wie Apple, Google, Nvidia, Broadcom und Microsoft. Indirekt findet hier durch eine Vorauswahl eines Privatunternehmens und der Regierung in den USA ja auch eine gewisse geopolitische Vorentscheidung statt. Sichere Software gibt es in Zukunft auch „America First“?

Wenn Erkenntnisse aus Glasswing auf eine Open-Source-Community treffen, ist aber nicht unbedingt mit Freudenschreien zu rechnen. Der gesamte KI-Hype in der Softwareentwicklung hat vielen Open-Source-Maintainern eher offensiv in die Fresse geschlagen, um das deutlich zu sagen.

Da ist zum Beispiel ein Stellenabbau von 75 Prozent bei dem Start-up hinter dem CSS-Framework Tailwind, auch wegen immer mehr Sprachmodellen, die bisher auskömmliche Zusatzangebote wie Servicedienstleistungen oder Premium-Abos zu Tailwind immer uninteressanter machen. Bug-Bounty-Programme, die kleine finanzielle Belohnungen für gemeldete Sicherheitslücken zahlen, müssen schließen wegen zu viel AI Slop, also schlechten oder sinnfreien Beiträgen. Beispiele dafür sind etwa das Schließen des Internet Bug Bounty oder des Bug-Bounty-Programms hinter curl, dort als Versuch, das „Terror Reporting“ einzudämmen. Dazu musste das größte Code-Repository der Welt, GitHub, jüngst eingestehen, dass die KI-Welle eine Art „Eternal September“ eingeläutet habe, also einer Menge neuer, aber eher ungeeigneter Beiträge auf der Plattform – nicht zuletzt durch die durch GitHub selbst bereitgestellten KI-Assistenten wie GitHub Copilot.

Dazu werden Open-Source-Lizenzen, im Open-Source-Bereich eine oftmals fast schon unantastbare Vereinbarung von Nutzungsbedingungen, aktiv durch sogenannte „Clean Room“-Neuentwicklungen wie bei chardet unterwandert.

Programmier*innen hingegen beginnen im Job durch wachsenden KI-Einsatz immer mehr auszubrennen, wie sich etwa auf Plattformen wie Reddit zunehmend kundtut. Im Arbeitsmarkt, etwa in der Schweiz, deutet sich bei Software-Entwickler*innen eine steigende Arbeitslosigkeit in bestimmten Altersgruppen an. Programmieren als Job durchläuft eine Phase des Hollowing-out – speziell wegen KI.

Genau in diese schwierige Phase, insbesondere für Open-Source-Maintainer, kommt nun also ein gehyptes Modell, das Hunderte neue Sicherheitslücken androht, die unbedingt ganz schnell gepatcht werden müssen. Sicherheit von Open-Source-Projekten ist schon immer eine undankbare Aufgabe, wie auch die in Project Glasswing eingebundene Linux Foundation schreibt. Soll nun dafür irgendwer dankbar sein, wenn eine Technologie erst die Grundlagen der etablierten Zusammenarbeit angreift und dann auch noch eine Flut von neuer Arbeit beschert?

Das ist in etwa so, als würde Tante Pollys Zaun von Tausenden Freiwilligen überrannt werden, die wild durcheinander versuchen, den Zaun zu weißen. Mit der Entspannung und dem Spaß wäre es dann auch für Tom Sawyer vorbei.

Mögliche Verbesserungen durch von KI generierte Patches sind eher schwierig an Open-Source-Maintainer heranzutragen, solange KI-Unternehmen nicht glaubwürdig mit der Open-Source-Community und deren Werten und Zielen übereinkommen. Bisher ist das gehörig gescheitert.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Dennoch stellt sich Anthropic selbst als besonders verantwortungsbewusstes Unternehmen dar, in etwa so, wie OpenAI das schon seit Jahren immer wieder tut.

Milliarden und Verantwortung

OpenAI hat immer wieder in seiner Geschichte die PR-Strategie verfolgt, wie Anthropic es jetzt tut, und auf die Gefahren seiner neuen Produkte selbst hingewiesen – allerdings oft, um selbst einen Mythos um seine Produkte zu erzeugen.

Bei OpenAI war das beim Modell zum Klonen von Stimmen namens Voice Engine schon 2024 der Fall. Zu gefährlich, um es auf den Markt zu bringen, so die Eigenaussage.

Auch 2019 wurde der Release von GPT-2 von OpenAI mit einer „zu gefährlich“-PR-Strategie begleitet. Bemerkenswert ist dabei aus heutiger Zeit weniger das Kommunikationsmuster, sondern das, was im Juni 2019 im Repräsentantenhaus in einem Ausschuss anlässlich der Gefahr von Fake Media und KI von OpenAI-Vertretern zu den Akten gegeben wurde. Auch damals gab es bereits „staged releases“ in Form von kleineren Modellen, denen dann schrittweise größere Modelle folgten. Die Herangehensweise von Anthropic bei Mythos ist also nicht neu.

Interessant ist aber das damalige Eingeständnis, dass es schwer werden dürfte, KI-Technologie kontrollieren zu können.

In Bezug auf Stimm-Klon-Software etwa stellte OpenAI fest:

Viele der Kontrollmöglichkeiten sind weniger technischer Natur, im Gegensatz zu den Systemen, die die Technologie umgeben. (Eine Möglichkeit, sich zum Beispiel gegen Menschen zu schützen, die bei Telemarketing-Betrug KI-synthetisierte Stimmen einsetzen, besteht darin, es Kriminellen einfach schwerer zu machen, Telefonnummern zu fälschen.)

Stimmsynthesierungssoftware können wir natürlich voll funktionsfähig entwickeln, wir können sie jedoch nicht kontrollieren. Aber vielleicht löst mein Problem ja die Telefongesellschaft? – Wie sehr kann man sich aus der Verantwortung stehlen wollen?

Eigentlich sind aus Sicht von KI-Unternehmen die Kontrollmöglichkeiten somit gar nicht innerhalb der Technologie möglich, die sie mit viel Aufwand erschaffen, also vor allem mit viel, viel Geld. Das ist alles nicht möglich trotz in der Genese von KI bereitwillig ignorierten Problemen, die einer Art von Kontrolle unterliegen hätten können, wie etwa digitalem Kolonialismus, immensem Ressourcen- und Energieverbrauch, hoher Machtkonzentration, ungehemmter Datenkonsum, Wegbereitung des Faschismus, Plagiarismus und Desinformation. Alles Probleme, die bei der Schaffung von KI-Technologie ja bislang schweigend akzeptiert oder sogar erst geschaffen wurden. Alles nicht kontrollierbar? Falls aber mal jemand auf nur eines oder zwei dieser Probleme hinweist, wie etwa die Nutzung urheberrechtlich geschützter Inhalte im Falle der britischen Regierung, ist das dann alles zu teuer.

Das Grundproblem bislang jeglicher Technologie auf Basis von KI ist es immer wieder gewesen, die Technologie und die damit verbundenen Macher*innen selbst als unschuldig zu sehen. CEOs von KI-Unternehmen wie Sam Altman von OpenAI oder Dario Amodei von Anthropic tragen die Verantwortung für Multi-Milliarden-Unternehmen, scheren sich aber einen feuchten Kehricht um die Wirkung ihrer Technologien. Sie externalisieren ihre Probleme, internalisieren aber den Gewinn.

Jegliches Commitment zu „Sicherheit“ und „Verantwortung“ ist nicht mehr als ein PR-Stunt, bei dem viele Externe auch noch fleißig den Pinsel schwingen, um den Zaun zu weißen. Für Unternehmen, denen lange Jahre lang schon viel zu viel durchgehen gelassen wurde. Das ist bei Mythos nicht viel anders als bei all den vermeintlich guten, aber letztlich schädlichen „KI-Innovationen“ der Jahre zuvor.

Denn letztlich geht es KI-Unternehmen oft nur um ihr oftmals fragiles Ego. Wir sollten daher alle damit aufhören, ihnen auch noch freudig den Zaun zu weißen.



Source link

Datenschutz & Sicherheit

Angriffe auf sieben Sicherheitslücken beobachtet – eine ist 14 Jahre alt


Die US-amerikanische IT-Sicherheitsbehörde CISA warnt vor Angriffen auf sieben Sicherheitslücken in Produkten von Adobe, Fortinet und Microsoft. Eine der Schwachstellen kann bereits auf 14 Jahre Bekanntheit zurückblicken.

Weiterlesen nach der Anzeige

Die CISA nennt in ihrer Warnung wie üblich lediglich, auf welche Sicherheitslücken Angriffe beobachtet wurden. Die älteste der attackierten Lücken betrifft Microsofts Visual Basic, die auf einem unsicheren Suchpfad basiert – und bereits im Juli 2012 missbraucht wurde; sie rückte nun offenbar erneut ins Visier von Cyberkriminellen (CVE-2012-1854, CVSS2 6.9, Risiko „mittel“). Eine „Use-after-free“-Schwachstelle in Adobe Acrobat und Reader erlaubt Angreifern, Schadcode einzuschleusen und auszuführen. Darum hatte sich Adobe bereits im August 2020 gekümmert, jedoch fehlen die Updates auf manchem System (CVE-2020-9715, CVSS 7.8, Risiko „hoch“).

Microsofts Exchange-Server deserialisieren unter Umständen nicht vertrauenswürdige Daten, was Angreifer zum Ausführen von Schadcode missbrauchen – Microsoft nennt die Cybergang Storm-1175 als bösartige Akteure, die das Sicherheitsleck für Ransomware-Attacken ausnutzen (CVE-2023-21529, CVSS 8.8, Risiko „hoch“). Außerdem greifen Kriminelle eine Rechteausweitungslücke im Windows-Common-Log-File-System-Treiber an (CVE-2023-36424, CVSS 7.8, Risiko „hoch“).

Im vergangenen November hat Microsoft mit Updates eine Lücke geschlossen, bei der Links vor dem Dateizugriff im Host-Prozess für Windows-Tasks falsch aufgelöst werden konnten, was die Rechteausweitung ermöglicht (CVE-2025-60710, CVSS 7.8, Risiko „hoch“). Eine im Februar bekannt gewordene Schadcode-Lücke in FortiClient EMS erlaubt zudem, Rechner vollständig zu kompromittieren. Und das machen Angreifer der CISA zufolge jetzt (CVE-2026-21643, CVSS 9.8, Risiko „kritisch“). Zudem hat die CISA die zum Wochenende gemeldete Schwachstelle aufgenommen, für die Adobe am Samstag ein Notfallupdate veröffentlicht hat und die den Tätern erlaubt, beliebigen Code einzuschleusen und auszuführen (CVE-2026-34621, CVSS 8.6, Risiko „hoch“).

Admins sowie Nutzerinnen und Nutzer sollten nachsehen, ob sie noch die betroffene Software einsetzen und die verfügbaren Updates umgehend anwenden. Hinweise für erfolgreiche Angriffe (Indicators of Compromise, IOC) nennt die CISA nicht, sodass unklar ist, wie sie sich erkennen lassen.


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Rockstar Games: Kriminelle Gang veröffentlicht Daten


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Daten aus dem Cyberangriff auf Rockstar Games wurden veröffentlicht: Die kriminelle Cyberbande ShinyHunters hat den Datensatz unter dem Namen „shouldve_paid_the_ransom_rockstar_shinyhunters.7z“ auf ihrer Darknet-Webseite veröffentlicht – Rockstar Games hatte sich geweigert, die geforderte Lösegeldsumme zu zahlen.

Weiterlesen nach der Anzeige

ShinyHunters hat die Daten über Rockstars Snowflake-Instanzen mithilfe des Drittanbieter-Tools AnoDot erbeutet. Das Entwicklerstudio hat stets betont, dass bei dem Angriff keine Nutzerdaten kompromittiert wurden. Berichten zufolge handelt es sich bei den nun geleakten Daten vor allem um finanzielle Informationen. Sie sollen unter anderem zeigen, wie lukrativ „GTA Online“, der Mehrspieler-Ableger von „GTA 5“, ist. Das Spielemagazin Kotaku hat einige der Finanzzahlen gesammelt. Erkennbar ist unter anderem, dass Rockstar Games mit „GTA Online“ auf Konsolen deutlich mehr Umsätze generiert als auf dem PC – ein möglicher Grund dafür, dass derzeit keine PC-Fassung von „GTA 6“ angekündigt ist.

Zum jetzigen Zeitpunkt ist unklar, ob aus dem Datensatz noch sensiblere Informationen zu Rockstar Games und den Nutzern hervorgehen. Rockstar Games war bereits vor Jahren Opfer eines Cyberangriffs geworden, bei dem unter anderem frühes Gameplay-Material aus „GTA 6“ erbeutet und veröffentlicht wurde. Die Dateien stammten aus internen Slack-Chats von Rockstar Games.

ShinyHunters ist eine berüchtigte Bande, die allein in den vergangenen Monaten mehrere namhafte Webseiten und Betreiber angegriffen hat. Im Februar haben die kriminellen Täter etwa Daten von Nutzern des Verkaufsdienstleisters CarGurus veröffentlicht, nachdem Erpressungsversuche fruchtlos geblieben waren. Die veröffentlichten Daten sollen unter anderem mehr als 12 Millionen E-Mail-Adressen umfassen. Im vergangenen Dezember griff ShinyHunters Daten von einem Dienstleister von Pornhub ab.

Rockstar Games arbeitet weiterhin an „GTA 6“, das am 19. November auf den Markt kommen soll. Die „GTA“-Titel des Entwicklerstudios gehören traditionell zu den erfolgreichsten Videospielen überhaupt. Dem jüngsten Teil wird unter anderem zugetraut, Konsolenverkäufe anzukurbeln und damit Umsätze in der restlichen Spielebranche zu befeuern. Mit dieser hohen Erwartungshaltung kommt viel Aufmerksamkeit – nicht nur von Fans, sondern auch von Hackern.

Weiterlesen nach der Anzeige


(dahe)



Source link

Weiterlesen

Datenschutz & Sicherheit

KI-Betrug: Deutsche überschätzen ihre Fähigkeit, Deepfakes zu entlarven


Künstliche Intelligenz ist im Alltag der Bundesbürger angekommen, doch das Risikobewusstsein hinkt der technischen Entwicklung hinterher. Wie eine Sonderauswertung des Cybersicherheitsmonitors 2026 offenbart, klafft in der Bevölkerung eine große Lücke zwischen Selbsteinschätzung und tatsächlichen Kenntnissen. Zwar gibt fast die Hälfte der befragten Internetnutzer in Deutschland an, KI-generierte Inhalte als solche identifizieren zu können. Doch in der Praxis schauen nur die wenigsten genau hin.

Weiterlesen nach der Anzeige

KI-generierte Bilder und Videos sind laut den Ergebnissen der repräsentativen Umfrage im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik (BSI) und der polizeilichen Kriminalprävention (ProPK) unter mehr als 3000 Personen längst Normalität: Sieben von zehn Befragten sind online bereits solchen Inhalten begegnet. Bei den unter 30-Jährigen sind es sogar neun von zehn.

47 Prozent der Befragten trauen sich zu, die Fälschungen zu erkennen, Doch bei konkreten Überprüfungsmaßnahmen herrscht Zurückhaltung: Ein Drittel der Deutschen hat noch nie eine der gängigen Methoden zur Verifizierung genutzt. Lediglich 28 Prozent suchten gezielt nach grafischen Unstimmigkeiten wie fehlerhaften Schatten oder deformierten Gliedmaßen. Nur 19 Prozent kontrollierten die Verlässlichkeit der Quelle.

BSI-Präsidentin Claudia Plattner mahnt, für Verbraucher sei es inzwischen unerlässlich, KI-Inhalte zu identifizieren. Nur so könnten sie Risiken und Falschinformationen früh erkennen. Das BSI setze daher verstärkt auf Sensibilisierung und biete Orientierungshilfen an, um die Medienkompetenz im Umgang mit generativer KI zu stärken.

Der Bedarf dafür ist groß, denn viele technisch bereits machbare Betrugsszenarien werden von der breiten Masse noch als unmöglich eingestuft. So halten etwa nur 38 Prozent der Befragten die Manipulation eines KI-Agenten zur Preisgabe persönlicher Daten für realistisch. Auch die Gefahr durch unsichtbare, bösartige Anweisungen in Dokumenten, die KI-Sprachmodelle beim Zusammenfassen austricksen können, ist nur einer Minderheit bewusst.

Besonders perfide Formen nimmt der Betrug im Bereich der Geldanlagen an. Laut der ProPK- Vorsitzenden Stefanie Hinz ist Betrug rund um Online-Trading eine Straftat, die im Polizeialltag immer häufiger auftritt. Kriminelle nutzen KI dabei etwa für Deepfakes prominenter Persönlichkeiten, die in täuschend echten Videos für vermeintlich lukrative Kryptowährungen werben.

Weiterlesen nach der Anzeige

Die Statistik untermauert die Gefahr: 15 Prozent der Befragten haben in Kryptowährungen investiert. Von diesen ist fast jeder Dritte auf ein betrügerisches Angebot hereingefallen. In den meisten Fällen wurden die Opfer durch gezielte Werbung im Internet auf die Scams aufmerksam.

Das Vertrauen in staatliche Schutzmechanismen ist derweil hoch. Eine breite Mehrheit der Bevölkerung wünscht sich ein konsequentes Eingreifen der Behörden. Ganz oben auf der Wunschliste stehen ein schnelles polizeiliches Handeln bei betrügerischen Webseiten sowie eine verpflichtende Kennzeichnungspflicht für alle mit KI erstellten oder veränderten Inhalte.


(vbr)



Source link

Weiterlesen

Beliebt