Künstliche Intelligenz
Meta verdient Milliarden mit betrügerischer Werbung
Alleine im vergangenen Jahr soll Meta rund 16 Milliarden US-Dollar dank betrügerischer Werbung eingenommen haben. Meta widerspricht den Zahlen, über die Reuters berichtet. Aber selbst, wenn die Zahlen niedriger liegen – wir alle wissen um reichlich Scam und KI-Müll auf Facebook und Instagram, den wir jeden Tag selbst sehen und erleben können. Es wirkt erstaunlich, dass Metas automatisierte Systeme vieles davon nicht als Betrugsversuche erkennen können (wollen).
Weiterlesen nach der Anzeige
Reuters beruft sich auf interne Dokumente, die ihnen zugespielt worden seien. Es handelt sich um Prognosen für das Jahr 2024. Darin schätzt Meta, dass die verschiedenen Plattformen den Menschen insgesamt rund 15 Milliarden risikoreiche Anzeigen am Tag ausspielen würden. Risikoreich bedeutet, dass es sich um konkrete Betrugsversuche handelt, also Links zu Webseiten mit betrügerischen Absichten, um illegale Glücksspiel-Seiten sowie verbotene Produkte, die verkauft werden – etwa aus dem Bereich Gesundheit.
Ein echter Clou von Meta, wenn der Verdacht besteht, es könne sich um Betrug handeln, wird die Anzeige einfach zunächst teurer. Erst bei einer Betrugs-Wahrscheinlichkeit von mehr als 95 Prozent reagieren die Systeme und sperren die Anzeige.
Wie Meta Betrug und Scam bekämpft
Meta sagt, Reuters gebe eine „selektive Sichtweise“ wieder und verzerre das Vorgehen des Unternehmens gegen Betrug. Ein Sprecher widerspricht zwar nicht der Zahl aus dem vorliegenden Bericht, dass Meta geschätzt hat, rund zehn Prozent der Umsätze aus Betrügereien einzunehmen, aber er sagt auch, die Schätzung sei nur grob gewesen. Die tatsächlichen Einnahmen seien deutlich niedriger gewesen. „Wir bekämpfen Betrug und Scam aggressiv, weil die Nutzer unserer Plattformen solche Inhalte nicht wollen, seriöse Werbekunden sie nicht wollen und wir sie auch nicht wollen“, sagt der Sprecher. Auch das steht bereits ähnlich in dem Bericht, der Reuters vorliegt.
Allerdings fällt immer wieder auf, dass die Systeme dann offensichtlich nicht sonderlich gut funktionieren. Zumindest haben viele Menschen das Gefühl, Facebook bestehe fast nur noch aus ausgedachten Schlagzeilen, dubiosen Anzeigen und Vorschlägen, von denen man nicht versteht, warum man sie bekommt. Gleichwohl muss man auch sagen, dass die Betrüger immer besser werden. Es handelt sich sicherlich oft um eine Art Katz-und-Maus-Spiel. Betrügerische Anzeigen verbergen sich inzwischen oftmals hinter seriös aussehenden, vermeintlichen Artikeln. Webseiten und passende Bilder sind dank KI immer einfacher, realistischer und schneller zu erstellen. Auffällig ist auch, dass betrügerische Anzeigen deutlich häufiger bei Facebook auftauchen als beispielsweise bei Instagram. Möglicherweise liegt das am höheren Durchschnittsalter der Nutzer.
Dabei sagt der Meta-Sprecher gegenüber Reuters auch, dass die Zahl der Meldungen von betrügerischen Anzeigen durch Nutzer in den vergangenen 18 Monaten um 58 Prozent zurückgegangen sei. Im Jahr 2025 habe Meta bereits 134 Millionen betrügerische Anzeigeninhalte entfernt. Dieser Zahl steht freilich keine Aussage über die Gesamtanzahl an Anzeigen gegenüber.
Weiterlesen nach der Anzeige
Reuters berichtet außerdem darüber, dass potenzielle Strafen niedriger ausfallen würden, als die Einnahmen durch betrügerische Anzeigen seien. Zwar gäbe es sowohl in den USA, Großbritannien und mit dem Digital Services Act (DSA) auch in der EU neue Regulierungsvorstöße, nach denen Meta vermehrt verantwortlich für die Inhalte auf den Plattformen gemacht werden könnte. Doch noch hat es nicht mal Strafen gegeben, sondern es wurden lediglich Untersuchungen eingeleitet.
(emw)
Künstliche Intelligenz
China will anthropomorphe KI streng regulieren
Die chinesische Cybersicherheitsbehörde Cyberspace Administration of China (CAC) hat am 27. Dezember 2025 einen neuen Entwurf zur Regulierung von KI-Systemen zur öffentlichen Diskussion gestellt. Wie die Nachrichtenagentur Reuters berichtet, betreffen die Regeln an Endwanwender gerichtete KI-Systeme, die menschliches Verhalten nachahmen und zu emotionalen Interaktionen führen. Betroffen sollen Produkte und Dienste sein, die simulierte menschliche Persönlichkeitszüge oder Denkmuster aufweisen und mehr als eine Million insgesamt registrierte oder mehr als 100.000 monatlich aktive Nutzer haben Dabei spielt es keine Rolle, ob die Kommunikation über Text, Bilder, Sprache oder andere Medien erfolgt.
Weiterlesen nach der Anzeige
Die vorgeschlagene Regulierung soll die Anbieter verpflichten, während des kompletten Produkt-Lebenszyklus‘ Transparenz, Nachvollziehbarkeit, Datensicherheit und den Schutz persönlicher Nutzerdaten sicherzustellen.
Psychologische Notfallpläne
Im Unterschied zu vielen anderen KI-Regulierungen betont das vorgeschlagene Regelwerk auch psychologische Risiken. Anbieter sollen Mittel zur Verfügung stellen, die Stimmungen und mögliche emotionale Abhängigkeiten der Nutzer erkennen und bei Bedarf intervenieren können. In extremen Situationen, etwa wenn Nutzer mit Suizid oder Selbstverletzung drohen, sollen menschliche Ansprechpartner übernehmen können. Minderjährige und ältere Menschen sollen zudem verpflichtet werden, vor Nutzung der Dienste Notfallkontakte zu hinterlegen.
Die Produkte oder Dienste müssen dem Vorschlag zufolge Anwender außerdem regelmäßig und an prominent platzierten Stellen darauf hinweisen, dass sie mit einer KI interagieren. Finden sich im Nutzerverhalten Muster, die auf Abhängigkeiten hindeuten, müssen zusätzliche Pop-ups diese Hinweise wiederholen. Übersteigt die Nutzungsdauer zwei Stunden, soll eine Zwangspause nötig werden.
Trainingsdaten auf Parteilinie
Artikel 10 des Richtlinienvorschlags verpflichtet die Anbieter, für das Training der KI Datensätze zu verwenden, die „den Grundwerten des Sozialismus“ und den traditionellen Werten Chinas entsprechen. Anbieter sollen die Nachvollziehbarkeit der Trainingsdaten permament sicherstellen und dafür sorgen, dass die Systeme keine Inhalte generieren, die beispielsweise die nationale Sicherheit gefährden oder die soziale Ordnung stören.
(ulw)
Künstliche Intelligenz
iX-Workshop: Windows 11 im Unternehmen absichern
Der zweitägige Online-Workshop Windows 11 im Unternehmen absichern zeigt, wie Sie die Betriebssysteme Windows 11 Pro und Enterprise sicher im Unternehmensnetz betreiben. Dabei werden sowohl klassische On-Premises-Installationen von Windows 11 als auch hybride Modelle in Kombination mit Entra ID und Microsoft Endpoint Manager (Intune) berücksichtigt.
Weiterlesen nach der Anzeige
Anhand praktischer Demonstrationen typischer Bedrohungsszenarien lernen Sie Schwachstellen und die typischen Werkzeuge von Angreifern kennen und stellen diesen konkrete Härtungs- und Schutzmaßnahmen gegenüber. Microsoft bietet hierfür sinnvolle Sicherheitsfunktionen an, die jedoch nicht automatisch aktiv sind, sondern erst konfiguriert werden müssen. In diesem Workshop lernen Sie, wie Sie die Sicherheitsmechanismen und -tools einsetzen, um Ihre Systeme abzusichern. Dieser Workshop bietet viel Raum für Fragen und Austausch.
|
Februar 03.02. – 04.02.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 06. Jan. 2026 |
|
März 25.03. – 26.03.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 25. Feb. 2026 |
|
Mai 11.05. – 12.05.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 13. Apr. 2026 |
|
Juli 08.07. – 09.07.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 10. Jun. 2026 |
|
September 17.09. – 18.09.2026 |
Online-Workshop, 09:00 – 17:00 Uhr 10 % Frühbucher-Rabatt bis zum 20. Aug. 2026 |
Referent Christian Biehler ist Experte für Informationsmanagement und IT-Sicherheit. Seine Themenschwerpunkte sind die Sicherheit von Netzwerken und Anwendungen sowohl in klassischen On-Premises-Umgebungen als auch im hybriden Windows-Umfeld.

(ilk)
Künstliche Intelligenz
39C3: Wie sich international sicher auf klinischen Daten rechnen lässt
Mit der elektronischen Patientenakte, Medizinregistern und weiteren Quellen sollen große Mengen sensibler Gesundheitsdaten für die Forschung nutzbar gemacht werden. Dafür entsteht auf nationaler Ebene das Forschungsdatenzentrum Gesundheit beim Bundesinstitut für Arzneimittel und Medizinprodukte (BfArM), dessen Daten perspektivisch Teil des Europäischen Gesundheitsdatenraums (EHDS) werden.
Weiterlesen nach der Anzeige
Gleichzeitig zeigt sich immer mehr, dass klassische Schutzmechanismen wie Pseudonymisierung, Anonymisierung oder reine Aggregation nicht ausreichen: Selbst aus veröffentlichten Statistiken lassen sich unter Umständen individuelle Gesundheitsinformationen rekonstruieren.
Eine alternative Herangehensweise beschreibt eine in npj Digital Medicine veröffentlichte Studie: Unter dem Titel „Privacy-friendly evaluation of patient data with secure multiparty computation in a European pilot study“ haben Forschende erstmals Patientendaten einer klinischen Studie mithilfe von Secure Multiparty Computation (SMPC) länderübergreifend ausgewertet – ohne die Daten zwischen den beteiligten Einrichtungen auszutauschen.
Die Studie wurde am Klinikum der Ludwig-Maximilians-Universität in München (LMU München) und am Policlinico Universitario Fondazione Agostino Gemelli in Rom durchgeführt. Insgesamt flossen die Daten von 48 Krebspatientinnen und ‑patienten ein, die wegen Metastasen der Nebenniere mit gezielter, hoch dosierter Strahlung behandelt wurden. Jeweils 24 Datensätze blieben physisch in München und Rom; für die gemeinsame Analyse wurden sie verschlüsselt in eine Secure‑Multiparty‑Computing‑Umgebung eingebracht. Weder die beteiligten Kliniken noch die auswertenden Forschenden konnten die Rohdaten der jeweils anderen Seite einsehen – sichtbar wurden ausschließlich die gemeinsam berechneten Ergebnisse.
Neben den medizinischen Resultaten – hohem lokalem Tumorkontrollgrad, geringer Toxizität und einer medianen Gesamtüberlebenszeit von 19 Monaten – steht vorwiegend der methodische Nachweis im Mittelpunkt: Die Studie zeigt, dass grenzüberschreitende klinische Forschung im europäischen Rechtsrahmen möglich ist, ohne sensible Patientendaten zentral zu sammeln oder weiterzugeben. Der organisatorische und rechtliche Aufwand war hoch, die eigentlichen Berechnungen dagegen schnell und effizient.

Hendrik ist Professor an der Ludwig-Maximilians-Universität München und leitet dort das Forschungsdekanat der Medizinischen Fakultät.
(Bild: Ballhausen)
Dass das Thema nicht nur die Medizin, sondern auch die Tech‑ und Zivilgesellschaft interessiert, zeigt sich auch daran, dass Hendrik Ballhausen von der LMU München den Ansatz der Secure Multiparty Computation auf dem 39. Chaos Communication Congress (39C3) vorgestellt hat. Wir haben mit ihm über die Studie gesprochen und darüber, warum Secure Multiparty Computation eine Antwort auf aktuelle Datenschutzdebatten sein kann.
Datenschutz im Gesundheitswesen wird viel diskutiert – gerade jetzt mit Blick auf den Europäischen Gesundheitsdatenraum und den sich damit ansammelnden besonders schützenswerten Daten. Warum ist jetzt ein guter Zeitpunkt, Ihre Studie auf dem 39C3 vorzustellen?
Weiterlesen nach der Anzeige
Der Trend geht dahin, große, zentralisierte Datenbanken aufzubauen. Das zu fordern ist sehr attraktiv für Wissenschaft, Politik und Wirtschaft. Es gibt aber auch Nachteile: große Datenbanken werden leicht zum Ziel für Angriffe, und sie verschieben das Gleichgewicht weg von denen, denen wir die Daten verdanken: Patient:innen und Wissenschaftler:innen. Wir wollen einen alternativen Ansatz zeigen: Kooperation und Forschung sind auch möglich, ohne Daten zu teilen. Das dient nicht nur dem Datenschutz, sondern ist auch ein Stück gelebter Föderalismus und macht unsere Infrastrukturen resilienter.
Wir haben erstmals eine klinische Studie über europäische Grenzen hinweg – zwischen München und Rom – gemeinsam ausgewertet, ohne dass eine Seite die Daten der anderen gesehen hat. Die Berechnungen liefen verschlüsselt über eine Secure‑Multiparty‑Computing‑Umgebung. Nach einem Pilotversuch in Deutschland in 2019 ist das nun der erste Einsatz dieser Technik im Europäischen Gesundheitsdatenraum.
Kritiker sagen oft: Datenschutz bremst Forschung aus. Stimmt das?
Das hören wir oft. Aber die Konsequenz kann nicht sein, dass der Datenschutz weg muss. Mit unserem Ansatz zeigen wir ja gerade: es geht beides. Und es gibt sogar Situationen, in denen Kooperation überhaupt erst möglich wird, wenn Schutzinteressen gewahrt bleiben.
In der Praxis war der technische Mehraufwand überschaubar. Zeit gekostet haben Verträge, Ethikvoten und Dokumentation. Die wären auch bei klassischem Datenaustausch nötig gewesen. Der technische Mehraufwand ist also geringer, als viele denken.
Es wird immer wieder gewarnt, dass selbst anonymisierte oder aggregierte Daten rekonstruierbar sein können. Wie ordnen Sie das ein?
Diese Warnungen sind primär bei sehr geringen Fallzahlen berechtigt, etwa bei seltenen Erkrankungen. SMPC geht einen anderen Weg: Die Daten werden gar nicht erst zusammengeführt. Es gibt keinen Punkt, an dem jemand einen vollständigen Datensatz sehen kann – nicht einmal die Forschenden.
Welche Rolle spielt dabei die Kontrolle durch die Datenhalter?
Eine sehr große. Bei SMPC müssen die Datenhalter – Kliniken oder perspektivisch auch Patienten – aktiv zustimmen, wenn eine neue Auswertung stattfinden soll. Es ist technisch unmöglich, die Daten „einfach weiterzuverwenden“. Wer nicht mehr mitmacht, dessen Daten sind raus. Das stärkt die Selbstbestimmung enorm. Wir wollen damit die Rolle der Akteure im System neu definieren – weg von passiven Datenlieferanten hin zu aktiven Teilnehmer:innen. Heute sind das die Universitätskliniken, die ihre Rolle verteidigen müssen. Morgen können das Bürgerinnen und Bürger sein, die im Sinne des Citizen Science selbst bestimmen werden, wem sie welche Daten zu welchem Zweck zur Verfügung stellen.
Ist das ein Modell für den EHDS oder das Forschungsdatenzentrum Gesundheit?
Zumindest ein möglicher Baustein. Aktuell setzt man dort stark auf zentrale Datenhaltung und Anonymisierung. Unser Ansatz zeigt, dass man auch dezentral forschen kann – datensparsam und DSGVO‑konform. Gerade bei seltenen Erkrankungen oder besonders sensiblen Daten könnte das sehr relevant werden. Und letztlich ist das auch im Sinne der Politik – heute entstehen die Daten in Krankenhäusern und „gehören“ staatlichen Einrichtungen. Aber wir müssen ein Angebot machen, wie man in Zukunft mit Daten umgeht, die wir sonst gar nicht zu sehen bekommen – Daten von Wearables beispielsweise. Die bekommen wir nur, wenn wir auf Augenhöhe agieren und Vertrauen schaffen.
Warum hat sich das noch nicht durchgesetzt?
Das Verfahren gilt unter Fachleuten als besonders sicher und mächtig – mathematische Sicherheits- und Vollständigkeitsbeweise gibt es schon seit den 1980ern. Aber auch als besonders komplex und schwierig in der Praxis umzusetzen. Zugänglichkeit für Nichtexperten ist definitiv ein Thema, das wir im Projekt adressiert haben. Davon abgesehen gibt es inzwischen sehr gute praxistaugliche Software-Lösungen.
Alles, was es braucht, ist ein Use Case, bei dem die Vorteile überwiegen – wie hier in der klinischen Forschung mit sensiblen Patientendaten. Wir haben bewusst auf eine etablierte Industrielösung gesetzt und dafür eine Middleware entwickelt, damit auch medizinische Forschende ohne Kryptografie‑Expertise damit arbeiten können.
Wie geht es jetzt weiter?
Wir haben gezeigt, dass es technisch und organisatorisch funktioniert. Gern bringen wir diese Expertise ein. Ob und wie das weitergeht, hängt vor allem vom politischen Willen ab. Moderner Datenschutz, made in Germany und medizinische Forschung sind kein Widerspruch.
(mack)
-
UX/UI & Webdesignvor 2 MonatenIllustrierte Reise nach New York City › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAus Softwarefehlern lernen – Teil 3: Eine Marssonde gerät außer Kontrolle
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test
-
UX/UI & Webdesignvor 2 MonatenSK Rapid Wien erneuert visuelle Identität
-
Künstliche Intelligenzvor 2 MonatenNeue PC-Spiele im November 2025: „Anno 117: Pax Romana“
-
Entwicklung & Codevor 1 MonatKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 2 MonatenDonnerstag: Deutsches Flugtaxi-Start-up am Ende, KI-Rechenzentren mit ARM-Chips
-
UX/UI & Webdesignvor 2 MonatenArndt Benedikt rebranded GreatVita › PAGE online
