Connect with us

Künstliche Intelligenz

Meta verdient Milliarden mit betrügerischer Werbung


Alleine im vergangenen Jahr soll Meta rund 16 Milliarden US-Dollar dank betrügerischer Werbung eingenommen haben. Meta widerspricht den Zahlen, über die Reuters berichtet. Aber selbst, wenn die Zahlen niedriger liegen – wir alle wissen um reichlich Scam und KI-Müll auf Facebook und Instagram, den wir jeden Tag selbst sehen und erleben können. Es wirkt erstaunlich, dass Metas automatisierte Systeme vieles davon nicht als Betrugsversuche erkennen können (wollen).

Weiterlesen nach der Anzeige

Reuters beruft sich auf interne Dokumente, die ihnen zugespielt worden seien. Es handelt sich um Prognosen für das Jahr 2024. Darin schätzt Meta, dass die verschiedenen Plattformen den Menschen insgesamt rund 15 Milliarden risikoreiche Anzeigen am Tag ausspielen würden. Risikoreich bedeutet, dass es sich um konkrete Betrugsversuche handelt, also Links zu Webseiten mit betrügerischen Absichten, um illegale Glücksspiel-Seiten sowie verbotene Produkte, die verkauft werden – etwa aus dem Bereich Gesundheit.

Ein echter Clou von Meta, wenn der Verdacht besteht, es könne sich um Betrug handeln, wird die Anzeige einfach zunächst teurer. Erst bei einer Betrugs-Wahrscheinlichkeit von mehr als 95 Prozent reagieren die Systeme und sperren die Anzeige.

Meta sagt, Reuters gebe eine „selektive Sichtweise“ wieder und verzerre das Vorgehen des Unternehmens gegen Betrug. Ein Sprecher widerspricht zwar nicht der Zahl aus dem vorliegenden Bericht, dass Meta geschätzt hat, rund zehn Prozent der Umsätze aus Betrügereien einzunehmen, aber er sagt auch, die Schätzung sei nur grob gewesen. Die tatsächlichen Einnahmen seien deutlich niedriger gewesen. „Wir bekämpfen Betrug und Scam aggressiv, weil die Nutzer unserer Plattformen solche Inhalte nicht wollen, seriöse Werbekunden sie nicht wollen und wir sie auch nicht wollen“, sagt der Sprecher. Auch das steht bereits ähnlich in dem Bericht, der Reuters vorliegt.

Allerdings fällt immer wieder auf, dass die Systeme dann offensichtlich nicht sonderlich gut funktionieren. Zumindest haben viele Menschen das Gefühl, Facebook bestehe fast nur noch aus ausgedachten Schlagzeilen, dubiosen Anzeigen und Vorschlägen, von denen man nicht versteht, warum man sie bekommt. Gleichwohl muss man auch sagen, dass die Betrüger immer besser werden. Es handelt sich sicherlich oft um eine Art Katz-und-Maus-Spiel. Betrügerische Anzeigen verbergen sich inzwischen oftmals hinter seriös aussehenden, vermeintlichen Artikeln. Webseiten und passende Bilder sind dank KI immer einfacher, realistischer und schneller zu erstellen. Auffällig ist auch, dass betrügerische Anzeigen deutlich häufiger bei Facebook auftauchen als beispielsweise bei Instagram. Möglicherweise liegt das am höheren Durchschnittsalter der Nutzer.

Dabei sagt der Meta-Sprecher gegenüber Reuters auch, dass die Zahl der Meldungen von betrügerischen Anzeigen durch Nutzer in den vergangenen 18 Monaten um 58 Prozent zurückgegangen sei. Im Jahr 2025 habe Meta bereits 134 Millionen betrügerische Anzeigeninhalte entfernt. Dieser Zahl steht freilich keine Aussage über die Gesamtanzahl an Anzeigen gegenüber.

Weiterlesen nach der Anzeige

Reuters berichtet außerdem darüber, dass potenzielle Strafen niedriger ausfallen würden, als die Einnahmen durch betrügerische Anzeigen seien. Zwar gäbe es sowohl in den USA, Großbritannien und mit dem Digital Services Act (DSA) auch in der EU neue Regulierungsvorstöße, nach denen Meta vermehrt verantwortlich für die Inhalte auf den Plattformen gemacht werden könnte. Doch noch hat es nicht mal Strafen gegeben, sondern es wurden lediglich Untersuchungen eingeleitet.


(emw)



Source link

Künstliche Intelligenz

KI-Bilder statt Modefotografie | heise online


Die Fast-Fashion-Marke Zara unter dem Dach des spanischen Inditex-Konzerns setzt im großen Stil auf KI-unterstützte Bildproduktion. Der Modekonzern will Fotos realer Models per generativer Software variieren, statt für jede Produktvariante ein neues Shooting anzusetzen. Aus einmal aufgenommenen Fotos von Models sollen per KI zahlreiche Varianten entstehen, etwa mit anderen Farben, Schnitten oder Accessoires.

Weiterlesen nach der Anzeige

Pose, Körperform und Gesicht der realen Models bleiben dabei erhalten, während die Kleidung und die Hintergründe ausgetauscht werden. Das soll die Produktionszeit und die Kosten für neue Produktaufnahmen für Webshop und App drastisch reduzieren. Außerdem habe man so die Chance, quasi in Echtzeit auf der sich schnell bewegenden Modewelle zu reiten.

Zara ist nicht das erste einschlägige Unternehmen, das verstärkt auf KI setzt. Bereits vor einigen Monaten hatte H&M angekündigt, künftig verstärkt mit „digitalen Zwillingen“, KI-generierten Images seiner Models, arbeiten zu wollen. Die Rechte an den Klones sollen vollständig bei den Models bleiben, die Vergütung entspräche weitgehend herkömmlichen Honoraren. Auch Zalando hatte im Mai angekündigt, dem hohen Tempo, in dem sich Mode verändert, mit KI-Unterstützung zu begegnen.

Die Unternehmen betonen, dass die „Klon“-Strategie die menschliche Arbeit ergänzen und nicht vollständig ersetzen solle. Kritiker, darunter die britische Association of Photographers, sehen das anders. Es stehe zu befürchten, dass der Einsatz von generativer KI die Zahl klassischer Aufträge für Fotografen, Models und Produktionsteams verringern wird. Die Folge könnte ein schleichender Auftragsrückgang sein, der besonders jüngere und freischaffende Kreative trifft. Unklar ist auch, inwieweit künftig eine transparente Kennzeichnungspflicht für KI-generierte Bilder geregelt und durchgesetzt wird.


(swi)



Source link

Weiterlesen

Künstliche Intelligenz

China will anthropomorphe KI streng regulieren


Die chinesische Cybersicherheitsbehörde Cyberspace Administration of China (CAC) hat am 27. Dezember 2025 einen neuen Entwurf zur Regulierung von KI-Systemen zur öffentlichen Diskussion gestellt. Wie die Nachrichtenagentur Reuters berichtet, betreffen die Regeln an Endwanwender gerichtete KI-Systeme, die menschliches Verhalten nachahmen und zu emotionalen Interaktionen führen. Betroffen sollen Produkte und Dienste sein, die simulierte menschliche Persönlichkeitszüge oder Denkmuster aufweisen und mehr als eine Million insgesamt registrierte oder mehr als 100.000 monatlich aktive Nutzer haben Dabei spielt es keine Rolle, ob die Kommunikation über Text, Bilder, Sprache oder andere Medien erfolgt.

Weiterlesen nach der Anzeige

Die vorgeschlagene Regulierung soll die Anbieter verpflichten, während des kompletten Produkt-Lebenszyklus‘ Transparenz, Nachvollziehbarkeit, Datensicherheit und den Schutz persönlicher Nutzerdaten sicherzustellen.

Im Unterschied zu vielen anderen KI-Regulierungen betont das vorgeschlagene Regelwerk auch psychologische Risiken. Anbieter sollen Mittel zur Verfügung stellen, die Stimmungen und mögliche emotionale Abhängigkeiten der Nutzer erkennen und bei Bedarf intervenieren können. In extremen Situationen, etwa wenn Nutzer mit Suizid oder Selbstverletzung drohen, sollen menschliche Ansprechpartner übernehmen können. Minderjährige und ältere Menschen sollen zudem verpflichtet werden, vor Nutzung der Dienste Notfallkontakte zu hinterlegen.

Die Produkte oder Dienste müssen dem Vorschlag zufolge Anwender außerdem regelmäßig und an prominent platzierten Stellen darauf hinweisen, dass sie mit einer KI interagieren. Finden sich im Nutzerverhalten Muster, die auf Abhängigkeiten hindeuten, müssen zusätzliche Pop-ups diese Hinweise wiederholen. Übersteigt die Nutzungsdauer zwei Stunden, soll eine Zwangspause nötig werden.

Artikel 10 des Richtlinienvorschlags verpflichtet die Anbieter, für das Training der KI Datensätze zu verwenden, die „den Grundwerten des Sozialismus“ und den traditionellen Werten Chinas entsprechen. Anbieter sollen die Nachvollziehbarkeit der Trainingsdaten permament sicherstellen und dafür sorgen, dass die Systeme keine Inhalte generieren, die beispielsweise die nationale Sicherheit gefährden oder die soziale Ordnung stören.


(ulw)



Source link

Weiterlesen

Künstliche Intelligenz

iX-Workshop: Windows 11 im Unternehmen absichern


Der zweitägige Online-Workshop Windows 11 im Unternehmen absichern zeigt, wie Sie die Betriebssysteme Windows 11 Pro und Enterprise sicher im Unternehmensnetz betreiben. Dabei werden sowohl klassische On-Premises-Installationen von Windows 11 als auch hybride Modelle in Kombination mit Entra ID und Microsoft Endpoint Manager (Intune) berücksichtigt.

Weiterlesen nach der Anzeige

Anhand praktischer Demonstrationen typischer Bedrohungsszenarien lernen Sie Schwachstellen und die typischen Werkzeuge von Angreifern kennen und stellen diesen konkrete Härtungs- und Schutzmaßnahmen gegenüber. Microsoft bietet hierfür sinnvolle Sicherheitsfunktionen an, die jedoch nicht automatisch aktiv sind, sondern erst konfiguriert werden müssen. In diesem Workshop lernen Sie, wie Sie die Sicherheitsmechanismen und -tools einsetzen, um Ihre Systeme abzusichern. Dieser Workshop bietet viel Raum für Fragen und Austausch.

Februar
03.02. – 04.02.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 06. Jan. 2026
März
25.03. – 26.03.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 25. Feb. 2026
Mai
11.05. – 12.05.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 13. Apr. 2026
Juli
08.07. – 09.07.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 10. Jun. 2026
September
17.09. – 18.09.2026
Online-Workshop, 09:00 – 17:00 Uhr
10 % Frühbucher-Rabatt bis zum 20. Aug. 2026

Referent Christian Biehler ist Experte für Informationsmanagement und IT-Sicherheit. Seine Themenschwerpunkte sind die Sicherheit von Netzwerken und Anwendungen sowohl in klassischen On-Premises-Umgebungen als auch im hybriden Windows-Umfeld.




(ilk)



Source link

Weiterlesen

Beliebt