Connect with us

Künstliche Intelligenz

Suizid, Abtreibungen: YouTube lockert Werberichtlinien für „kontroverse Themen“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

YouTube lockert seine Monetarisierungsrichtlinien zu Inhalten, die die Plattform als „kontrovers“ klassifiziert. YouTuber, die sich mit Themen wie Suizid, Essstörungen, häuslicher und sexueller Gewalt sowie Abtreibungen beschäftigen, können mit ihren Videos künftig in vollem Umfang Werbegeld einnehmen, wenn sie sich an einige Regeln halten.

Weiterlesen nach der Anzeige

Über die Änderungen an den „Richtlinien für werbefreundliche Inhalte“ informiert Google in einem YouTube-Video. Darin beschreibt YouTube-Monetarisierungs-Chef Conor Kavanagh auch die Beweggründe hinter der im Januar eingeführten Änderung: „Wir möchten sicherstellen, dass Creator, die sensible Geschichten erzählen oder dramatisierte Inhalte produzieren, die Möglichkeit haben, Werbeeinnahmen zu erzielen – und dabei gleichzeitig die Wahlfreiheit der Werbetreibenden respektieren. Wir haben bei genauerer Betrachtung festgestellt, dass unsere Richtlinien in diesem Bereich zu restriktiv waren.“

YouTube listet in den Richtlinien verschiedene Gruppen von Inhalten auf, die nicht oder nur eingeschränkt mit Werbeeinblendungen monetarisiert werden können. Neben den „Kontroversen Themen“ gibt es etwa auch bei hasserfüllten oder stark sexualisierten Inhalten solche Einschränkungen. Hier ändert YouTube nichts – die Lockerungen betreffen nur die Inhaltsgruppe der „Kontroversen Themen“.

Ein Freifahrtschein ist die neue Youtube-Richtlinie nicht: Nach wie vor müssen sich YouTube-Nutzer verantwortungsvoll mit Themen beschäftigen, damit ihre Videos für volle Monetarisierung infrage kommen. Dazu zählt YouTube Videos, die versuchen, Ereignisse wie Suizid oder sexuelle Gewalt zu verhindern. Auch Videos, in denen „kontroverse Themen“ nur flüchtig erwähnt oder nicht drastisch dargestellt werden, sind laut den neuen Richtlinien für Werbung akzeptabel.

Lesen Sie auch

Damit will YouTube unter anderem dafür sorgen, dass journalistische Nachrichteninhalte oder Erfahrungsbeiträge monetarisiert werden dürfen. Auch mit dramatisierten Inhalten dürfen demnach Werbeeinahmen erzielt werden. YouTube nennt beispielhaft einen Film, in dem eine Person von einer Brücke springt.

Weiterlesen nach der Anzeige

Etwas vorsichtiger bleibt YouTube, wenn es um Kindesmissbrauch geht: Inhalte zu diesem Thema kommen weiterhin nur eingeschränkt oder gar nicht für Werbeeinnahmen in Frage. Werbung für oder Verherrlichung von Suizid oder Missbrauch sind für Werbung komplett tabu, genauso wie die „grausame Darstellung von selbstverletzendem Verhalten“ oder die „explizite Thematisierung von Essstörungen, die andere triggern oder zur Nachahmung verleiten kann.“

Mit seinen Richtlinienänderungen gibt YouTube seinen Kreativschaffenden etwas mehr Freiheit bei der Ausgestaltung ihrer Inhalte. Einige YouTuber haben es bislang aus Angst vor Demonetarisierung etwa vermieden, das Wort „Suizid“ überhaupt auszusprechen – das sollte fortan kein Problem mehr sein.

Google überarbeitet die Werberichtlinien für Inhalte auf YouTube sporadisch. Zuletzt waren die Richtlinien im Juli 2025 geändert worden, um Videos mit Profanität in den ersten sieben Sekunden nicht von Werbeeinnahmen auszuschließen.

In Deutschland finden Sie Hilfe und Unterstützung bei Problemen aller Art, auch bei Fragen zu Mobbing und Suiziden, bei telefonseelsorge.de und telefonisch unter 0800 1110111. Die Nummer gegen Kummer (Kinder- und Jugendtelefon) lautet 116 111. In Österreich gibt es ebenfalls kostenfreie Hilfsangebote, darunter speziell für Kinder der Kindernotruf unter 0800 567 567 sowie Rat auf Draht unter 147. Dieselbe Telefonnummer führt in der Schweiz zu Pro Juventute.


(dahe)



Source link

Künstliche Intelligenz

iX-Workshop: SW-Architektur – CPSA Foundation Level mit iSAQB-Zertifizierung


Moderne, zukunftssichere Software entwickeln: Im viertägigen iX-Workshop Softwarearchitektur: iSAQB CPSA Foundation Level mit iSAQB-Zertifizierung lernen Sie, wie Sie Softwarearchitekturen entwerfen, die diesen Anforderungen gerecht werden.

Weiterlesen nach der Anzeige

Diese vom International Software Architecture Qualification Board (iSAQB) lizenzierte Schulung bietet eine umfassende Einführung in die Welt der Softwarearchitektur. Der Workshop beleuchtet alle wichtigen Methoden, Techniken und Werkzeuge, die Sie für den Entwurf und die Implementierung benötigen. In praktischen Übungen wenden Sie das Gelernte direkt an und können am Ende der Schulung eine international anerkannte Zertifizierung ablegen.

Der Workshop findet online statt und richtet sich vor allem an Softwarearchitekten und -entwickler. Er dient als offizielle Vorbereitung auf die Prüfung zum „Certified Professional for Software Architecture – Foundation Level“ (CPSA-F), die im Anschluss abgelegt werden kann.

Der Trainer Mirco Schindler ist ein erfahrener Softwarearchitekt mit umfassender Erfahrung in Organisations-, Struktur- und Softwareentwicklung. Er unterstützt Unternehmen branchenübergreifend bei ihrer strategischen Digitalisierung und setzt dabei auf eine enge Verbindung von fachlicher Tiefe und praxisnaher Umsetzung.


Upgrade for Skills

Upgrade for Skills


(ilk)



Source link

Weiterlesen

Künstliche Intelligenz

Metas Ray-Bans: Clickworker sehen Sexvideos


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Videos, die mit den Ray-Ban- oder Oakley-Brillen von Meta aufgezeichnet werden, bleiben nicht lokal auf dem Gerät oder dem Smartphone mit der dazugehörigen Meta AI App gespeichert. Das scheint vielen Menschen nicht klar zu sein. Denn wie das „Svenska Dagbladet“ berichtet, landen bei den zuständigen Clickworkern auch Videos von eher intimen Momenten.

Weiterlesen nach der Anzeige

Ob Sex oder der Gang zur Toilette. Solche Aufnahmen sollen dem Bericht zufolge bei Arbeitern in Kenia aufgetaucht sein. Die Menschen dort werten Videos aus, beschriften und markieren sie. Das nennt sich Daten-Annotation. Mit den so vorbereiteten Daten werden dann wiederum neue KI-Modelle trainiert. Man kann diese Menschen getrost als das Rückgrat von KI bezeichnen, denn ohne ihre Arbeit wären KI-Modelle aller Unternehmen deutlich weniger leistungsfähig oder klug.

Dass die Arbeit oftmals belastend sein kann, ist ebenfalls bekannt. Inhalte können etwa Gewalt zeigen. Auch das muss beschriftet werden, damit ein KI-Modell lernen kann, wie Gewalt aussieht oder was als Gewalt gilt – und was gegebenenfalls dann genau nicht generiert werden darf, sofern es eine solche Richtlinie für ein Modell gibt. Clickworker bekommen in der Regel sehr wenig Geld und leiden zudem psychisch unter den Aufgaben.

Es überrascht nicht, dass sie intime Situationen oder sogar Bankdaten zu sehen bekommen. Dass offenbar so wenig Bewusstsein bei den Nutzern der smarten Brillen für die potenzielle Weitergabe der Daten besteht, erstaunt aber doch.

Meta verweist auf die Datenschutzrichtlinie und Nutzungsbedingungen. Auf Nachfrage von heise online sagt ein Sprecher: „Wenn Menschen Inhalte mit Meta AI teilen, nutzen wir manchmal Subunternehmen, die diese Inhalte auswerten, um die Funktionsweise der smarten Brillen zu verbessern.“ Das stehe ganz klar in den Richtlinien.

Sprachaufnahmen können tatsächlich laut Datenschutzrichtlinie nicht automatisch weitergegeben werden. Möglicherweise hat Meta hier aus vorherigen Skandalen um etwa Amazons Alexa und Apples Siri gelernt. Auch hier landeten Sprachaufnahmen zur Auswertung und für die Verbesserung der eigenen Produkte bei Menschen, die diese anhören und auswerten mussten.

Weiterlesen nach der Anzeige

Videoaufnahmen, die mit den Ray-Bans und Oakleys aufgezeichnet werden, können aber immer an Meta und andere Unternehmen weitergereicht werden. Das lässt sich nicht abschalten. Meta AI, der Dienst und die gleichnamige App, die für die Verarbeitung der Nutzeranfragen zuständig ist, kann nur mittels Datenweitergabe die angebotenen Funktionen erfüllen. Sprich: Damit Meta AI dem Nutzer sagen kann, vor welchem Gebäude er gerade steht, müssen die Bilder an Meta geschickt und dort ausgewertet werden.

Wie die schwedische Tageszeitung berichtet, funktioniert auch die Anonymisierung der Videos nicht richtig. Clickworker sollen berichtet haben, dass Gesichter nicht verpixelt werden. Meta jedoch sagt auf Nachfrage, dass man die Inhalte sehr wohl filtere, um die Menschen zu schützen. Auch hier werde kontinuierlich an Verbesserungen der Systeme gearbeitet.

Ein weiterer Hinweis von Meta bezieht sich auf die Unsicherheit von Menschen, heimlich gefilmt zu werden. Die Brillen zeigen immer anhand einer kleinen LED im Gestell an, wenn sie aktiviert sind. Zudem sagt Meta, in den Nutzungsbedingungen sei festgehalten, dass Menschen die Dienste im Rahmen der Gesetzgebung sowie in einer respektvollen Art nutzen sollten.


(emw)



Source link

Weiterlesen

Künstliche Intelligenz

c’t-Workshop: DHCP-Automatisierung mit Kea und Stork


Der DHCP-Dienst bildet das Rückgrat moderner Netzwerke. In vielen Umgebungen verteilen sich Verwaltungsdaten jedoch auf mehrere Systeme – etwa IP-Adressmanagement, Inventardatenbanken, VoIP-Plattformen oder Deployment-Werkzeuge. Mit Kea-DHCP und der Weboberfläche Stork führen Admins diese Daten zusammen und synchronisieren sie über APIs mit dem DHCP-Dienst. So automatisieren sie wiederkehrende Konfigurationsaufgaben.

Weiterlesen nach der Anzeige

Im Workshop DHCP-Automatisierung mit Kea und Stork binden die Teilnehmer Kea-DHCP mit Open-Source-Werkzeugen in automatisierte Netzwerkumgebungen ein.

Der Workshop deckt den gesamten Lebenszyklus einer Kea-DHCP-Umgebung ab. Die Teilnehmer installieren Kea, richten ein Datenbank-Backend mit MySQL oder PostgreSQL ein und konfigurieren Subnetze sowie Adresspools. Danach bauen sie einen Hochverfügbarkeits-Cluster auf, testen Failover und prüfen den Status der Instanzen.

Anschließend setzen sie typische DHCP-Szenarien um: PXE-basierter Netzwerkboot, Vendor- und VIVSO-Optionen sowie dynamische DNS-Updates. Danach aktivieren sie die Kea-API, sichern den Zugriff ab und verwalten darüber Subnetze, Optionen, Client-Klassen und Reservierungen.

Mit Stork administrieren sie ihre Kea-Instanzen zentral und kontrollieren Versionen sowie HA-Zustände. Für Metriken und Alerts binden sie Monitoring-Werkzeuge wie Prometheus, Grafana, Zabbix und Uptime-Kuma ein. Ergänzend analysieren sie Logs und DHCP-Leases.

Die Teilnehmer erwerben Wissen, das sie unmittelbar im Produktivbetrieb einsetzen können. Sie lernen, typische Stolperfallen zu erkennen, bevor diese im laufenden Betrieb Probleme verursachen. Außerdem gewinnen sie ein tieferes Verständnis für Skalierbarkeit, Hochverfügbarkeit und Betriebssicherheit ihrer DHCP-Infrastruktur.

Weiterlesen nach der Anzeige

Durch den Workshop führt Carsten Strotmann von der sys4 AG. Er betreut seit über 25 Jahren Unix- und Windows-Netzwerke. Zu seinen Schwerpunkten zählen DNS, DNSSEC und IPv6. Als Trainer arbeitet er unter anderem für das Internet Systems Consortium, das Linuxhotel und Men & Mice.

Der Workshop richtet sich an Systemadministratoren, Netzwerkingenieure und DevOps-Teams mit Linux- und TCP/IP-Grundkenntnissen. Erfahrung mit JSON-APIs und DHCP erleichtert den Einstieg.

Die Teilnehmerzahl ist auf 20 Personen begrenzt. Die Veranstaltung am 2. und 3. Juni jeweils von 9:00 bis 17:00 Uhr online über Zoom statt. Zur Teilnahme genügen ein aktueller Browser mit JavaScript sowie ein Mikrofon oder Headset; ein SSH-Client ist hilfreich. Wer bis zum 05.05.2026 bucht, sichert sich einen Frühbucher-Rabatt von 10 Prozent und zahlt 792,00 Euro. Weitere Informationen und Details zur Anmeldung finden Sie auf der Seite zum Workshop.


(abr)



Source link

Weiterlesen

Beliebt