Connect with us

Datenschutz & Sicherheit

Degitalisierung: Verdrängung



Im Jahr 1913 beschrieb ein gewisser Wolfgang Riepl in Bezug auf das Nachrichtenwesen etwas, das fortan als Rieplsches Gesetz bekannt wurde. Er beschrieb das Folgende:

Trotz aller solchen Wandlungen ist indessen festzustellen, daß neben den höchstentwickelten Mitteln, Methoden und Formen des Nachrichtenverkehrs in den Kulturstaaten auch die einfachsten Urformen bei verschiedenen Naturvölkern noch heute im Gebrauch sind […]. Andererseits ergibt sich gewissermaßen als ein Grundgesetz der Entwicklung des Nachrichtenwesens, daß die einfachsten Mittel, Formen und Methoden, wenn sie nur einmal eingebürgert und brauchbar befunden worden sind, auch von den vollkommensten und höchst entwickelten niemals wieder gänzlich und dauernd verdrängt und außer Gebrauch gesetzt werden können, sondern sich neben diesen erhalten, nur daß sie genötigt werden, andere Aufgaben und Verwertungsgebiete aufzusuchen.

In der Medientheorie wurde es immer wieder als eine Art Gesetzmäßigkeit für die Entwicklung von Medien gesehen, dass verschiedene Medienarten sich immer irgendwie ergänzen würden, aber es nie zu einer vollständigen Verdrängung bestimmter Medienformen kommen würde. Fernsehen verdrängt Radio nicht vollständig, Radio verdrängt Zeitungen nie vollständig. Trotz Internet gibt es nach wie vor Tageszeitungen. Lange Jahre schien Riepl mit dieser Gesetzmäßigkeit etwas uneingeschränkt Gültiges geschaffen zu haben.

In dieser Degitalisierung des Jahres 2026 müssen wir uns die Frage stellen, inwieweit interaktive und soziale Arten von Medien und der Erstellung von Inhalten noch in die scheinbar zeitlose Gesetzmäßigkeit Riepls passen.

Bildstreifen

Anfang 2026 wird darüber diskutiert, ganze Arten von Medien – eigentlich als sozial betitelt – vollständig von bestimmten Altersgruppen fernhalten zu wollen. Seit Riepls Feststellung 1913 haben Medien allerhand neue Methoden entwickelt, zumindest im Ringen um Aufmerksamkeit „alte“ Medien zu verdrängen. 25 Prozent der Kinder oder Jugendlichen nutzen laut einer DAK-Studie von 2025 soziale Medien „riskant oder krankhaft oft“.

Riepl wurde medienwissenschaftlich zwar schon früher grundsätzlich widerlegt. Medien sind von ihren Verteilungswegen heutzutage nicht mehr so klar voneinander trennbar, denn irgendwie ist inzwischen vieles „over IP“, also alles über das „Internet“. Aber irgendwie scheinen speziell soziale Medien einen so großen Verdrängungseffekt auszuüben, dass etwas getan werden muss.

Anlass für die aktuellen Diskussionen um ein Social-Media-Verbot sind eigentlich die Geschäftsmodelle scheinbar „sozialer“ Medien. Geschäftsmodelle, die mit immer mehr manipulativen Designs mehr und mehr Nutzungszeit ihrer Plattformen erreichen und durch die Bindung von User*innen mehr Umsatz durch vorwiegend Werbung erreichen wollen. Diese Dark Patterns sind dabei nicht rein auf „soziale“ Medien beschränkt, sie betreffen auch Shopping-Plattformen wie Ebay oder Temu.

Die aktuell propagierte Problemlösung ist dabei aus systemischer Sicht zumindest spannend. Statt zu regulieren, welche Inhalte verbreitet werden, und diese Inhalte möglicherweise besser zu moderieren, wird aktuell versucht, mittels technischer Methoden wie Altersverifikation einfach den Zugang ganz zu verwehren. Medienhistorisch betrachtet ist allerdings doch interessant, wie der Versuch aussieht, schädliche Wirkungen „sozialer“ Medien zu regulieren.

Schon kurz nach Riepls Feststellung entstand in der Weimarer Republik 1920 ein Lichtspielgesetz, das auch an die Kinder damals dachte und Kinofilme entsprechend kontrollierte. „Bildstreifen“, die Jugendlichen unter 18 Jahren vorgeführt werden sollten, bedurften einer speziellen Zulassung. Die Sorge damals schon: Die Inhalte könnten „eine schädliche Einwirkung auf die sittliche, geistige oder gesundheitliche Entwicklung oder eine Überreizung der Phantasie der Jugendlichen“ haben.

Jugendschutz durch Regulierung von Inhalten wurde dann in der Folge etwa durch die FSK in der Bundesrepublik durchgeführt, die seit mehr als 75 Jahren immer noch Kinofilme prüft und mit Altersempfehlungen versieht.

Der Versuch der staatlichen Regulierung von medialen Inhalten ist also nicht neu. Er hat sich über die Jahre auch immer weiter an die mediale Vielfalt angepasst, sei es mit dem Aufkommen von Computerspielen als auch mit dem eher zweifelhaften Versuch, Internetinhalte hinter eine Art digitalen Jugendschutzvorhang zu stellen. Dabei ging es bei allen Versuchen der Regulierung bis zur Zensur von Medien bisher immer um die eigentlichen Inhalte.

Engagement

Bei den Regulierungsversuchen „sozialer“ Medien bedarf es nicht einer Betrachtung der eigentlichen Inhalte, es müsste um den Versuch gehen, die Medien selbst in ihrer Funktionsweise zu regulieren. Die Moderation von Inhalten ist zwar ein Teil des Problems, aber für die Bewertung von Inhalten gibt es ja bereits etablierte Methoden. Das ist medienhistorisch betrachtet dann doch neu und erklärt vielleicht auch ein wenig, warum die Versuche eines Social-Media-Verbots eher ungelenk wirken.

Kinos wurden bisher ja selten dazu aufgefordert, „keine bequemen Sessel nutzen zu dürfen, die das Ansehen von Filmen mit mehr als zwei Stunden fördern“. Einfach, weil Kino keine starken manipulativen Patterns verwendet, um den eigentlichen Konsum zu steigern und Menschen kontinuierlich „an den Kinosessel zu fesseln“. Erfahrungen zur Regulierung des Zugangs zu Inhalten sind seit Jahrzehnten mit unterschiedlichem Erfolg vorhanden, Erfahrungen in der Regulierung von Funktionen von Plattformen wie „sozialen“ Medien eben nicht.

„Soziale“ Medien erfordern eher eine differenzierte Betrachtung ihrer aufmerksamkeitsbindenden Verhaltensmuster und diversen Dark Patterns. Denn medientheoretisch betrachtet handelt es sich bei „sozialen“ Medien um eine immer extremer werdende Form von Lean-Forward- bzw. Lean-In-Medien. Medien, die auf eine starke aktive Auseinandersetzung mit ihnen abzielen. Im Gegensatz zu einem Kinofilm oder einer Fernsehdokumentation braucht es hier sehr starke aktive Handlungen, um die Inhalte zu konsumieren. Aktive Handlungen wie Likes oder Kommentare, die wiederum zu einer noch stärkeren Personalisierung und damit zu einem weiteren stärkeren Engagement führen. Der Versuch, das mit einer Alterskontrolle regulieren zu wollen, geht am eigentlichen Kern des Problems vorbei.

Ganz abgesehen davon, dass Alterskontrolle bislang bei Medien eh nie so ganz vollständig durchgesetzt werden konnte. Erfahrungen aus Australien zeigen, dass Altersschranken für Social Media eher zu mehr Kreativität in der Umgehung der Schranken geführt haben als zu einer wirksamen Regulierung der schädlichen Wirkungen.

Schwer zu sagen, ob Wolfgang Riepl 1913 schon absehen konnte, was die heute größte Gefahr der Verdrängung von Medienformen sein würde. Dass diese nicht zwangsläufig in eher technischen Gründen liegt, sondern in der Art und Weise, wie bestimmten Medienformen durch ihre Beschaffenheit anderen Medienformen schlicht und ergreifend alle Aufmerksamkeit entziehen wollen. In einer Aufmerksamkeitsökonomie, bei der soziale Medien mit besonders ausgereiften Methoden Aufmerksamkeit binden, geht es systematisch um Sucht. Oder um es mit Georg Franck zu sagen: „Die Aufmerksamkeit anderer Menschen ist die unwiderstehlichste aller Drogen.“

Unabhängig, ob bei dem Versuch einer Regulierung von Social-Media-Plattformen sinnvolle Maßnahmen ergriffen werden oder nicht, ist Engagement aber auch eine Triebfeder weiterer, sich schädlich verhaltender Formen von Medienkonsum oder Medienerzeugung, nämlich eines Umgangs mit Medien, der gerade mit sogenannter Künstlicher Intelligenz entsteht. Sie seien im Folgenden kurz generative Medien genannt.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Superfans

Der Musiker Adam Neely hat sich Anfang Februar sehr ausführlich und sehenswert mit diversen Aspekten der generativen Musikplattform Suno beschäftigt. Bemerkenswert ist dabei der Fokus der Macher von Suno auf Engagement und interaktive „Musikerfahrungen“. Mikey Shulman, CEO von Suno, schweben eine Art Multiplayer-Mode-Experience von Musik und ziemlich viele andere Buzzwords vor. Shulman entwertet in öffentlichen Aussagen Musik als Kunstform, findet, dass Musikmachen schwer sei, und dass mit generativen KI-Tools musikalische Fähigkeiten, etwa ein Instrument spielen zu können, nicht mehr relevant sein würden. Es würde nur noch um guten Geschmack gehen.

Suno selbst möchte aber zu einer Plattform für sogenannte Superfans werden, Fans also, die sich besonders intensiv mit Künstler*innen auseinandersetzen. Am Ende geht es dabei nicht um hohe Kunst, es geht um besonders viel und intensives Engagement. Also genau um die gleichen Patterns, die schon bei Social-Media-Plattformen zu einer gefährlichen Abhängigkeit der Nutzenden führen können.

Die Technik hinter generativen Medienplattformen wie Suno ist dabei aber bereits eine extrem weit fortgeschrittene Form von Verdrängungsversuchen bisheriger Medienformen und der bisherigen Urheber, sei es in Filmen, Musik oder Bildern. Generative KI ist voll von Plagiaten, die Hersteller befinden sich in mehreren Klageverfahren, etwa in Auseinandersetzungen mit der GEMA in Deutschland.

KI bedroht wegen vermeintlicher Effizienzgewinne eine ganze Reihe von bisher notwendigen Medienberufen, sei es im Lektorat, in der Synchronisierung von Inhalten oder bei Darstellenden. Inhalte werden noch stärker auf besonders hohe wirtschaftliche Chancen oder Passgenauigkeit für ein bestimmtes Genre optimiert, etwa durch die Analyse von Manuskripten durch KI.

All das hat nichts mit Empowerment von Menschen zu tun, wie viele Plattformen oftmals behaupten. Es verstärkt Gatekeeping, erhöht den Kostendruck in der eh schon schwankend gut finanzierten Medien- und Kulturbranche und fördert die Gewinne einiger weniger Anbieter und Plattformen.

Gehen schon die aktuelle Diskussion und die Lösungsvorschläge um ein Social-Media-Verbot am eigentlichen Kern des Problems vorbei, nämlich der Regulierung von Social-Media-Plattformen selbst, so dürften auf Engagement optimierte generative Medienplattformen aufgrund ähnlicher Geschäftsinteressen das nächste größere Problem werden.

Entgegen dem, was Riepl 1913 vermutete, könnte sogar eine weit schlimmere Verdrängung stattfinden. Auf mit Dark Patterns versehenen Plattformen gibt es nur noch eine Vielzahl generativer Medien, wie etwa mit KI generierte Musik oder Videos. Diese nehmen Medienschaffenden, Künstler*innen und damit in Verbindung stehenden Berufsgruppen nicht nur immer mehr die Aufmerksamkeit weg, sie bestehlen sie ihrer Schöpfungen und verdrängen diese sogar, sodass bis auf wenige große Kunstschaffende nur noch die sprichwörtliche brotlose Kunst bleibt.

Dann wäre Riepl zwar endgültig widerlegt, wir wären aber auch einer vielfältigen und menschlichen Medien- und Kulturlandschaft beraubt. Gegen diese Gefahren hilft nur Regulierung, keine Verdrängung.



Source link

Datenschutz & Sicherheit

VMware Tanzu Spring Boot: Angreifer können auf Endpoints zugreifen


Angreifer können an mehrere Sicherheitslücken in VMware Tanzu Spring Boot ansetzen und Instanzen im schlimmsten Fall vollständig kompromittieren. Sicherheitsupdates sind verfügbar. Derzeit gibt es seitens des Softwareherstellers keine Berichte, dass Angreifer die Lücken bereits ausnutzen.

Weiterlesen nach der Anzeige

Die Entwickler versichern, die Sicherheitsprobleme in den Ausgaben 3.5.14 und 4.0.6 gelöst zu haben. Sie weisen zusätzlich darauf hin, dass auch nicht mehr im Support befindliche Versionen verwundbar sind. An dieser Stelle müssen Admins auf eine noch untersützte Version upgraden.

Insgesamt wurden neun Schwachstellen geschlossen. Wie aus einer Warnmeldung hervorgeht, ist eine (CVE-2026-40976) mit dem Bedrohungsgrad „kritisch“ eingestuft. Weil die Authentifizierung nicht verlässlich funktioniert, können Angreifer auf alle Endpoints zugreifen.

Damit eine solche Attacke klappt, müssen aber mehrere in der Warnmeldung aufgelisteten Voraussetzungen erfüllt sein. So muss es sich etwa um eine Servlet-basierte Web-Anwendung handeln. Wie ein derartiger Angriff im Detail ablaufen könnte, ist bislang unklar.

Ferner können Angreifer noch unter anderem aus der Ferne Schadcode ausführen (CVE-2026-40972 „hoch“) oder Instanzen dazu bringen, sich mit bösartigen Hosts zu verbinden (CVE-2026-40974 „mittel“).

Weitere Informationen zu den geschlossenen Softwareschwachstellen und bedrohten Versionen finden Admins in den verlinkten Warnmeldungen. Liste nach Bedrohungsgrad absteigend sortiert:

Weiterlesen nach der Anzeige

Zuletzt haben die Entwickler mehrere Sicherheitslücken in VMware Tanzu Spring Security geschlossen.


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Angriffe auf SimpleHelp, Samsung MagicINFO und D-Link DIR-823X beobachtet


Die US-amerikanische IT-Sicherheitsbehörde CISA hat Angriffe auf SimpleHelp, Samsung MagicINFO und D-Link DIR-823X beobachtet. Die angegriffenen Sicherheitslücken sind teils ein wenig älter.

Weiterlesen nach der Anzeige

In der Warnung der CISA listet die Behörde die Schwachstelleneinträge auf. Am gravierendsten scheinen zunächst die aktuell laufenden Angriffe auf Lücken im Fernwartungstool SimpleHelp RMM. Eine davon erlaubt Angreifern mit niedrigen Rechten, API-Schlüssel mit weitreichenden Rechten zu erstellen und so die Server-Admin-Rolle zu erlangen (CVE-2024-57726, CVSS 9.9, Risiko „kritisch“). Die andere ermöglicht das Hochladen von manipulierten ZIP-Dateien, die Dateien an beliebige Stellen des Dateisystems verfrachten und so das Ausführen eigenen Codes mit den Rechten des SimpleHelp-Servers erlaubt (CVE-2024-57728, CVSS 7.2, Risiko „hoch“). Version 5.5.8 oder neuere korrigieren die Probleme. Die Sicherheitslücken wurden jedoch bereits im Januar 2025 angegriffen. Offenbar haben einige Admins die verfügbaren Aktualisierungen immer noch nicht angewendet.

Samsung MagicINFO 9 Server ist eine Digital-Signage-Plattform zur Steuerung von Displays in Unternehmen und öffentlichen Einrichtungen. Aufgrund einer Schwachstelle können Angreifer beliebige Dateien auf das System schreiben, mit System-Rechten. Das erlaubt offenbar das Ausführen von eingeschleustem Code. Die Lücke CVE-2024-7399 (CVSS 9.8, Risiko „kritisch“) ist bereits etwas älter, Samsung hat sie mit einem Update im August 2024 bedacht. Das Aktivieren des automatischen Updates über „Menü“ – „Support“ – „Software-Update“ sollte die Aktualisierung finden und auf das Gerät befördern.

Auf die D-Link-Router DIR-823X haben es bösartige Akteure ebenfalls abgesehen. Darin können Angreifer aus dem Netz nach einer Anmeldung beliebige Befehle ausführen (CVE-2025-29635, CVSS 7.2, Risiko „hoch“). Der Support für diese Router ist jedoch am 15. November 2024 bereits ausgelaufen. Wer solch ein veraltetes Gerät noch in der IT-Umgebung hat, sollte es schleunigst durch ein Gerät ersetzen, das vom Hersteller mit Sicherheitsupdates versorgt wird. Der Cloud- und Sicherheitsanbieter Akamai hat vergangene Woche über Angriffe auf D-Link-Router durch das Mirai-Botnetz berichtet, das sich auf diesen veralteten Geräten ausbreitet. Das Unternehmen stellt Snort- und Yara-Regeln bereit, mit denen sich bekannte Angriffe und Malware erkennen lassen.

Zu den anderen aktuellen Angriffen sind keine weiteren Informationen etwa zu Art, Umfang oder Indizien für erfolgreiche Angriffe (Indicators of Compromise, IOC) bekannt. IT-Verantwortliche sollten die bereitstehenden Aktualisierungen aber zügig anwenden.


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Das Internet stirbt – netzpolitik.org


Das Internet und seine Plattformen werden immer weniger von Menschen, sondern stattdessen von Bots bevölkert. Die meisten Interaktionen und Inhalte, die wir online sehen, sind automatisiert erstellt und verbreiten sich automatisiert. Menschen werden im Internet zur Minderheit. Das Internet ist deshalb längst „tot“ oder wird bald sterben. Das sagt zumindest die „Dead Internet Theory“.

Mittlerweile drängt sich der Eindruck auf, dass die verschwörungsmythisch angehauchte Theorie in Teilen nicht ganz falschliegt.

Content, der sich zum Obst macht

Was wir in sozialen Medien derzeit vor allem sehen, sind immer mehr automatisiert generierte Inhalte. Offensichtlich maschinell erstellte Kommentare und KI-generierte Videos fluten unsere Feeds. Besonders häufig tauchen dabei KI-Videos von Früchten oder Katzen auf, die stark emotionalisierte und oftmals fragwürdige Handlungen darstellen.

Die Zigtausend Clips erzählen meist die gleichen Geschichten, die in der Regel keinen Sinn ergeben. Dennoch werden die Videos teils millionenfach geklickt. In den vergangenen Wochen berichteten zahlreiche Medien über den vermeintlich neuen Trend. Das Phänomen vollkommen sinn- und inhaltsloser Videos ist jedoch mindestens so alt wie der „Italian Brainrot“-Trend zu Beginn des Jahres 2025.

All diese Videos erfüllen vor allem einen Zweck: Die Betreiber haben ein Interesse daran, dass möglichst viele Menschen möglichst viel Zeit auf ihren Plattformen verbringen. Je mehr Zeit wir auf den Plattformen verbringen, desto mehr Daten geben wir preis, desto mehr bezahlte Werbung bekommen wir angezeigt und desto wahrscheinlicher ist es, dass wir Geld auf den Plattformen ausgeben.

Alles netzpolitisch Relevante

Drei Mal pro Woche als Newsletter in deiner Inbox.

Maschinen, die uns unterhalten sollen

Bei der Ökonomisierung menschlicher Aufmerksamkeit ist es ziemlich egal, mit welcher Art von Beiträgen diese erzeugt wird. Und so schlecht eine Content-Form auch sein mag: Wenn Tausende solcher Videos hochgeladen werden, stehen die Chancen nicht schlecht, dass zumindest eines der Videos viral geht – selbst dann, wenn es inkohärente Geschichten mit KI-Obst in den Hauptrollen sind. Und je mehr Content es gibt, desto mehr Content kann konsumiert werden und desto mehr Profitoptionen ergeben sich für die Betreiber.

Insofern können Maschinen auf sozialen Medien die Hauptproduzenten von Inhalten sein. Gleichzeitig erstellen Maschinen nicht nur die originalen Posts, sondern kommentieren und teilen diese auch. Das Ergebnis sind Beiträge, die Maschinen erstellen und pushen, die möglichst viele menschliche Konsumenten erreichen sollen.

Die Wertlos-Maschinerie

Wenn Maschinen Menschen ablösen, stellt das die Plattformen jedoch vor ein Problem: Bots erstellen Inhalte, kommentieren, liken und teilen andere Beiträge – und das rund um die Uhr, unter Zugriff auf immer mehr Ressourcen. Das ist in etwa so, als würde ein Freizeitpark-Betreiber alle seine Fahrgeschäfte automatisieren und humanoide Roboter hineinsetzen, die Menschen dazu animieren, mitzufahren.

Die Aufmerksamkeit der Bots ist kommerziell nichts wert. Es gibt keine personalisierten Nutzerprofile von Bots, die man semilegal verkaufen kann. Ein Bot gibt auch kein Geld für beworbene Produkte aus. Und es lohnt sich wohl auch nicht, das Nutzungsverhalten eines Bots zu überwachen. Die Plattformbetreiber haben deshalb nichts davon, wenn sich in ihren Foren ausschließlich Bots gegenseitig entertainen. Wenn die Achterbahnwagen bis auf den letzten Platz nur mit Robotern gefüllt sind, ist alle Mühe umsonst.

Große digitale Dienste sind auf menschliche Konsument:innen angewiesen. Nur ihre Aufmerksamkeit erzeugt den Mehrwert, mit dem Plattformbetreiber ihr Geld verdienen. Wenn echte Menschen das Interesse an sozialen Medien verlieren, verliert auch der Maschinen-Freizeitpark seinen Sinn.

Die Entmenschlichung sozialer Medien

Diese Entmenschlichung sozialer Medien hat jedoch begonnen, lange bevor KI-generierter Content sie flutete. Neben KI-Obst, KI-Influencern und Tung tung tung Sahur existiert auf sozialen Medien massenweise Content, der von Menschen produziert ist. Dabei handelt es sich vor allem um Inhalte von besonders großen Accounts, die uns ihre Erzählungen wie eine Fernsehserie präsentieren. Schon das hat mit der eigentlichen Idee hinter den sozialen Medien nur noch wenig zu tun.

Wir sind ein spendenfinanziertes Medium.

Unterstütze auch Du unsere Arbeit mit einer Spende.

Soziale Medien sollten – zumindest aus Nutzer:innenperspektive – ursprünglich ein Ort sein, an dem wir mit unseren Freund:innen in Kontakt bleiben können. Doch ihre Accounts nehmen wir kaum noch wahr. Ein Großteil unserer Feeds besteht längst aus Beiträgen von Personen, die wir nicht kennen und maschinell generierten Inhalten. Das macht die Nutzererfahrung auf sozialen Medien immer unmenschlicher und unpersönlicher.

Dennoch ist Plattformbetreibern daran gelegen, dass Nutzer:innen den Eindruck haben, auf sozialen Medien noch mit ihren Bekannten zu interagieren. So hat Instagram vor wenigen vergangenen Jahren ein kleines Icon eingeführt, das Nutzer:innen anzeigt, wenn ein Bekannter einen anderen Beitrag reposted oder kommentiert. Das kann die zwischenmenschliche Verbindung, die soziale Medien einst schaffen sollten, jedoch nicht ersetzen.

Maschinen können Menschen nicht ersetzen

Die maschinelle Erstellung von Inhalten ist, menschlich gesehen, wertlos. Und sie widerspricht dem menschenzentrierten Grundgedanken sozialer Medien: eine digitale Welt von Menschen für Menschen zu schaffen, mit deren Hilfe wir uns vernetzen und einander näherkommen.

Eine digitale Welt, in der hauptsächlich Bots mit Hilfe sogenannter künstliche Intelligenz miteinander interagieren, führt die Idee sozialer Medien endgültig ad absurdum. Setzt sich diese Entwicklung weiterhin ungehemmt fort, werden Orte, die einst dem digitalen Austausch dienten, obsolet.

Tot ist das Internet, wie wir es kennen, sicher lange noch nicht. Das heißt aber nicht, dass es den Maschineninhalten nicht doch irgendwann zum Opfer fallen wird.



Source link

Weiterlesen

Beliebt