Datenschutz & Sicherheit
Debian macht ernst: Nur noch reproduzierbare Pakete in „testing“
Debian verschärft für die kommende Version 14 („Forky“) seine Qualitätsanforderungen deutlich: Pakete dürfen nur noch dann nach „testing“ wandern, wenn sie sich reproduzierbar bauen lassen. Das hat das Debian-Release-Team angekündigt. Die entsprechende Migrationslogik ist bereits aktiv. Sie betrifft sowohl neue Pakete, die sich nicht reproduzieren lassen, als auch bestehende Pakete, deren Reproduzierbarkeit sich verschlechtert hat.
Weiterlesen nach der Anzeige
Was reproduzierbare Builds leisten
Reproduzierbare Pakete („reproducible builds“) erzeugen aus identischem Quellcode und in gleicher Build-Umgebung bit-identische Binärpakete. Damit werden Build-Prozesse nachvollziehbar und manipulationssicher. Unterschiede zwischen zwei Builds lassen sich so eindeutig auf echte Änderungen oder mögliche Manipulationen zurückführen.
Nicht reproduzierbare Builds entstehen oft durch banale Faktoren: Zeitstempel, zufällige Build-IDs oder eine nichtdeterministische Reihenfolge von Dateien. Zwei Builds desselben Quellcodes können dadurch unterschiedliche Binärdateien erzeugen, obwohl sich funktional nichts geändert hat. Reproducible Builds eliminieren solche Unterschiede systematisch, etwa durch normierte Zeitstempel oder ein deterministisches Packaging.
Vom Qualitätsziel zur Release-Voraussetzung
Debian arbeitet bereits seit Jahren mit dem Reproducible-Builds-Projekt an entsprechenden Mechanismen. Neu ist, dass Reproduzierbarkeit nicht mehr nur als Qualitätsziel gilt, sondern direkt über die Paketmigration nach „testing“ entscheidet. Damit macht die Distribution reproduzierbare Builds faktisch zur Voraussetzung für den regulären Release-Prozess. Den aktuellen Reproduzierbarkeitsstatus aller Pakete listet reproduce.debian.net auf.
Parallel baut Debian seine automatisierten Tests aus. Laut Release Team prüft die CI-Infrastruktur inzwischen auch sogenannte binNMUs automatisch mit autopkgtests. Dabei handelt es sich um reine Neuübersetzungen von Binärpaketen ohne Änderungen am Quellcode, etwa nach ABI-Übergängen oder neuen Bibliotheksversionen. Bislang lag der Fokus der Tests vor allem auf klassischen Source-Uploads.
Weiterlesen nach der Anzeige
Längere Warteschlangen durch loong64
Die neue Architektur loong64 sorgt derzeit vor allem für längere Warteschlangen in Debians Build- und Testinfrastruktur. Weil viele Pakete auf allen Architekturen neu gebaut werden mussten und Debian nun auch binNMUs per autopkgtest prüft, dauert die Migration nach „testing“ derzeit länger.
Zugleich erinnert Debian die Maintainer daran, dass sie selbst für die erfolgreiche Migration ihrer Pakete nach „testing“ verantwortlich bleiben. Blockieren fehlgeschlagene autopkgtests in Reverse-Dependencies die Migration, sollen die Maintainer entsprechende Release-Critical-Bugs melden.
Lesen Sie auch
(fo)
Datenschutz & Sicherheit
„Gemeinsam kämpfen“: Das sagen Pornodarsteller*innen zur Deepfake-Flut
Ana Ornelas hat viel zu tun in diesen Monaten. Sie ist Policy Officer für die European Sex Workers’ Rights Alliance, einem Netzwerk für die Rechte von Sexarbeiter*innen, und spricht mit EU-Abgeordneten über die Regulierung von KI. In Workshops informiert sie ihr Netzwerk über geplante Alterskontrollen im Netz. Und im Auftrag von AlgorithmWatch untersucht sie, wie Sexarbeiter*innen von sogenannten Nudifier-Apps betroffen sind. Mit diesen Apps können Nutzer*innen Aufnahmen manipulieren, sodass eine abgebildete Person nackt wirkt.
Es geht also um sexualisierte Deepfakes und um digitale Gewalt: Themen, über die in den vergangenen Wochen in Deutschland sehr viel gesprochen wurde. In den Tagen nach der Veröffentlichung einer Spiegel-Recherche zum Fall der Schauspielerin Collien Fernandes meldeten sich viele weitere Betroffene, etwa die Klimaaktivist*innen Luisa Neubauer und Theresia Crone. Im aktuellen Fall von Fernandes geht es zwar nicht um Deepfakes, sondern um Fake-Accounts, die ihr Ex-Mann erstellt haben soll – das haben später auch die Anwälte von Christian Ulmen klargestellt. Da war die Debatte zum Thema aber schon im vollen Gange.
Ob bei Caren Miosga oder in den Tagesthemen, plötzlich ging es vielerorts um digitale Gewalt und die Pläne der Bundesregierung für ein neues Gesetz, das unter anderem das Erstellen von sexualisierten Deepfakes unter Strafe stellen soll.
Wer dabei kaum zu Wort kam: Pornodarsteller*innen. Dabei spielen sie eine zentrale Rolle. Würden ihre Aufnahmen nicht als sogenanntes Trainingsmaterial für KI-Systeme genutzt, ließen sich sexualisierte Deepfakes gar nicht erst erstellen. Ihre Zustimmung dafür haben sie ebenso wenig erteilt wie die Betroffenen, deren Gesichter nun in den Deepfakes zu sehen sind. Zugleich werden Pornodarsteller*innen ebenfalls zum Ziel nicht-einvernehmlicher Deepfakes, berichtet Ana Ornelas im Interview mit netzpolitik.org.
Selbstbestimmung verletzt
netzpolitik.org: Für manche sexualisierte Deepfakes montieren Nutzer*innen das Gesicht einer Person in eine bereits existierende Pornoszene. Was heißt das für die ursprünglichen Darsteller*innen?
Ana Ornelas: Das ist einerseits nichts Neues. Es gab früher schon viele Pornoseiten, die die Gesichter von Prominenten auf die Körper von Pornostars montiert haben. Aber mit der heutigen Technologie wirkt das Ergebnis viel realistischer. Es ist teils nicht mehr zu unterscheiden, was echt ist und was gefälscht.
Darsteller*innen werden dadurch doppelt zum Opfer. Erstens wird, wie bei allen anderen Betroffenen auch, ihr Bild und ihr Körper auf eine Weise genutzt, der sie nicht zugestimmt haben. Und zweitens ist es Diebstahl. Für Pornodarsteller*innen sind ihr Körper und die Inhalte, die sie damit produzieren, ihr Lebensunterhalt. Wenn diese Inhalte gestohlen oder kopiert werden, um Deepfakes zu erstellen, hat das direkte Auswirkungen auf ihr Einkommen.
netzpolitik.org: Wie das?
Ana Ornelas: Menschen erstellen etwa Deepfake-Versionen von bekannten Darsteller*innen und geben sich auf OnlyFans oder in Telegram-Kanälen als diese aus. Da geht es schlicht um Geld, sie wollen selbst an den Inhalten verdienen und schädigen damit das Geschäft.
netzpolitik.org: Consent – also Einverständnis – spielt in der Pornobranche eine große Rolle: Mit wem man arbeitet, welche Art von sexuellen Handlungen stattfindet, wer das Material verbreiten darf. Deepfakes unterwandern dieses Prinzip, weil sie meist ohne Zustimmung entstehen. Was bedeutet das für Darsteller*innen?
Ana Ornelas: Nur weil man Nacktbilder von sich im Internet hat, heißt das noch lange nicht, dass damit alles erlaubt wäre. Vielleicht stimmt eine Darsteller*in einer bestimmten sexuellen Handlung zu, aber zeigt diese nur hinter einer Paywall oder schickt sie direkt an Kund*innen. Sie hat das Recht darüber zu entscheiden, wie, wo und mit wem sie ihre Inhalte teilt. Sich an ihren Inhalten einfach zu bedienen, verletzt diese Selbstbestimmung.
netzpolitik.org: Mehr noch, Menschen nutzen Aufnahmen von Pornodarsteller*innen als Vorlage für bildbasierte Gewalt. Was sagen Darsteller*innen dazu?
Ana Ornelas: Sexarbeiter*innen sind leider sehr vertraut damit, dass ihre Grenzen überschritten werden und ihre Privatsphäre verletzt wird. Sie kennen auch die Erfahrung, in solchen Situationen nicht ernst genommen zu werden. Sie können sich also sehr gut in andere Betroffene einfühlen, denen das passiert.
„Sexarbeiter*innen wurden zu oft in die Pfanne gehauen“
netzpolitik.org: Die Debatte kreist oft um die Technologie, aber sind Nudifier-Apps und die ihnen zugrunde liegenden KI-Modelle wirklich das Problem?
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Ana Ornelas: Aus meiner Sicht: Nein. Meine Sorge ist, dass wir uns zu sehr auf die Ergebnisse fokussieren: Welche Arten von Deepfakes sollten erlaubt oder verboten sein? Wir sollten stattdessen mehr auf die Datenbanken schauen und darauf, wie diese Daten ohne Zustimmung geklaut werden.
netzpolitik.org: Die KI-Modelle hinter Nudifier-Apps basieren auf riesigen Mengen an Bildern und Videos, dem sogenannten Trainingsmaterial. Es stammt oftmals von Pornoplattformen, ohne Wissen und Zustimmung der gezeigten Personen. Wäre es auch möglich, sexualisierte Deepfakes einvernehmlich und gewaltfrei zu generieren?
Ana Ornelas: Ja. Darsteller*innen könnten ihre Bilder etwa gegen Bezahlung an eine Datenbank geben, mit der ein solches Modell trainiert wird. Sie würden für ihre Arbeit entlohnt und könnten zugleich die Kontrolle darüber behalten, welche Art von Inhalten damit generiert werden darf. Sie könnten zum Beispiel sagen, dass mit ihrem Material keine Szenarien von Pet Play erstellt werden dürfen, das sind erotische Rollenspiele, in denen ein Partner ein Tier spielt.
So ein Ansatz würde auch andere schützen. Denn das Trainingsmaterial für Deepfake-Generatoren stammt ja nicht nur aus Pornos. Viele der sogenannten Nudifier-Apps erstellen neben vermeintlichen Nacktbildern auch Bikini-Bilder. Diese reichen je nach Kontext oft schon aus, um jemanden gezielt anzugreifen und zu beschämen.
Das Trainingsmaterial dafür stammt von Instagram und Facebook, es wird dort ebenfalls ohne Zustimmung gescrapt. Wenn also jemand dein Bikini-Foto am Strand einsetzt, um ein Modell zu trainieren und mit diesem Modell ein Bikini-Bild einer anderen Person ohne deren Zustimmung zu generieren, wirst du davon nie erfahren.
netzpolitik.org: Einvernehmliche Datensets für sexualisierte Deepfakes – wie realistisch ist das?
Ana Ornelas: Technisch gesehen wäre das kein Problem. Wir sind dazu im Austausch mit einer Plattform für Trainingsdaten, die genau so eine Form von Einvernehmlichkeit und Kontrolle zulassen soll. Kollektive können dort selbst bestimmen: Wofür werden die Daten eingesetzt, wie viel sollen sie kosten?
Die Herausforderung liegt woanders: Sexarbeiter*innen wurden einfach zu oft von Tech-Konzernen in die Pfanne gehauen. Es würde also sehr viel Arbeit erfordern, um die Community von dieser Idee zu überzeugen.
„Frauenfeindlichkeit hindert Betroffene, gemeinsam zu kämpfen“
netzpolitik.org: Sexualisierte Deepfakes waren in Deutschland für ein paar Wochen Top-Thema. Endlich kamen Betroffene zu Wort, in Talkshows, Nachrichten und auf Bühnen. Von den betroffenen Darsteller*innen hat man aber kaum gehört. Warum?
Ana Ornelas: Die Öffentlichkeit sieht Pornodarsteller*innen im Allgemeinen nicht als Opfer – und ganz besonders nicht in diesem Fall. Die Mentalität ist: Deine Nacktaufnahmen sind doch eh im Internet, was hast du denn erwartet?
netzpolitik.org: Dabei ist die gemeinsame Betroffenheit doch eindeutig?
Ana Ornelas: Absolut. Wenn ich mit Überlebenden von Gewalt spreche, dann sind die Erfahrungen oft sehr ähnlich, egal ob es um Leute außerhalb der Szene geht oder um Sexarbeiter*innen. Die beschreiben das Gleiche: Ein Gefühl von Kontrollverlust oder dass ihnen ihr Körper nicht mehr gehört. Beide Seiten kennen auch diese Erfahrung, gesagt zu bekommen, man sei selbst Schuld an der Gewalt. Denn auch Nicht-Sexarbeiter*innen bekommen ja inzwischen zu hören: Warum hast du denn überhaupt Fotos von dir im Bikini im Internet veröffentlicht?
netzpolitik.org: Woran scheitert die Solidarität?
Ana Ornelas: Die meisten wollen nicht wie Sexarbeiter*innen behandelt werden, weil sie wissen, dass das eine schreckliche Behandlung ist. Sexualisierte Deepfakes stellen hier eine Bedrohung dar, denn es geht dabei auch um die Angst, dass es jede Frau treffen könnte – unabhängig davon wie “brav” sie ist oder wie sehr sie sich an die im Patriarchat vorgeschriebenen Grenzen von Sexualität und Lust hält. Die Botschaft ist: Deine Sexualität kann als Waffe gegen dich eingesetzt werden, unabhängig von deinem Verhalten.
Wir sind ein spendenfinanziertes Medium.
Unterstütze auch Du unsere Arbeit mit einer Spende.
Das heißt auch: Jede Frau kann jetzt wie eine Sexarbeiterin behandelt werden und die gleiche schreckliche Behandlung erfahren. Das will natürlich niemand, und so läuft hier ein erfolgreicher misogyner Mechanismus von “Teile und herrsche”.
Das alles ist übrigens nicht neu. Diese Spaltung zwischen vermeintlich respektablen Frauen und Sexarbeiter*innen passiert ja seit Jahrhunderten. Jetzt passiert es eben nur anhand einer neuen Technologie.
Deswegen frustriert es mich, dass wir über Deepfakes vor allem als technologisches Problem sprechen, das auf einer technischen Ebene gelöst werden kann. Wir sollten viel mehr über die darunter liegende Frauenfeindlichkeit sprechen. Frauenfeindlichkeit ist auch die Ursache für diese Kluft zwischen den Betroffenen, und hindert sie daran, sich zusammenzuschließen und gemeinsam zu kämpfen.
netzpolitik.org: Was würden Sie sich wünschen?
Ana Ornelas: Projekte und Selbsthilfegruppen könnten Sexarbeiter*innen öfter dazu einladen, ihre Erfahrungen und Perspektive zu teilen. Ich verstehe die Angst ziviler Betroffener, mit Sexarbeiter*innen in einen Topf geworfen zu werden. Aber wenn ich mir die Gespräche von beiden Seiten anhöre, gibt es tatsächlich viel mehr Gemeinsamkeiten als sich viele vorstellen. Wenn es also mehr sichere Räume für diesen Austausch gäbe, wäre das meiner Meinung nach hilfreich.
Mit neuen Gesetzen gegen Deepfakes
netzpolitik.org: In Deutschland hat das Bundesjustizministerium gerade einen Gesetzentwurf vorgelegt, der das Erstellen und Teilen von sexualisierten Deepfakes unter Strafe stellen soll. Die Täter*innen sollen mit bis zu zwei Jahren Haft bestraft werden. Halten Sie das für hilfreich?
Ana Ornelas: Derzeit sprechen wir nicht genug über die Täter*innen. Die Opfer werden aber von Menschen geschädigt, nicht von der Technologie.
Gleichzeitig sollten wir auf die finanzielle Motivation schauen, die dazu führt, dass etwa solche Nudifier-Apps angeboten werden. Die Verantwortlichen bieten ihre Apps teils unter täglich wechselnden Namen in den App Stores an, sie betreiben großen Aufwand und sie verdienen sehr viel Geld damit.
netzpolitik.org: Auf EU-Ebene haben sich Rat und Parlament gerade auf eine Vorschrift zu sexualisierten Deepfakes in der KI-Verordnung geeinigt. Verboten sind demnach KI-Anwendungen, mit denen man nicht-einvernehmlichen Deepfakes erstellen kann. Hat die EU Ihren Verband hierzu konsultiert?
Ana Ornelas: Ja, wir geben Rückmeldung zu den Vorschlägen. Ich freue mich sehr, dass der Fokus der Entwürfe von Parlament und Rat auf der fehlenden Zustimmung der Betroffenen liegt; das ist ein großer Schritt vorwärts. Gleichzeitig sollen Ausnahmen vom Verbot geschaffen werden. So soll es etwa erlaubt sein, Deepfakes zu erstellen, wenn die gezeigte Person nicht identifizierbar ist. Das halte ich für einen Fehler.
netzpolitik.org: Ihr Verband hat vor Kurzem eine Umfrage unter Sexarbeiter*innen gemacht, um deren Perspektiven auf Deepfakes abzufragen. Was kam dabei heraus?
Ana Ornelas: Der Bericht dazu ist noch nicht öffentlich. Was ich aber schon sagen kann: Die Community ist da sehr geteilt. Manche sind sehr optimistisch, was das Thema angeht. Sie sehen es vor allem als neue Möglichkeit, um Einnahmen zu generieren. Andere sind sehr besorgt und wünschen sich ein Verbot, zweifeln aber zugleich daran, dass Verbote tatsächlich helfen könnten. Es herrscht viel Unsicherheit, wie in der ganzen Gesellschaft. Wir sehen auch, dass die Technologie bereits gegen Sexarbeiter*innen eingesetzt wird, dass sie etwa mit Hilfe von Deepfakes erpresst werden.
netzpolitik.org: Wie können sich Darsteller*innen vor Deepfakes schützen?
Ana Ornelas: Sie tauschen sich untereinander aus, warnen sich etwa gegenseitig vor Kund*innen, die im Verdacht stehen, ihre Inhalte hinter der Paywall in andere Kanäle oder ins öffentliche Internet zu leaken. Manche experimentieren mit Fingerprinting-Technologien, um ihr Material zu kennzeichnen. Auch wir sind aber derzeit vor allem auf der Suche nach Lösungen dafür, wie wir mit diesen Technologien umgehen.
Datenschutz & Sicherheit
JDownloader verteilte Malware-Downloads | heise online
Die Webseite des recht populären Downloader-Tools JDownloader wurde kompromittiert. Sie hat dadurch falsche Installationspakete ausgeliefert, die mit Malware verseucht sind. Inzwischen haben die Betreiber die Webseite bereinigt. Auch bei den Daemon Tools gab es solch einen Vorfall; inzwischen haben auch dort die Inhaber reagiert und stellen nun saubere Installer bereit.
Weiterlesen nach der Anzeige
Das JDownloader-Team hat eine Sicherheitsmeldung zu dem Vorfall veröffentlicht. Dort schreiben sie, dass Angreifer die Installer-Downloadlinks so verbogen haben, dass sie auf schädliche Dateien verwiesen haben – Berichten zufolge soll es sich um einen Python-basierten Remote Access Trojan (RAT) gehandelt haben. Betroffen waren die Download-Links unter „Download Alternative Installer“ und der Linux-Shell-Installer-Link. Die auf der JDownloader-Webseite liegenden Installationsdateien selbst wurden nicht verändert, sondern die Ziele der Links auf externe Server gesetzt. In-App-Updates waren nicht betroffen.
Nach Kenntnis des Vorfalls haben die Betreiber die Webseite offline genommen, die Sicherheitslücke geschlossen und die Links wieder auf die korrekten Dateien gesetzt. Daher sind die Downloads vom 6. und 7. Mai verseucht gewesen, seit dem 9. Mai ist die Webseite wieder mit sauberen Downloads online. Die konkrete Schwachstelle nennt das JDownloader-Team jedoch nicht. Es erklärt lediglich, dass die Änderungen an den Links und Seiten im CMS vorgenommen wurden, die Angreifer jedoch keinen Zugriff auf das Server-System erlangt haben, insbesondere nicht auf das Dateisystem. Die Sicherheitsmeldung listet Hinweise auf verseuchte Dateien in Form von Dateinamen, Dateigrößen und SHA256-Hashes, anhand derer Interessierte schauen können, ob ihr Download mit Malware infiziert ist.
Daemon Tools: Saubere Downloads verfügbar
Vergangene Woche wurde bekannt, dass die Daemon-Tools-Webseite ebenfalls Malware-Downloads verteilt hat. Zunächst blieb der Zustand auch so, aber die Betreiber haben auch dort reagiert und nach Bereinigung der Webseite einen nicht infizierten Download der Daemon Tools Lite 12.6 veröffentlicht. Die Untersuchungen dauern den Angaben der Betreiber zufolge an, um die Ursache und vollen Umfang des Vorfalls zu ermitteln, schreiben sie in einer Stellungnahme.
(dmk)
Datenschutz & Sicherheit
Degitalisierung: Fremde Autos – netzpolitik.org

Die heutige Degitalisierung möchte ich mit einer Erinnerung aus meiner Kindheit einleiten. Es müsste in der ersten Klasse gewesen sein, da passierte in der Schule etwas Besonderes: Der Videowagen, sehr selten genutzt, wurde in ein großes Klassenzimmer gefahren und zwei Schulklassen sammelten sich vor einem Fernseher. Es wurde eine Videokassette in den VHS-Player geschoben und ein Film in ziemlich hartkontrastigem Schwarz-Weiß wurde abgespielt. Was folgte, war ein uns Kinder durchaus aufrüttelnder Film. In ein paar Minuten wurde uns Kindern erklärt, wie gefährlich es sein kann, in fremde Autos zu steigen. Gefahr der Kindesentführung, nicht machen, liebe Kinder. Dass ich mich heute noch an Teile dieses Films und den Vorführungskontext so genau erinnern kann, zeigt doch zumindest, dass der Film eine Wirkung auf uns Kinder gehabt haben muss.
Ich bin inzwischen kein Kind mehr, was allein schon aus der Beschreibung von Videokassetten klar werden sollte. Videokassetten im VHS-Format sind ein Aufzeichnungs- und Wiedergabesystem aus den 1970er-Jahren. Viele von den Kindern bis Minderjährigen, die heute von Social Media abgehalten werden sollen, durch Altersverifikation mit teils absurd in die Intimsphäre eingreifenden Methoden, haben solche klobigen Kassetten vielleicht noch nie zu Gesicht bekommen und das Klackern und Surren beim Einlegen einer solchen Kassette nie gehört.
Wenn ich meine Erinnerungen an die Schulzeit in Gedanken über die Jahre weitergehe, kommt mir dann der Fahrradführerschein in der vierten Klasse in den Sinn. Ging es doch auch dabei darum, Kindern beizubringen, wie sie sich sicher eigenständig im Straßenverkehr mit Fahrrädern bewegen können. Auch hier wurde viel Aufwand betrieben. Ganze Schulklassen wurden mit einem extra bestellten Bus zum nächsten Fahrradübungsplatz gefahren und durften dort im Kleinen Situationen im Straßenverkehr simulieren, um dann hoffentlich möglichst sicher auf echten Straßen unterwegs zu sein.
Ein paar Jahrzehnte später bin ich diesen pädagogischen Maßnahmen dankbar. Weil ich bisher keine kritischen Konfliktsituationen hatte, bei denen Autos eine Rolle spielten. Sei es durch eine nie stattgefundene Entziehung Minderjähriger nach § 235 StGB, wie das kleine Kind von damals, das jetzt wohl als Erwachsene nennen sollte, noch durch Unfälle im Straßenverkehr auf Fahrrädern. Es ist nicht klar nachweisbar, ob es konkret die Erziehung war, die all diese kritischen Situationen vermieden hat. Sie hatte aber zumindest im Sinne eines Präventionsparadoxons, also dem Gar-nicht-Entstehenlassen solcher kritischen Situationen, einen Anteil.
Digitalpädagogik
2026 vermisse ich einen vergleichbaren Ansatz von umfassender Digitalpädagogik, wenn wir die Versuche von Gefahrenprävention in Bezug auf den Straßenverkehr mit dem Digitalen in Relation setzen. Aber automobile Individualmobilität gibt es auch eher schon seit mehr als hundert Jahren und dieses Internet ist ja immer noch Neuland.
Wie neuartig dieses Digitale und seine Gefahren immer noch sind, zeigt sich zum Beispiel bei Julia Klöckner, als Bundestagspräsidentin immerhin im zweithöchsten politischen Amt in diesem Land. Julia Klöckner ist digital gesehen in gewisser Weise, rein bildlich gesprochen, ganz unbedarft in ein fremdes Auto eingestiegen und ihr Account wurde dann eben entführt.
Nun ist es eine mögliche Reaktion, eine eher schadenfrohe Haltung Julia Klöckner gegenüber einzunehmen oder anderen wohl auch betroffenen Teilen der Bundesregierung. Zumal Warnungen zu Phishing-Kampagnen ja durchaus seit längerem ausgesprochen wurden. Eigentlich auch schon seit Januar, zumindest nach Lektüre der relevanten Onlinemedien wie diesem hier.
Alles netzpolitisch Relevante
Drei Mal pro Woche als Newsletter in deiner Inbox.
Allerdings wäre das ja nicht besonders erwachsen und ich bin ja kein schadenfrohes Kind mehr. Inzwischen bin ich im Bereich digitaler Kompetenzen ja digitale Erklärbärin – Eigenaussage meiner Webseite –, versuche immer wieder, nicht nur Technik zu erklären, sondern vor allem auch die Technikfolgen. Manchmal braucht es dazu auch eine sehr plastische, anschauliche Demonstration der Gefahren und möglichen Folgen schlechter Digitalisierung und manchmal sagen sogar ehemalige Teile der Bundesregierung, dass sie im Digitalen viel gelernt hätten. Das passiert aber oftmals erst, nachdem etwas passiert ist.
Im Falle Signal passiert aber erstaunlich wenig Selbstreflexion der Betroffenen. Vielmehr wird die Lösung in Verantwortung anderer gesucht. Signal will in Zukunft etwa selbst mehr gegen Phishing unternehmen. Der Bundestag sucht für sich die Lösung gleich in einem anderen Messenger, nämlich Wire.
Oberflächliche Diskussionen
Aus rein technischer Sicht könnte jetzt eine sehr nerdige Diskussion über die Sicherheit von Messengern und das damit verbundene Sicherheitsrisiko für Nutzer*innen entbrennen. Telefonnummern für die Nutzung wie bei Signal, wenn auch inzwischen nur zum Onboarding, seien ja ein Sicherheitsrisiko per se und E‑Mails wie bei Wire seien ja viel besser. BSI-Zertifizierungen hätte ja nur Wire, aber auch nur befristet bis 2028, weil im Gegensatz zu Signal ist das ja nicht Post-Quanten…
Wire im Speziellen hat nach dem Hack auf Julia Klöckner die Gunst der Stunde genutzt und genau so eine Diskussion aufgemacht: Guck, hier ist ein besseres Produkt, weil dies und das und mehr souverän. Wire sei ganz anders, speziell für Unternehmen gedacht und so weiter.
Am Ende folgt dann zwar immer das Mantra, dass es ja keine absolute Sicherheit gebe. Ich halte die Diskussion zu diesem Zeitpunkt für falsch und eher für einen Lobbyismus-Vorstoß, um ein weiteres Produkt mit ähnlichen Problemen zu verkaufen. Gesamtgesellschaftlich ist damit wenig gewonnen, der Gewinn steigt nur für die dahinterstehenden Unternehmen. Julia Klöckner hat auch brav die Marketing-Stichpunkte von Wire im Bundestag versendet, so wirkt es zumindest von der Wortwahl her. Wire hat sich ebenso als Teil der supergeheimen KI‑Hypermega-Deutschland-App von SAP und Telekom platziert.
Nun ist es ja so, dass ich durchaus ein ganz klein wenig Erfahrung mit Informationssicherheit habe. Die Diskussionen speziell nach dem Signal-Vorfall innerhalb der Bundesregierung sind nur beschränkt nützlich. Denn Angriffe, etwa auch auf Signal, finden nach wie vor statt und schwappen weiter durch die Chatgruppen, sogar exponentiell [€] steigend. Signal wird an der ein oder anderen Stelle ein wenig am User-Interface und an Interaktionen schrauben. Es gibt öffentliche Interviews im Spiegel [€], in denen Besserung gelobt wird. Sichere Systeme sind immer ein erstrebenswertes Ziel, speziell nach Vorkommnissen wie jüngst.
Die Journalistin Eva Wolfangel hat etwa 2023 schon auf der re:publica zum Ausdruck gebracht, dass der Mensch nicht das Problem ist. Auf Phishing hereinzufallen, ist menschlich möglich und nicht vollständig verhinderbar. Es ist unabdingbar, immer weiter an per Design sicheren, aber gleichzeitig menschenzentrierten digitalen Lösungen zu arbeiten. Das wird aber allein nicht reichen.
Wir sind ein spendenfinanziertes Medium.
Unterstütze auch Du unsere Arbeit mit einer Spende.
So seltsam es klingen mag: Lehrvideos, die über die Gefahren von digitalen Tools aufklären, sind in gewisser Weise genauso notwendig wie der Versuch, immer sicherere Autos und sonstige Fortbewegungsmittel zu bauen, aber gleichzeitig Erziehung für den Straßenverkehr zu leisten. Ein kurzer Blick zum Vergleich auf die Gefahren im Straßenverkehr: Die Zahl der Unfälle im Straßenverkehr sinkt seit Jahrzehnten. Das liegt an besserer Technik und immer noch stattfindender Aufklärung. Nur gibt es diese Bildung für den Straßenverkehr eben schon ein paar Jahrzehnte und im Lehrplan ist sie seit langem institutionalisiert, wie etwa im Bildungsplan in Baden‑Württemberg.
Das Digitale als solches ist eine Domäne, bei der die digitale Bildung ebenso wie die digitalen Möglichkeiten im ständigen Wandel sind. Es ist gut, informationstechnische Lerninhalte in die schulische Laufbahn zu integrieren. Leider wird davon aber eine Bundesregierung nicht gleich phishingresistent. Lebenslanges Lernen im Digitalen ist für die gesamte Bevölkerung notwendig, nur drüber reden hilft allein genau nichts. Kompetenzbildung im Digitalen ist eine höchstindividuelle Aufgabe, von einer Bundestagspräsidentin bis zu jedem Schulkind.
Nur sind digitale Risiken auf politischer Ebene doch besonders, denn sie haben eine weitere Risikokomponente.
Der demokratische Anteil
Der Gedanke, dass der Bundestag oder die Bundesbehörden mit Lösungen wie Wire Bund in verschiedenen Netzen wie den Netzen des Bundes vertraulich kommunizieren können, mag erst einmal eine logische Schlussfolgerung sein. Vertrauliche politische Kommunikation durch vertraulichen, geschlossenen Rahmen.
Er greift aber zu kurz. Längst sitzen die Feinde der Demokratie nicht mehr außerhalb der Politik, sie haben inzwischen Zugang zu politischen Strukturen, sind Teil von Parteien und sitzen in unterschiedlichen Parlamenten. Der Gedanke, dass die Abschottung besonders schützenswerter politischer Kommunikation weitere Sicherheit bringe, greift in einer Welt viel zu kurz, in der die Demokratie durch Feinde der Demokratie von innen heraus angegriffen wird.
Dieses Risiko der demokratiefeindlichen politischen Einflussnahme einzudämmen, auch im digitalen Raum, ist leider keine rein technische Frage mehr, es ist eine gesamtgesellschaftliche Aufgabe. Bemerkenswert dabei ist aber, dass gerade die demokratischen Parteien im Ringen um mehr innere Sicherheit noch viel mehr Systeme schaffen, bei der sich eine demokratiefeindliche Übernahme besonders lohnen wird: Verhaltensscanner in Kombination mit Gesichtserkennung, Vorratsdatenspeicherung, Schatten-IT durch Europol oder Empfehlungen, Virtual Private Network Anbieter (VPNs) zu regulieren, weil diese übergreifende Online-Alterskontrollen unterwandern könnten…
Wenn die Phishing-Angriffe auf Signal eines sein sollten, dann mehr als eine rein technische Warnung. Sie sollten auch eine Warnung sein, dass unsere Demokratie und unsere Grundrechte eben auch durch unkluges digitalpolitisches Verhalten bedroht sind. Baut man in Demokratien übermäßige Überwachungsstrukturen, lohnt es sich umso mehr, dass uns irgendwann irgendwer unsere Demokratie mit dem vermeintlich gut gemeinten Überwachungsapparat entführt. Danach hilft leider auch kein Account-Reset mehr.
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 3 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
Apps & Mobile Entwicklungvor 3 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
