Connect with us

Künstliche Intelligenz

Missing Link: Prävention an der Quelle – Chatkontrolle und Upload-Filter


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

In Brüssel und den EU-Staaten tobt eine Lobby-Schlacht, die Europas mächtigste Interessengruppen im Streit über den seit Jahren umkämpften Entwurf der EU-Kommission für eine Verordnung zur massenhaften Online-Überwachung unter dem Aufhänger des Kampfs gegen sexuellen Kindesmissbrauch in zwei Lager spaltet. Auf der einen Seite stemmen sich Tech-Konzerne – große und kleine – gegen Forderungen, die ihre Services gefährden oder neue Haftungspflichten mit sich bringen würden. Im Schulterschluss mit Bürgerrechtsorganisationen und auch Vertretern der Politik kämpfen sie für das Kommunikationsgeheimnis. Auf der anderen Seite steht ein Bündnis aus Ermittlungsbehörden und Organisationen, die sich Kinderrechte auf die Fahnen geschrieben haben.

Weiterlesen nach der Anzeige




Was fehlt: In der rapiden Technikwelt häufig die Zeit, die vielen News und Hintergründe neu zu sortieren. Am Wochenende wollen wir sie uns nehmen, die Seitenwege abseits des Aktuellen verfolgen, andere Blickwinkel probieren und Zwischentöne hörbar machen.

Letztlich geht es in der Auseinandersetzung, die ständig um eine Volte reicher wird, um ein neues Kapitel in den Crypto Wars. Neben Datenschützern machen IT-Verbände, der Kinderschutzbund und Pressevereinigungen gegen die geplante Durchleuchtung privater Kommunikation unter dem Aufhänger Chatkontrolle mobil. Fast sah es so aus, als ob die schwarz-rote Bundesregierung das Nein der Ampel aufgeben wollte. Das hätte den Weg für die Annahme der Position des EU-Ministerrates zu dem Dossier freigemacht.

Doch Anfang Oktober hieß es dann, auch CDU/CSU und SPD seien zumindest gegen eine „anlasslose“ Chatkontrolle. Ende Oktober lenkte dann auch die dänische Ratspräsidentschaft angesichts fehlender Mehrheiten überraschend ein: Sie verabschiedete sich von ihrem Standpunkt, Anbieter von Kommunikationsdiensten zur Suche nach Darstellungen sexuellen Kindesmissbrauchs verpflichten zu wollen. Es soll demnach bei der Freiwilligkeit bleiben. Doch Kritiker bemängeln auch Dänemarks neuen Entwurf und sehen darin vor allem die Gefahr von Massenüberwachung.

Die Gegenseite hat parallel ebenfalls aufgerüstet und wird auch nach dem erneuten Rückschlag versuchen, ihre Eisen im Feuer zu halten. Ihr gehören Organisationen wie die Internet Watch Foundation (IWF), das Canadian Centre for Child Protection (C3P), die International Justice Mission (IJM), ECPAT, das Netzwerk Kinderrechte, World Vision, Terre des Hommes, Innocence in Danger, die World Childhood Foundation, die Stiftung digitale Chancen, das Netzwerk Kinderrechte Deutschland und die SafeToNet Foundation an. Diese lockere Allianz versucht nun, in die „verfahrene Debatte“ einen vermeintlich neuen Ansatz zu bringen. Sie plädiert für einen „Kompromiss“, der auch in Ende-zu-Ende-verschlüsselten Diensten (E2EE) wie WhatsApp, Signal und Threema funktioniert.

Der Vorschlag stellt darauf ab, Material über sexuellen Missbrauch (Child Sexual Abuse Material, CSAM) erkennen und blockieren zu können, ohne Inhalte aus Kommunikationsanwendungen auszuleiten. „Moderne On-device- und In-App-Erkennung prüft Inhalte lokal, ohne Daten zu übertragen oder die Verschlüsselung aufzuheben“, heißt es etwa bei der IJM. Apple, Meta und Google nutzten solche Verfahren bereits für den Schutz vor Nacktbildern und die Erkennung von Links mit schädlichem Content.

Die Argumentation stützt sich auf einen jüngst veröffentlichten Bericht der IWF. Die Autoren bezeichnen das von ihnen vorgeschlagene Instrument als „Upload-Prävention“. Diese sei ein technisch machbarer und datenschutzfreundlicher Weg, bekanntes CSAM zu blockieren, bevor es in durchgängig verschlüsselten Umgebungen verbreitet werden kann. Der Begriff erinnert an die ominösen Upload-Filter, für die der EU-Gesetzgeber im Kampf gegen Urheberrechtsverletzungen nach langen Debatten eingeschränkt den Weg freimachte. Diese setzen allerdings auf der Ebene von Plattformen wie YouTube an, nicht auf Endgeräten der Nutzer.

Weiterlesen nach der Anzeige

E2EE sei zwar essenziell für die Privatsphäre, räumt die IWF ein. Straftäter wählten durchgehend verschlüsselte Plattformen aber aufgrund eines geringeren Risikos der Strafverfolgung mittlerweile bewusst aus. Die Einführung von E2EE ohne Sicherheitsvorkehrungen habe zu einem drastischen Rückgang der CSAM-Meldungen geführt. Für die Opfer bedeute die fortlaufende Verbreitung ihrer Missbrauchsbilder eine ständige Bedrohung und immer wieder psychische Schäden.

Die Upload-Prävention verkauft die IWF als „Sicherheitsfunktion“. Der Prozess basiere auf digitalen Fingerabdrücken. Auf dem Gerät des Senders werde ein einzigartiger Hash der Datei (Bild oder Video) erstellt. Dieses Muster werde mit einer sicheren Datenbank abgeglichen, die Hashes von bereits von Experten bestätigten illegalem CSAM enthält. Bei einer Übereinstimmung werde der Upload der Datei an der Quelle blockiert, ansonsten freigegeben.

Die Hash-Listen müssen von vertrauenswürdigen Organisationen verwaltet werden, um ihre Integrität zu gewährleisten, ist dem Papier zu entnehmen. Organisationen wie die IWF, das National Center for Missing and Exploited Children (NCMEC) und das C3P führten solche sorgfältig überprüfte Verzeichnisse. In der EU käme dafür auch das geplante Zentrum zum Kampf gegen CSAM in Frage. Kerry Smith, Geschäftsführerin des IWF, warnte vorige Woche, die aktuellen Verhandlungen auf Ratsebene seien „die letzte Chance für politische Entscheidungsträger in Europa, „diese Schutzmaßnahmen in den Alltag zu integrieren“.

Zentraler Punkt der IWF-Argumentation ist der Zeitpunkt: Die Überprüfung der Datei findet lokal auf dem Gerät des Senders statt, bevor die Datei verschlüsselt wird. Wirklich neu ist das freilich nicht. Prinzipiell ist die Upload-Prävention nichts anderes als Client-Side-Scanning (CSS). Bürgerrechtler und Wissenschaftler monieren seit Langem, dass dabei jeder verschlüsselte Chat auf den Endgeräten durchsucht werde und bei Verdachtsmeldungen eine Intervention erfolge.

Den CSS-Gegnern zufolge schafft die einmalige Implementierung eines lokalen Scan-Tools eine technische Infrastruktur für Überwachung. Selbst wenn es zunächst „nur“ für CSAM verwendet werde, könnte die Funktion von Regierungen künftig auf andere Inhalte ausgeweitet werden. Ein Mechanismus, der auf den Geräten von Milliarden von Nutzern installiert ist, wird als „Hintertür für alle“ und potenzielles Zensurwerkzeug verstanden.

Echte Ende-zu-Ende-Verschlüsselung basiert zudem auf dem Vertrauen, dass die App auf dem Gerät des Nutzers niemals Inhalte ohne dessen Wissen oder Einwilligung für den Dienstanbieter scannt. Eine obligatorische Durchleuchtung untergräbt diese Verlässlichkeit und die Integrität des Systems. Kryptografen warnen, dass eine gescannte Nachricht nicht mehr als wirklich E2EE-verschlüsselt betrachtet werden kann.

Bei den Hash-Listen besteht ferner immer ein Risiko für fälschliche Treffer (False Positives). Ein solcher könnte zur Blockade eines legitimen Bildes und schlimmstenfalls zur unbegründeten strafrechtlichen Verfolgung eines Nutzers führen. Dazu kommt der Einwand, dass die Hash-Listen selbst Ziel staatlicher oder krimineller Manipulation werden könnten. Eine Technologie zur verpflichtenden Überprüfung des Inhalts auf dem Gerät des Nutzers komme einem „Überwachungsschlüssel“ gleich, der universell verwendet werden könnte.

Upload-Prävention „klingt zwar erst einmal gut“, sagt der Bremer Informationsrechtler Dennis-Kenji Kipker heise online. Sie setze jedoch voraus, dass diese Inhalte schon auf bestimmten „Meldelisten“ vorhanden seien. Eine Verbreitung neuen Contents werde nicht verhindert. Gerade in Zeiten, in denen verstärkt KI-generiertes Material in Umlauf komme, sei die Effektivität zweifelhaft. Zudem beziehe eine solche Methode Strafverfolger nicht ein, gibt der Professor zu bedenken. Wichtiger wäre es, „echte Alternativen zum digitalen Kinderschutz auf den Weg zu bringen, statt „fachlich nicht belastbaren technischen Versprechen zu folgen“. Generell könne durch CSS die geschützte digitale Kommunikation kompromittiert werden.

Doch die andere Seite lässt nicht locker und verweist auf Erfolge auf Basis bislang erfolgter Meldungen: „IJM konnte bereits über 1300 Betroffene in Sicherheit bringen“, betont ein Sprecher der Schutzorganisation gegenüber heise online. „Die Fälle dokumentieren deutlich, wie wichtig es ist, dass Safety-by-Design auf Geräten und Plattformen umgesetzt wird.“

KI-Systeme wie Safer von Thorn und Google Content Safety API erreichten über 90 Prozent Genauigkeit bei nur 0,1 Prozent Fehlalarmrate, hebt der IJM-Sprecher hervor. Selbst das wäre zwar inakzeptabel, wenn alle False Positives zu Meldungen führten. Anders stelle sich die Sache aber dar, wenn „nur“ die Übertragung verhindert werde. Selbst der „unvollkommene“ jüngste Vorschlag der dänischen Ratspräsidentschaft habe zudem „detaillierte Mechanismen“ enthalten, um vorzubeugen, dass Regierungen den Ansatz auf andere unliebsame Inhalte erweitern.

Die von Hollywood-Star Ashton Kutcher mitgegründete Einrichtung Thorn galt lange als treibende Lobbykraft hinter dem Verordnungsentwurf. Die Kommission beteuerte, dass ihr diese US-Stiftung „lediglich Fachwissen zur Verfügung gestellt und nicht versucht“ habe, auf die Gesetzesinitiative Einfluss zu nehmen. Das stimme nicht, hielt die EU-Bürgerbeauftragte voriges Jahr dagegen. Auch „die Geschäftsstrategie für den Einsatz von Thorn-Produkten“ wie den Filter „Safer“ sei Thema gewesen.

Das Programm ist darauf ausgelegt, auf Basis von Microsofts PhotoDNA Darstellungen sexuellen Kindesmissbrauchs durch einen Abgleich mit Hash-Werten von Bildern und Videos in Datenbanken bekannter einschlägiger Aufnahmen zu erkennen. Die Brüsseler Exekutivinstanz verließ sich einfach auf die Aussagen von Thorn und anderer großer US-Hersteller von Filterlösungen zu den vermeintlichen Trefferquoten, die sich aber als unhaltbar erwiesen.

Derweil bringt die Bundesbeauftragte gegen Kindesmissbrauch, Kerstin Claus, das „Framing der sogenannten anlasslosen Chatkontrolle“ auf die Palme. Es handle sich um einen „Kampfbegriff“, über den „jede sachliche Debatte im Keim erstickt“ werde, rügte sie gegenüber Politico. Es sollten nicht die Chats aller Bürger gelesen werden, sondern mit Richtergenehmigung ein automatisierter Abgleich mit bekannten Missbrauchsdarstellungen erfolgen. Das werde allenfalls „spezifische Chatgruppen oder Teildienste betreffen, die zuvor als Risikobereiche identifiziert wurden“. Und auch Hany Farid, Mitentwickler von PhotoDNA, wirbt weiter kräftig für den breiten Einsatz der Lösung.


(emw)



Source link

Künstliche Intelligenz

TikTok unterzeichnet Deal zum Verkauf von Anteilen der US-Tochter an Investoren


TikTok hat die Vereinbarung zum Verkauf des Großteils der Anteile an der US-Tochter offenbar unterzeichnet. Das geht aus einer internen Mitteilung von TikTok-Chef Shou Zi Chew an seine Mitarbeiter hervor. Durch den Verkauf entgeht die chinesische Videoplattform einem Verbot in den USA. Ein letztes Jahr dort verabschiedetes Gesetz zum Zwangsverkauf von TikTok hat das Ziel, die Daten von US-Bürgern dem Zugriff der chinesischen Regierung zu entziehen und auch den TikTok-Empfehlungsalgorithmus unter die Kontrolle lokaler Unternehmen zu stellen. TikTok war rechtlich dagegen vorgegangen, blieb aber erfolglos.

Weiterlesen nach der Anzeige

Eine solche Vereinbarung beendet die mehr als einjährige Auseinandersetzung zwischen der US-Regierung und der chinesischen TikTok-Mutter ByteDance. Schon die vorherige Biden-Administration befürchtete eine Gefährdung der nationalen Sicherheit durch die App, wenn China Zugriff auf die Nutzerdaten und -profile von TikTok bekommt. In den USA zählt die App über 170 Millionen Nutzer. TikTok selbst dementierte, dass die chinesische Regierung auf die persönlichen Daten US-amerikanischer Anwender zugreifen kann. Allerdings ist der Empfehlungsalgorithmus der App auf einige dieser Daten angewiesen.

Die interne TikTok-Mitteilung bestätigt nun einige der bereits im September vom Weißen Haus genannten Details zu der TikTok-Vereinbarung. So werden der IT-Konzern Oracle, das Investmentunternehmen Silver Lake sowie der in Abu Dhabi beheimatete Investmentfonds MGX zusammen 45 Prozent der US-Tochter von TikTok übernehmen, die künftig „TikTok USDS Joint Venture LLC.“ heißen wird. Rund ein Drittel dieses Unternehmens werden bisherige ByteDance-Investoren halten, während ByteDance selbst 20 Prozent behalten wird, schreibt Axios.

Das neue TikTok-Joint-Venture soll demnach für den Datenschutz der US-Nutzer, die Sicherheit des Algorithmus, die Moderation der Inhalte und die Software-Sicherheit verantwortlich sein. Der Empfehlungsalgorithmus soll auf Basis der US-Nutzerdaten neu trainiert werden, um sicherzustellen, dass keine externe Manipulation stattfindet. Dieser Algorithmus beeinflusst, welche Videos Amerikaner zu sehen bekommen. Oracle wird als Sicherheitspartner die Verantwortung für die Prüfung und Einhaltung der nationalen Sicherheitsbedingungen übernehmen.

Zwar wurde das Gesetz zum Zwangsverkauf von TikTok bereits im April 2024 verabschiedet, wurde nach der Klage von ByteDance aber erst Mitte Januar 2025 wirksam, als der Supreme Court das TikTok-Verbot bestätigte. Damit wurde TikTok zum Problem von Donald Trump, der wenige Tage später zum US-Präsidenten vereidigt wurde. Wie auch Vorgänger Joe Biden hat Trump die Durchsetzung des Verbots mehrfach aufgeschoben, um TikTok und ByteDance längere Verkaufsverhandlungen zu ermöglichen. Zuletzt im September hatte Trump TikTok in den USA mehr Zeit gegeben.

Weiterlesen nach der Anzeige

Lesen Sie auch

Oracle wollte die Vereinbarung auf Anfrage von Reuters nicht kommentieren und das Weiße Haus verwies für entsprechende Fragen auf TikTok. Der TikTok-Deal soll laut ByteDance am 22. Januar 2026 abgeschlossen werden. Offen ist noch, wie viel die Investoren für die Beteiligung am TikTok-Joint-Venture aufbringen müssen und wie die Einnahmen künftig aufgeteilt werden. Letzten Herbst wurde berichtet, dass 50 Prozent der US-Einnahmen nach dem TikTok-Deal an ByteDance fließen sollen.


(fds)



Source link

Weiterlesen

Künstliche Intelligenz

Truth Social plus Fusionsenergie: Trump-Firma fusioniert mit TAE Technologies


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Das Medienunternehmen von US-Präsident Donald Trump fusioniert mit der Kernfusionsfirma TAE Technologies, „um die globale Energiedominanz der USA für Generationen zu zementieren“. So drückt es zumindest der Chef der Trump Media & Technology Group in der Bekanntmachung des mindestens ungewöhnlichen Deals aus. TAE Technologies arbeitet daran, die Energiegewinnung durch Kernfusion bis zum Ende des Jahrzehnts kommerziell nutzbar zu machen. Trump Media ist dagegen primär für den Kurznachrichtendienst Truth Social bekannt, auf dem Donald Trump aktiv ist. Das Zusammengehen der vollkommen unterschiedlichen Firmen wird laut der Mitteilung auf mehr als sechs Milliarden US-Dollar (etwa 5,11 Milliarden Euro) bewertet. Aktionäre beider Firmen sollen an dem neuen Unternehmen dann jeweils 50 Prozent halten.

Weiterlesen nach der Anzeige

Zu den Hintergründen der Fusion ist wenig bekannt, laut den Beteiligten trägt Trump Media „die Stärke seiner soliden Bilanzen“ bei und will TAE insgesamt 300 Millionen US-Dollar in bar bezahlen. Die beiden Firmenchefs wollen das neue Unternehmen künftig gemeinsam führen. 2026 soll demnach die Arbeit an dem ersten Fusionsreaktor für die kommerzielle Nutzung beginnen; der soll 50 Megawatt liefern. Zehnmal größere Anlagen sollen folgen. Was Trump Media außer der Geldspritze dazu beitragen soll, sagt TAE-Chef Michl Binderbauer nicht. In seinen obligatorischen Sätzen zu dem Deal geht er überhaupt nicht auf Trumps Firma ein und redet nur über die Erfolge seiner eigenen. Der US-Präsident hat nach der Wahl ins Weiße Haus seinen Anteil unter die treuhänderische Kontrolle seines Sohnes Donald Trump Jr. gegeben.

Mit Fusionsenergie soll nicht nur die globale Dominanz der USA in Energiefragen festgeschrieben werden, sagt Devin Nunes, der Chef von Trump Media. Die geplanten Kraftwerke würden auch bezahlbar und zuverlässig große Mengen an Strom bereitstellen, der den Vereinigten Staaten dabei helfen würde, „die KI-Revolution zu gewinnen“. Auch er sagt nicht, was genau Trump Media dazu beisteuern kann, er behauptet aber, mit Truth Social habe man „eine nicht entfernbare Infrastruktur aufgebaut, um die freie Meinungsäußerung für Amerikaner im Internet zu sichern“. Laut der Mitteilung hat die Firma hinter Truth Social seit dem Börsengang im März 2024 etwa 3,1 Milliarden US-Dollar an Vermögen angesammelt.

Kontrollierte Kernfusion gilt als vielversprechende Technik für künftige Energieversorgung und als saubere Alternative zur Kernspaltung. Anders als bei der Kernspaltung entstehen bei der Kernfusion keine langlebigen radioaktiven Abfälle. Zwar werden bei der Erforschung dieser Form der Energieerzeugung immer wieder Meilensteine erreicht, aber eine baldige kommerzielle Einsatzbereitschaft gilt als unwahrscheinlich. Prognosen privatwirtschaftlicher Start-ups sind dabei deutlich rosiger als jene traditioneller Großprojekte, die mit öffentlichen Geldern gefördert werden. Die Bundesrepublik finanziert die Forschung in den nächsten Jahren mit zwei Milliarden Euro.


(mho)



Source link

Weiterlesen

Künstliche Intelligenz

Digitalpakt 2.0 – erneut 5 Milliarden, die nun hälftig geteilt werden


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Dieses Mal wird hälftig geteilt – das ist nun abschließend geklärt. Bund und Länder haben sich während der Bildungsministerkonferenz in Berlin auf die endgültige Ausgestaltung des neuen Digitalpakts geeinigt. Wie schon der „Digitalpakt Schule“ wird auch der „Digitalpakt 2.0“ initial mit fünf Milliarden Euro für die Digitalisierung der Schulen ausgestattet. Dieses Mal sollen die Länder aber die Hälfte der Kosten tragen und zu einer Verstetigung von Mitteln für die digitale Infrastruktur im Schulsystem trägt der Pakt erneut nicht bei. Er soll aber weniger bürokratische Hürden stellen.

Weiterlesen nach der Anzeige

Der erste Digitalpakt (2019–2024) war finanziell vorteilhafter für die Länder, die nur 10 Prozent der Kosten übernehmen mussten. Durch die Corona-Pandemie wurde dieser auch noch um 1,5 Milliarden Euro aufgestockt. Am Digitalpakt 2.0 sollen sich Bund und Länder jetzt mit je 2,5 Milliarden Euro hälftig von 2026 bis 2030 beteiligen. Der Bundesanteil soll dabei größtenteils aus dem Sondervermögen für „Infrastruktur und Klimaneutralität“ kommen, das 500 Milliarden Euro umfasst.

Karin Prien (CDU), Bundesministerin für Bildung und Forschung, sieht im Digitalpakt 2.0 einen entscheidenden Schritt für die Zukunft der Schulen und auch einen wichtigen Beitrag zur Gleichwertigkeit der Bildungschancen in Deutschland. Sie hob hervor, dass für den Digitalpakt 2.0 vereinfachte Verwaltungsprozesse und auch die Förderung länderübergreifender Projekte (Länderübergreifende Vorhaben, LüV) sicherstellen, „dass alle Schülerinnen und Schüler von digitaler Bildung profitieren“. Mit dem Digitalpakt 2.0 werde „die Grundlage für eine moderne Bildungslandschaft“ geschaffen, „damit alle Schulen die notwendige Ausstattung erhalten, um in der digitalen Welt zu bestehen“.

Wenig beschönigend erklärte sie des Weiteren, dass die deutsche Schulbildung mit dem Pakt 2.0 „digital anschlussfähig“ wird. Dass vornehmlich die Länder die Verantwortung für Bildung tragen, machte sie auch deutlich: „Der Bund unterstützt auch hier Länder und Kommunen bei der Wahrnehmung ihrer Aufgaben“. Damit der Bund überhaupt Gelder für die Digitalisierung der Schulen in den Ländern über einen Digitalpakt bereitstellen konnte, musste 2019 das Grundgesetz geändert werden.

Weiterlesen nach der Anzeige

Ein zentrales Element des Digitalpakts 2.0 sei die Vereinfachung der administrativen Prozesse. Kommunale Schulträger könnten künftig pauschalierte Zuweisungen erhalten. Dies reduziere den Bürokratieaufwand und könne für eine schnellere und unkomplizierte Umsetzung sorgen. Der sonst als großes Hindernis gesehene Föderalismus wird durch die LüV etwas aufgebrochen. Demnach können sich nun zwölf Länder zu einem gemeinsamen Vorhaben zusammenschließen und aus einem zentralen Pool auf Mittel zugreifen. Dies verstärke die Zusammenarbeit zwischen den Ländern und gewährleiste „eine effizientere Nutzung der Mittel“.

Die Mittel des Digitalpakt 2.0 sollen zudem jetzt auch explizit für Wartungs- und Supportstrukturen sowie zeitgemäße digitale Lernumgebungen genutzt werden dürfen. Dies geschieht durch die Pakt-Strategie aber erneut nur bis zum Auslaufen des Programms und ist keine Dauerlösung, wie sie etwa der rheinland-pfälzische Bildungsminister Sven Teuber (SPD) zuletzt gefordert hat. Auch neue Förderlücken wie beim Digitalpakt Schule scheinen damit vorprogrammiert.

Ein weiteres Element sei die Bund-Länder-Initiative „Digitales Lehren und Lernen“, erklärte das Bundesministerium für Bildung, Familie, Senioren, Frauen und Jugend (BMBFSFJ), welche die Fortbildung von Lehrkräften in den Mittelpunkt stelle. Der Bund werde bis zu 250 Millionen Euro in praxisorientierte Forschung investieren. Dies geschehe mit fünf Forschungsclustern und einer wissenschaftlich geleiteten Transferstelle. Ziel sei es, gemeinsam mit der Praxis innovative Ansätze für den digitalen Unterricht zu entwickeln und Lehrkräfte gezielt auf neue Anforderungen vorzubereiten.


(kbe)



Source link

Weiterlesen

Beliebt