Connect with us

Künstliche Intelligenz

Günstige DSL- und TV-Kabel-Anschlüsse im Vergleich


Der Umstieg von alten Kupferkabeln auf Glasfaser verläuft in Deutschland eher schleppend. Viele Kunden, die die Wahl zwischen Kupfer- und Glasfaserkabel haben, wollen zunächst einmal nicht umsteigen.

Das ist nachvollziehbar, denn das Kupferangebot ist günstig und die Leistung der Anschlüsse reicht für die meisten Anwendungen problemlos aus. Wir haben Kupferanschlüsse per DSL und TV-Kabel verglichen, die immer noch in über 90 Prozent der deutschen Haushalte verfügbar sein dürften.

  • Breitbandanschlüsse per Kupferkabel sind in Deutschland nahezu flächendeckend verfügbar.
  • Beim Abschluss eines Zweijahresvertrags kann man erhebliche Nachlässe erhalten.
  • Langsame DSL-Anschlüsse lassen sich möglicherweise mit einem Hybridanschluss aufpeppen.

Der Markt ist groß, der Wettbewerb hart und die Anbieter überbieten sich mit Lockangeboten. Viele bieten anfängliche Vergünstigungen, bei denen der Anschlusspreis für die ersten sechs bis zwölf Monate deutlich reduziert wird – weil sich dann so schön mit einem sehr günstigen Preis und einem kleinen Sternchen werben lässt. Die Kunden kennen den Trick natürlich, aber er erschwert den Vergleich.


Das war die Leseprobe unseres heise-Plus-Artikels „Günstige DSL- und TV-Kabel-Anschlüsse im Vergleich“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Warum humanoide Roboter ihre eigenen Sicherheitsregeln brauchen


Im vergangenen Jahr wurde erstmals ein humanoider Lagerroboter namens Digit für die Handhabung von Kartons bei der US-Firma Spanx eingesetzt. Digit kann Pakete mit einem Gewicht von bis zu 16 Kilogramm zwischen Rollwagen und Förderbändern heben und so seinen menschlichen Kollegen einige der schweren Aufgaben abnehmen. Er arbeitet in einem begrenzten, definierten Bereich, der durch Wände oder Lasersperren von den menschlichen Mitarbeitern getrennt ist.

Und das ist auch notwendig: Digit steht zwar normalerweise sicher auf seinen Roboterbeinen, es kommt aber auch vor, dass er stürzt. Dann funktioniert die charakteristische Rückwärtsbeugung seiner mechanischen Knie nicht. Auf einer Messe im März schien er beispielsweise über einen längeren Zeitraum geschickt Kartons zu transportieren. Dann brach der Humanoide plötzlich zusammen und landete auf dem Betonboden. Alles, was er gerade trug, fiel natürlich ebenfalls herunter.

Das Risiko, dass solche Fehlfunktionen in der Nähe von Menschen auftreten, ist also durchaus vorhanden – und es kann gefährlich werden. Niemand möchte unter einer 1,80 Meter großen und 65 Kilogramm schweren Maschine begraben werden. Dass ein Roboterarm versehentlich auf eine empfindliche Körperstelle trifft, wäre ebenfalls sehr unangenehm. „Die Kehle ist ein gutes Beispiel“, sagt Pras Velagapudi, Chief Technology Officer von Agility Robotics, dem Hersteller von Digit. „Wenn ein Roboter die treffen würde, selbst mit dem Bruchteil der Kraft, die er zum Tragen einer 22 Kilogramm schweren Tragetasche benötigt, könnte er eine Person schwer verletzen.“

Physische Stabilität humanoider Roboter – also die Fähigkeit, nicht umzukippen – gehört dementsprechend zu den wichtigsten Sicherheitsanliegen eines Projekts, das neue Standards für humanoide Roboter erarbeitet. Die Humanoid Study Group der Ingenieursorganisation IEEE argumentiert, dass sich Humanoide in wesentlichen Punkten von anderen Automaten wie Industrierobotern oder bestehenden mobilen Robotiksystemen unterscheiden. Sie machen daher neue Standards notwendig, um die Sicherheit von Bedienpersonal, Endnutzern und der Öffentlichkeit zu gewährleisten.

Die Gruppe hat ihre Ergebnisse gegenüber der US-Ausgabe von MIT Technology Review erstmals öffentlich vorgestellt und plant, ihren vollständigen Bericht im Laufe des Sommers zu veröffentlichen. Darin werden verschiedene Herausforderungen identifiziert, darunter physische und psychosoziale Risiken sowie Fragen wie Datenschutz und Sicherheit, die den Experten zufolge von Normungsorganisationen angegangen werden müssen. Und zwar bevor Humanoide in mehr industriellen Szenarien eingesetzt werden, als das bisher geschieht.

Die Systeme machen derzeit erste vorsichtige Schritte in Richtung Produktiveinsatz. Ultimatives Ziel ist eine enge Zusammenarbeit mit Menschen. Ein Grund dafür, Roboter überhaupt menschenähnlich zu gestalten, ist, dass sie sich so leichter in den von uns geschaffenen Umgebungen zurechtfinden. Das bedeutet, dass sie in der Lage sein müssen, einen Raum mit Menschen zu teilen und nicht nur hinter Schutzbarrieren zu bleiben. Aber zuerst muss sichergestellt werden, dass sie keine Gefahr darstellen.

Ein charakteristisches Merkmal von Humanoiden ist, dass sie „dynamisch stabil“ sein müssen, sagt Aaron Prather, Direktor bei der Normungsorganisation ASTM International und Vorsitzender der IEEE-Expertengruppe. Das bedeutet, dass sie Energie benötigen, um aufrecht bleiben zu können. Sie üben Kraft über ihre Beine (oder andere Gliedmaßen) aus, um das Gleichgewicht zu halten. „In der traditionellen Robotik drückt man bei einem Problem den kleinen roten Knopf, die Stromversorgung wird unterbrochen und der Roboter bleibt stehen“, sagt Prather. „Bei einem Humanoiden geht das nicht wirklich.“ Wenn man das tut, fällt der Roboter wahrscheinlich um – was ein noch größeres Risiko darstellen kann, als ihn weiterlaufen zu lassen.

Aber wie könnte eine Sicherheitsfunktion aussehen, die keine Notbremsung ist? Agility Robotics führt in der neuesten Version von Digit einige neue Funktionen ein, um das Problem des Umkippens zu beheben. Anstatt sofort die Stromversorgung zu unterbrechen (und wahrscheinlich umzufallen), könnte der Humanoide beispielsweise sanft abbremsen, wenn eine Person zu nahe kommt. „Der Roboter muss eine bestimmte Zeit bekommen, um sich in einen sicheren Zustand zu versetzen“, sagt Velagapudi. Vielleicht legt er alles, was er gerade trägt, zuerst ab und geht auf Hände und Knie, bevor er sich ausschaltet.

Verschiedene Roboter könnten das Problem auf unterschiedliche Weise lösen. „Wir wollen nur das Ziel standardisieren, nicht den Weg dorthin“, sagt Federico Vicentini, Leiter der Produktsicherheit bei Boston Dynamics. Vicentini leitet eine Arbeitsgruppe der Internationalen Organisation für Normung (ISO), die ebenfalls einen neuen Standard für die Sicherheit von Industrierobotern entwickelt, die zur Aufrechterhaltung ihrer Stabilität aktiv gesteuert werden müssen (auch Experten von Agility Robotics sind beteiligt). Die Idee ist, klare Sicherheitsanforderungen festzulegen, ohne die Innovationsfreiheit der Roboter- und Komponentenhersteller einzuschränken: „Wie das Problem gelöst wird, bleibt dem Konstrukteur überlassen.“ Der Versuch, universelle Standards festzulegen und gleichzeitig die Gestaltungsfreiheit zu wahren, kann jedoch Herausforderungen mit sich bringen. Zunächst einmal: Wie definiert man überhaupt einen humanoiden Roboter? Muss er Beine haben? Arme? Einen Kopf?

„Eine unserer Empfehlungen lautet, den Begriff ‚Humanoid‘ vielleicht ganz fallen zu lassen“, sagt Prather. Seine Gruppe befürwortet ein Klassifizierungssystem für humanoide Roboter, das deren Fähigkeiten, Verhalten und Verwendungszweck berücksichtigt und nicht ihr Aussehen. Die ISO-Norm, an der Vicentini arbeitet, bezieht sich auf alle industriellen mobilen Roboter „mit aktiv gesteuerter Stabilität“. Dies würde sowohl für den vierbeinigen Spot von Boston Dynamics gelten als auch für den zweibeinigen humanoiden Atlas und könnte ebenso Roboter mit Rädern oder einer anderen Art von Mobilitätskomponente umfassen.

Abgesehen von Fragen der physischen Sicherheit, stellen Humanoide auch eine Herausforderung für die Kommunikation dar. Wenn sie sich den Raum mit Menschen teilen sollen, müssen sie erkennen, wenn jemand ihren Weg kreuzt. Sie müssen ihre eigenen Absichten so kommunizieren, dass jeder verstehen kann, was sie gerade tun. Das ist ähnlich wie beim Auto mit Bremslicht und Blinker. Digit verfügt bereits über Lichter, die seinen Status und seine Fahrtrichtung anzeigen, sagt Velagapudi, aber es brauche noch bessere Anzeigen, wenn er kooperativ und letztlich kollaborativ mit Menschen zusammenarbeiten soll. „Wenn Digit vor Ihnen in einen Gang hineinläuft, möchten Sie davon nicht überrascht werden“, sagt er. Der Roboter könnte Sprachausgaben nutzen, aber Audio allein ist in einer lauten Industrieumgebung nicht praktikabel. Noch verwirrender könnte es werden, wenn sich mehrere Roboter im selben Raum befinden – welcher versucht gerade, unsere Aufmerksamkeit zu erregen?

Es gibt auch einen psychologischen Effekt, der Humanoide von anderen Robotertypen unterscheidet, sagt Prather. Wir vermenschlichen Roboter, die wie wir aussehen. Das ist ganz natürlich, was dazu führen kann, dass wir ihre Fähigkeiten überschätzen und frustriert sind, wenn sie diese Erwartungen nicht erfüllen. „Manchmal lassen wir in puncto Sicherheit nach oder die Erwartungen an das, was der Roboter leisten kann, sind im Vergleich zur Realität zu hoch“, sagt er. Diese Probleme sind besonders gravierend, wenn Roboter Aufgaben übernehmen sollen, die normalerweise menschliche Emotionen oder die Unterstützung schutzbedürftiger Menschen erfordern. Der IEEE-Bericht empfiehlt, dass die Standards Bewertungsmaßstäbe für die „emotionale Sicherheit“ und Richtlinien zur „Minderung von psychischem Stress oder Entfremdung“ enthalten sollten.

Um den Bericht zu erstellen, führte Greta Hilburn, Expertin für User-Centric Design an der US Defense Acquisition University, Umfragen unter einer Vielzahl von Nicht-Ingenieuren durch, um ein Gefühl für deren Erwartungen an humanoide Roboter zu bekommen. Die überwiegende Mehrheit der Befragten wünschte sich Roboter, die Gesichtsausdrücke haben, Mikroexpressionen lesen und zur Kommunikation Gesten, Sprache und Haptik einsetzen können. „Sie wollen also alles – etwas, das es noch nicht gibt“, sagt sie. Das richtige Design der Mensch-Roboter-Interaktion könnte entscheidend sein, wenn Humanoide aus industriellen Bereichen in andere Kontexte wie Krankenhäuser, Altenpflegeeinrichtungen oder Privathaushalte vordringen. Dies ist besonders wichtig für Roboter, die mit schutzbedürftigen Bevölkerungsgruppen kooperieren sollen, sagt Hilburn. Es könne großer Schaden entstehen, wenn ein Roboter falsch kommuniziert, insbesondere im Kontext mit Kindern oder älteren Menschen.

Die Empfehlungen der IEEE-Gruppe umfassen unter anderem Eingriffsmöglichkeiten für Benutzer, die Standardisierung einiger visueller und akustischer Signale und die Anpassung des Aussehens eines Roboters an seine Fähigkeiten, um die Benutzer nicht zu verwirren. Wenn ein Roboter menschlich aussieht, erwarten die Menschen inzwischen laut Prather, dass er in der Lage ist, eine Unterhaltung zu führen und eine gewisse emotionale Intelligenz zu zeigen. Wenn er hingegen nur grundlegende mechanische Aufgaben ausführen kann, könnte dies zu Frustration und Vertrauensverlust führen.

„Denken Sie an Selbstbedienungskassen“, sagt er. „Niemand erwartet, dass sie mit Ihnen plaudern oder Ihnen beim Einkaufen helfen, denn sie sind eindeutig Maschinen. Aber wenn sie wie freundliche Mitarbeiter aussehen und dann nur wiederholen: ‚Bitte scannen Sie den nächsten Artikel‘, würden sich die Leute ärgern.“

Prather und Hilburn betonen beide die Notwendigkeit der Inklusivität und Anpassungsfähigkeit, wenn es um die Interaktion zwischen Mensch und Roboter geht. Kann ein Roboter mit gehörlosen oder blinden Menschen kommunizieren? Kann er sich darauf einstellen, etwas länger zu warten, wenn Menschen mehr Zeit für eine Antwort benötigen? Versteht er verschiedene Akzente?

Möglicherweise müssen auch unterschiedliche Standards für Roboter festgelegt werden, die in unterschiedlichen Umgebungen eingesetzt werden, sagt Prather. Ein Roboter, der in einer Fabrik neben Menschen arbeitet, die für die Interaktion mit ihm geschult sind, ist eine Sache. Aber ein Roboter, der im Haushalt helfen oder mit Kindern in einem Freizeitpark interagieren soll, ist etwas anderes. Mit einigen allgemeinen Grundregeln sollte die Öffentlichkeit jedoch in der Lage sein, zu verstehen, was Roboter tun, wo immer sie ihnen begegnen. Es gehe nicht darum, Vorschriften zu machen oder Innovationen zu bremsen, sagt er, sondern darum, einige grundlegende Richtlinien festzulegen, damit Hersteller, Regulierungsbehörden und Endnutzer alle wissen, was sie zu erwarten haben: „Wir sagen, dass Mindestanforderungen erfüllt sein müssen – und wir sind uns alle einig, dass alles darunter schlecht ist.“

Der IEEE-Bericht soll eine Aufforderung zum Handeln für Normungsorganisationen wie Vicentinis ISO-Gruppe sein, um mit der Festlegung dieser Mindestanforderungen zu beginnen. So jung die Branche auch ist: Standards helfen Herstellern, Vertrauen in ihre Produkte aufzubauen und sie leichter auf internationalen Märkten zu verkaufen. Und Regulierungsbehörden stützen sich oft auf sie, wenn sie ihre eigenen Vorschriften erlassen. Angesichts der Vielfalt der Akteure in diesem Bereich wird es aber nicht einfach, Regeln zu schaffen, auf die sich alle einigen können, sagt Vicentini. „Wenn alle gleichermaßen unzufrieden sind, wäre das aber schon gut genug“.

Dieser Beitrag ist zuerst bei t3n.de erschienen.


(jle)



Source link

Weiterlesen

Künstliche Intelligenz

Kassenärzte starten Informationskampagne für IT-Sicherheit in Arztpraxen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Kassenärztliche Bundesvereinigung (KBV) will für mehr IT-Sicherheit in Arztpraxen sorgen und geht daher Anfang Juli in die Informationsoffensive. Helfen sollen regelmäßige Informations- und Schulungsangebote zum Schutz vor Cyberkriminalität. Das Themenspektrum reicht laut KBV vom Umgang mit Phishing-Mails über „sichere Passwörter, Virenschutz, Software-Updates und das Nutzen einer Cloud bis hin zum Basisschutz der Praxis-IT oder was bei einem Sicherheitsvorfall zu tun ist“. Gerade mit Blick auf die Anbindung an die Telematikinfrastruktur (TI), die für den sicheren Austausch von Gesundheitsdaten gedacht ist, müssen Praxen für IT-Sicherheit sensibilisiert werden.


Broschürencover mit Router im Hintergrund und dem Text "IT-SICHERHEIT"

Broschürencover mit Router im Hintergrund und dem Text "IT-SICHERHEIT"

IT-Sicherheit wird bei der Kassenärztlichen Bundesvereinigung groß geschrieben.

(Bild: KBV)

Für mehr IT-Sicherheit hatte die KBV kürzlich ihre IT-Sicherheitsrichtlinie aktualisiert, die seitdem auch vorsieht, das Sicherheitsbewusstsein in Arztpraxen zu stärken. „Wir sind gesetzlich verpflichtet, Anforderungen zur Gewährleistung der IT-Sicherheit in Praxen in einer Richtlinie festzulegen und diese regelmäßig anzupassen“, sagte Steiner.

„Die Bedrohung der IT-Sicherheit wächst weltweit. Auch die ärztlichen und psychotherapeutischen Praxen sind davon betroffen und müssen ihre IT vor unberechtigten Zugriffen schützen“, sagte KBV-Vorstandsmitglied Dr. Sibylle Steiner. Das Heft „IT-Sicherheit“ (PDF) soll dabei einen kompakten Einstieg bieten, es gibt allerdings noch weitere Informationen und Musterdokumente – etwa ein Beispiel für eine Verschwiegenheitserklärung für Mitarbeiter und externe Dienstleister.

Auch der Deutsche Pflegerat (DPR) fordert „klare gesetzliche Vorgaben“ für die IT-Sicherheit in der Pflege. Er sieht aufgrund zunehmender Cyberangriffe und wachsender Digitalisierung ebenfalls dringenden Handlungsbedarf, um Pflegeeinrichtungen besser vor Angriffen zu schützen. „Auch außerhalb der KRITIS-Kategorien geraten Akteure des Gesundheitswesens, darunter Pflegeeinrichtungen, vermehrt ins Visier – etwa durch Ransomware, DDoS-Angriffe (Distributed Denial of Service) oder Social Engineering“, heißt es im Thesenpapier.

„Mit der geplanten Anbindung der Pflegeeinrichtungen an die Telematikinfrastruktur und somit einem höheren Grad der IT-Durchdringung ist es umso wichtiger branchenspezifische Sicherheitsstandards […] für die ‚Pflegerische Versorgung‘ zu definieren“. Zudem müssen die IT-Hersteller laut DPR zu zertifizierten Sicherheitsstandards verpflichtet werden. Mit der Umsetzung der EU-Richtlinie NIS2 und dem Cyber Resilience Act werde sich der Markt für IT-Lösungen neu strukturieren und bereinigen.

„Die Pflege braucht verbindliche und branchenspezifische IT-Sicherheitsstandards. Es darf nicht länger dem Zufall überlassen bleiben, wie gut Pflegeeinrichtungen gegen Cyberangriffe geschützt sind“, sagte Thomas Meißner, Leiter der DPR-Fachkommission „Digitalisierung in der Pflege“. Die Forderungen sollten nach Sicht des DPR gesetzlich im Gesundheitsdatennutzungsgesetz (GDNG) und im Digitale-Versorgung-und-Pflege-Modernisierungsgesetz (DVPMG) verankert werden.

Außerdem will die Pflege selbst definieren, was als Stand der Technik gilt. „Pflegeeinrichtungen brauchen praxistaugliche, sichere Produkte […]. Dies trägt zudem zur Marktbereinigung bei, da minderwertige oder unsichere Produkte auf Dauer ausgeschlossen werden“. Zumindest in Arztpraxen und Krankenhäusern gibt es regelmäßig Kritik über die fehlende Nutzerfreundlichkeit der Anwendungen. Bald muss auch die Pflege an die Telematikinfrastruktur angeschlossen sein, doch bisher sieht es nicht so aus, dass bis Anfang Juli die Anforderungen erfüllt sind.


(mack)



Source link

Weiterlesen

Künstliche Intelligenz

Österreich verbietet Dickpics | heise online


Das unaufgeforderte Zusenden von Fotos oder Videos entblößter Geschlechtsteile einer erwachsenen Person an eine andere ist in Österreich derzeit nicht gerichtlich strafbar. Um das zu ändern, legt die Regierung dem Parlament einen Vorschlag für eine Strafrechtsnovelle vor. Damit soll auch sogenanntes Cyberflashing verboten werden.

Laut vorgeschlagenem Paragraphen 218 Absatz 1b Strafgesetzbuch (StGB) soll strafbar sein, „wer eine andere Person belästigt, indem er ihr im Wege einer Telekommunikation oder unter Verwendung eines Computersystems eine Bildaufnahme, die wesentlich menschliche Genitalien zeigt, vergleichbare bearbeitete Bildaufnahmen oder vergleichbares künstlich erstelltes Material, unaufgefordert und absichtlich übermittelt.“ Klingt einfach und ist im Detail erstaunlich komplex.

Comics oder Zeichnungen erfüllen das Erfordernis nicht, weil sie echten Bildern nicht „vergleichbar“ sind. Die Formulierung „oder unter Verwendung eines Computersystems“ erfasst Cyberflashing. Dabei werden Abbildungen des Gemächts nicht über klassische Telekommunikation, sondern über Nahfunk, beispielsweise Apples Airdrop oder Bluetooth, unverhofft zugemittelt. Erfasst werden zudem Online-Postings, die Platzierung auf Webseiten oder Internetplattformen aller Art sowie Verbreitung über Soziale Netze. Dabei soll laut Erläuterungen jedoch nicht strafbar sein, wer Aufnahmen „in der eigenen digitalen Sphäre (zB in das eigene Profil)“ hochlädt oder platziert.

Nicht kriminalisieren möchte die Regierung Fälle, in denen von Einverständnis der Beteiligten auszugehen ist: „Dies kann beispielsweise in Beziehungen der Fall sein oder auch bei Teilnahme an Angeboten im Internet, in sozialen Medien oder Apps, die auf den (zulässigen) Empfang oder Austausch von sexuellen Inhalten ausgerichtet sind (zB Erotikplattformen). Die bloße Präsenz oder Teilnahme auf Kontakt-Portalen zur Partnersuche oder in sogenannten ‚Dating-Apps‘ genügt dabei freilich nicht.“

Zudem muss die Belästigung im Zeitpunkt des Empfangs eintreten. Wer sich später, etwa nach einem Beziehungsende, ekelt, hat keine rechtliche Handhabe. Die neuen Tatbestände sind sogenannte Ermächtigungsdelikte. Das bedeutet, dass die Tat nur mit Zustimmung der verletzten Person gerichtlich verfolgt werden kann. Vorgesehen sind dann Freiheitsstrafen bis zu sechs Monaten oder Geldstrafen bis zu 360 Tagessätzen, sofern kein anderer, schwerwiegenderer Tatbestand erfüllt ist.

Die Novelle setzt die 2004 beschlossene EU-Richtlinie 2024/1385 zur Bekämpfung von Gewalt gegen Frauen und häuslicher Gewalt um. Diese Richtlinie erlegt in Artikel 7 Absatz c den Mitgliedsstaaten auf, „unaufgeforderte, mittels IKT erfolgende Zusendung eines Bildes, eines Videos oder sonstigen vergleichbaren Materials, auf dem Genitalien abgebildet sind, an eine Person, sofern diese Handlungen wahrscheinlich dazu führen, dass der Person schwerer psychischer Schaden zugefügt wird“, spätestens 2027 unter Strafe zu stellen. Die österreichische Novelle geht über die EU-Vorgabe hinaus.

Denn für Strafbarkeit in Österreich soll Belästigung reichen, selbst wenn keine Wahrscheinlichkeit schweren psychischen Schadens besteht. Die Übererfüllung von EU-Vorgaben ist auch als Goldplating bekannt. Genau das sollte in Österreich nicht mehr vorkommen, wie Bundeskanzler Christian Stocker und seine Partei, die ÖVP, versprochen haben. Die Erläuterung der Regierungsvorlage begründet das Goldplating so: „Einerseits scheint die Anknüpfung an den Aspekt der Belästigung (…) sachgerechter; andererseits würde das Kriterium der Wahrscheinlichkeit eines schweren psychischen Schadens Ermittlungs- und Beweisverfahren voraussichtlich verlängern und verkomplizieren (…)“, und es gäbe dann weniger Verurteilungen.

Die österreichische Regierung erwartet, dass es in Zukunft zirka 300 einschlägige Verfahren pro Jahr bei den Staatsanwaltschaften sowie ungefähr 45 Gerichtsverfahren jährlich geben wird. Entsprechend dürfte die Kriminalitätsrate geringfügig steigen. Die Regierungskoalition dürfte die kleine Strafrechtsnovelle ohne Federlesen verabschieden.


(ds)



Source link

Weiterlesen

Beliebt