Connect with us

Datenschutz & Sicherheit

„Das würde ganz neue Begehrlichkeiten wecken“


Sollte das Erbgut von Babys direkt nach der Geburt analysiert werden? Diese Frage stellen sich Wissenschaftler:innen und Gesundheitspolitiker:innen rund um den Globus. Einige versprechen sich davon eine bessere Gesundheitsvorsorge. Krankheiten könnten früher entdeckt und therapiert werden, noch bevor Symptome auftreten.

Porträt von Isabelle Bartram
Isabelle Bartram ist Molekularbiologin. – Alle Rechte vorbehalten Heike Steinweg

Doch was sind die Risiken eines solchen Programms? Was macht Genom-Daten so sensibel? Und wo stehen wir in Deutschland? Das haben wir Isabelle Bartram gefragt. Sie ist promovierte Molekularbiologin und arbeitet seit 2017 beim Gen-ethischen Netzwerk. Der Verein will über die gesellschaftlichen Auswirkungen von Gen-Technologien aufklären und eine differenzierte Debatte ermöglichen.

Isabelle Bartram beschäftigt sich mit Gen-Technolgien im medizinischen Bereich und genetischem Datenschutz. Zuletzt hielt sie bei der Konferenz „Datenspuren“ in Dresden einen Vortrag mit dem Titel: „Das gläserne Baby? Unbeabsichtigte und unvorhergesehen Effekte der Speicherung genomischer Daten von Neugeborenen“. Wir haben mit ihr nach dem Vortrag gesprochen.

netzpolitik.org: Wenn heute in Deutschland ein Kind auf die Welt kommt, wie „gläsern“ ist das Baby schon bei der Geburt?

Isabelle Bartram: Aktuell bekommen Eltern ein erweitertes Neugeborenen-Screening angeboten. Dabei wird das Baby in die Ferse gepiekst und der Blutstropfen wird im Labor auf momentan 17 angeborene Erkrankungen analysiert. Das sind alles Krankheiten, die früh auftreten, sehr schwerwiegend und behandelbar sind. Ich nehme an, die meisten Eltern stimmen dem zu, weil sie das Beste möchten für ihr Kind. Bei den Screenings kann man meines Wissens nach oft ankreuzen, ob das abgenommene Blut weiter für die Forschung verwendet werden darf. Das kann aber je nach Klinik variieren.

Der Großteil dieser Tests ist rein biochemisch, es wird also auf Stoffwechselprodukte im Blut geschaut. Aber es sind inzwischen auch zwei oder drei genetische Tests dabei, zum Beispiel auf spinale Muskelatrophie. Das ist eine Muskelschwäche, die schon bei Babys auftritt und die unbehandelt tödlich sein kann. Bei diesem Test sucht man nach einer bestimmten Genvariante. Dabei schaut sich das Labor aber nur dieses eine Gen an und nicht das gesamte Genom, wie es beim genomischen Neugeborenen-Screening diskutiert wird. Das wäre dann eine ganz andere Qualität.

Deutschland steht noch am Anfang

netzpolitik.org: Wie weit sind die Pläne für ein genomisches Neugeborenen-Screening denn in Deutschland?

Isabelle Bartram: Wir stehen in Deutschland eher noch am Anfang, anders als in Großbritannien, wo das Genom-Screening für alle Neugeborenen bereits beschlossen ist. In Deutschland gibt es das Projekt „New_Lives“ an der Uni Heidelberg und Uni Mannheim, gefördert vom Bundesministerium für Forschung. „New_Lives“ wollte die Rahmenbedingungen für das Genom-Screening bei Neugeborenen schaffen. Das Projektteam hatte vor Kurzem ein Abschlusssymposium und hat ein Rahmenpapier mit Empfehlungen veröffentlicht.

Dort steht zum Beispiel, dass die Daten nicht automatisch für die Forschung verwendet werden sollten, sondern nur mit der separaten Einwilligung der Eltern. Da stelle ich mir aber die Frage, wie das praktisch aussehen soll. Die Geburt und die Zeit danach sind sehr stressig für Eltern, Menschen können da auch unter Schock stehen. Daher zweifle ich an, wie informiert Leute in dieser Krisensituation eine Entscheidung treffen können, vor allem wenn es vielleicht nur ein Kreuzchen mehr auf einem Formular ist.

Da sind also noch sehr viele Fragezeichen und es wären wahrscheinlich einige Gesetzesänderungen notwendig. Wir sind in Deutschland aktuell noch ganz am Anfang. Aber es ist jetzt wichtig, die Tragweite zu verstehen und sich da einzumischen.

„DNA gilt zum Teil als Wahrheitsmaschine“

netzpolitik.org: Was macht denn genetische Daten so sensibel?

Isabelle Bartram: Sie beinhalten ein großes Diskriminierungspotenzial. Es gibt viel Forschung zum Zusammenhang von Genetik und Erkrankungsrisiken, Behinderungen und auch Verhalten. Es besteht also die Gefahr, dass man aufgrund der Genetik einer bestimmten Gruppe zugeordnet und deshalb diskriminiert wird.

DNA gilt in unserer Gesellschaft zum Teil auch als Wahrheitsmaschine: Alles, was wir sind, stecke in unser DNA. Das ist natürlich nicht so. Die DNA ist zwar ein Bauplan, aber wie er umgesetzt wird, entscheidet sich in ständiger Interaktion mit der Umwelt und Gesellschaft. Doch nur weil die Zuordnung vielleicht nicht stimmt oder unsicher ist, kann man natürlich trotzdem diskriminiert werden.

netzpolitik.org: Sie warnen auch vor dem Aufbau einer nationalen DNA-Datenbank. Warum?

Isabelle Bartram: Meine Befürchtung ist, dass man die sequenzierten Genome der Neugeborenen zusammenführt und speichert, um einen großen Datenschatz für die öffentliche und privatwirtschaftliche Forschung zu erhalten. Aber eine wichtige Eigenschaft von DNA ist, dass man 50 Prozent immer an die nächste Generation weitergibt und dadurch nah verwandte Menschen eine große genetische Übereinstimmung haben. Das ist für die Polizei natürlich wahnsinnig nützlich, wenn sie nach Personen sucht.

Laut dem Gendiagnostikgesetz dürfen Ermittler*innen zwar nicht auf medizinische Datenbanken zugreifen, aber nach Freigabe für die Forschung ist diese Beschränkung nicht mehr da. Denn dann steht es nicht mehr unter der ärztlichen Schweigepflicht und das ist hochproblematisch. Bis jetzt ist mir zwar kein Fall bekannt, bei dem die Polizei auf eine Biobank oder auf eine medizinische Forschungsdatenbank zugegriffen hat. Aber das liegt vielleicht auch daran, dass alle bisherigen Datenbanken eher klein waren und voneinander getrennt sind.

Wenn es nun eine große Datenbank mit Neugeborenen gäbe, würde das ganz neue Begehrlichkeiten wecken. Und dann bräuchte es nur noch einen spektakulären Kriminalfall, um zu rechtfertigen, dass die Polizei darauf zugreift. Das gab es in der Geschichte kontroverser DNA-Technologien immer wieder, etwa bei der Einführung der DNA-Phänotypisierung 2019.

„Was macht das mit Leuten?“

netzpolitik.org: Ist das genomische Neugeborenen-Screening nicht aber trotzdem sinnvoll, um vererbbare Krankheiten frühzeitig zu erkennen und dann auch entsprechend gegensteuern zu können durch Prävention oder Vorsorge?

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Isabelle Bartram: Wie sinnvoll das ist, wird auch medizinisch diskutiert. Bei vielen Erkrankungen ist es etwa so, dass man immer wieder bei gesunden Menschen vermeintlich pathologische Genvarianten für schwere Erkrankungen findet. Es kann also passieren, dass Kinder Medikamente gegen etwas nehmen müssen, obwohl sie vielleicht nie erkranken werden.

Und dann gibt es die Frage: Was macht das mit Leuten, wenn sie wissen, dass sie ein hohes Risiko für Krebs haben? Sie würden damit aufwachsen und immer Kontrolluntersuchungen machen müssen für etwas, das vielleicht nie auftritt.

Ich glaube, da muss noch viel diskutiert und abgewogen werden, statt das einfach einzuführen. Zudem bleibt die oben angesprochene Grundproblematik: Die Eltern entscheiden kurz nach der Geburt über die genomischen Daten ihres Kindes. Das Kind kann das nicht selbst entscheiden, ob seine Daten erhoben und gespeichert werden.

netzpolitik.org: Gibt es Bedingungen, unter denen ein genomisches Neugeborenen-Screening für Sie akzeptabel wäre?

Isabelle Bartram: Es sollten nur die Genvarianten betrachtet werden, die bekannte Auslöser für ein begrenztes Set an Krankheiten sind, nicht das ganze Genom. Zudem muss klar sein, dass die Genom-Daten sofort nach der Analyse gelöscht werden. Auf keinen Fall sollten diese Daten in der elektronischen Patientenakte oder dem European Health Data Space gespeichert werden. Meine Sorge ist aber, dass die Forschung und Industrie diesen „Datenschatz“ auf jeden Fall heben wollen.

Wenn das Genom-Screening erst einmal da ist, werden sich manche fragen: Das hat so viel Geld gekostet, diese Daten zu generieren – warum sollten wir die jetzt löschen? 

netzpolitik.org: Zum Schluss vielleicht nochmal ein Blick auf die individuelle Ebene: Worauf sollten künftige Eltern in Bezug auf genetischen Datenschutz achten?

Isabelle Bartram: Ich habe damals bei meinem eigenen Kind das erweiterte Neugeborenen-Screening gemacht, aber eben nicht angekreuzt, dass die Daten weiter für die Forschung verwendet werden dürfen. Ich habe auf Nachfrage von Bekannten auch davon abgeraten, Nabelschnur-Blut zu spenden. Das wird von der DKMS für die Stammzellenspende oder die Forschung verwendet. Das sind löbliche Zwecke. Aber ich finde, es ist was anderes, ob man das für sich selbst oder einen anderen Menschen entscheidet.

Das Kind kann ja später immer noch selber entscheiden: Ich will Knochenmark und meine genetischen Daten spenden. Ich finde medizinische Forschung an sich sehr wertvoll, aber mir ist das zu intransparent. Es wird im Biologie- und Medizin-Sektor auch zu wenig über weitreichende Konsequenzen nachgedacht. Was passiert nach einem Rechtsruck mit genetischen Daten? Was machen autoritäre Systeme mit genetischen Daten? Für solche Fragen muss auch im Studium stärker sensibilisiert werden.



Source link

Datenschutz & Sicherheit

Gipfel zur Europäischen Digitalen Souveränität: Kehrtwende für die „Innovationsführerschaft“


Bundeskanzler Friedrich Merz (CDU) und der französische Präsident Emmanuel Macron haben zu einem Gipfel geladen, dem „Gipfel zur Europäischen Digitalen Souveränität“. Entsprechend hoch waren die Erwartungen: Ein Aufbruchssignal sollte von dem Gipfel ausgehen – an Europa, aber auch in die USA und nach China. Im Fokus stand dabei das Bestreben, in der EU die digitale Souveränität zu stärken. Darunter verstanden alle Beteiligten das Ziel, im digitalen Sektor die wirtschaftlichen Abhängigkeiten zu außereuropäischen Anbietern zu reduzieren.

Um dieses Ziel zu erreichen, will das deutsch-französische Tandem nicht nur bestehende Schutzrechte abbauen, sondern Regulierung vom Kopf auf die Füße stellen. „Product first, regulation second“, lautete das Credo von Digitalminister Karsten Wildberger (CDU). Erst müsse man das Produkt bauen, so der Minister, und danach die Risiken evaluieren. Die KI-Verordnung verfolgt bislang den genau entgegengesetzten Ansatz: eine risikobasierte Regulierung, bevor eine neue Technologie auf den Markt kommt.

In seiner Keynote bestärkte Macron diese Stoßrichtung: „Wenn wir den USA und China das Feld überlassen, haben wir eine gute Regulierung, aber regulieren am Ende nichts mehr.“

Angesichts dieser Agenda verwundert es nicht, dass Vertreter:innen der Zivilgesellschaft nur einen Platz im Zuschauerraum erhielten. Und es ist sicher kein Zufall, dass die EU-Kommission just einen Tag nach dem Gipfel ihren „Digitalen Omnibus“ vorstellen wird – ein umfassendes Gesetzespaket, das darauf abzielt, Verbraucher:innenrechte und KI-Regulierung in der EU zu schleifen.

Die EU zum Spitzenreiter machen

Merz und Macron hielten zum Abschuss des Gipfels Reden, in denen sie ihre Vorstellungen der gemeinsamen Zusammenarbeit skizzierten. Auf den rund zehn Panels des Tages saßen unter anderem Bundesdigitalminister Wildberger, seine französische Amtskollegin Anne Le Hénanff und EU-Kommissions-Vizepräsidentin Henna Virkkunen. Daneben waren Vertreter:innen von großen europäischen Unternehmen wie SAP, Telekom, Mistral und Siemens vertreten.

Wildberger betonte, die EU gemeinsam mit Frankreich zum „Spitzenreiter bei Schlüsseltechnologien“ machen zu wollen. Und seine französische Amtskollegin Le Hénanff unterstrich, dass Frankreich und Deutschland „von dem Ehrgeiz getrieben“ seien, Unternehmen wettbewerbsfähiger zu machen. Und „digitale Souveränität geht nicht ohne KI“, betonte der Minister.


Bild von einem Plakat. Daneben Text: Kunstdrucke kaufen.

In diesem Sinne ging es auf dem Gipfel viel um Wertschöpfung und Innovationsgeist, Hochleistungsrechner und Quantenforschung. Und alle Seiten betonten, dass es nun wichtig sei, ins Machen zu kommen und das Tempo zu erhöhen. Das Rennen sei noch nicht vorbei, die Aufholjagd könne aber nur gelingen, wenn man „den Fuß von der Bremse“ nehme, so Wildberger.

Weniger Hürden, mehr Überholspur

Die Regierung verengt den Begriff der digitalen Souveränität dabei auf ökonomische Aspekte. Besonders deutlich wurde das in der Keynote von Bundeskanzler Merz. Der forderte nicht weniger als die „Innovationsführerschaft“ für Europa, um so der Dominanz der USA und Chinas zu entkommen. Die Staaten seien bereit, dafür einen entsprechenden Ordnungsrahmen zu schaffen, dann aber sei die Wirtschaft am Zuge.

Merz und Macron verwiesen beide auf den „Digitalen Omnibus“, den die EU-Kommission morgen vorstellt. Das umfassende Gesetzespaket verfolgt ebenfalls das Ziel, den Fuß von der Bremse zu nehmen. Laut Kommission soll es Regeln vereinfachen, überlappende Gesetze in Einklang bringen und Bürokratie abbauen. Der im Vorfeld von netzpolitik.org veröffentliche Zwischenstand lässt hier allerdings wenig Gutes erahnen.

Demnach will die Kommission die Datenschutzgrundverordnung erheblich schwächen und die Umsetzung zentraler Teile der KI-Verordnung für zwölf Monate aussetzen. Vor allem sensible personenbezogene Daten sowie Hochrisiko-Systeme bei sogenannter Künstlicher Intelligenz wären von den Änderungen betroffen. Das Ziel ist es also, Regulierung zu bremsen, damit Start-ups auf die Überholspur kommen.

Deklaration für mehr Deregulierung

Die Kommission treibt damit ebenfalls jene Umkehr an, die auch das deutsch-französische Tandem forciert: Erst mal machen, dann regulieren. Auf eine griffige Formel brachte das Vorgehen der Parlamentarische Staatssekretär im Digitalministerium, Thomas Jarzombek, am Gipfeltag. Er strebt eine Disruption „wie vor 150 Jahren“ an. Man müsse Dinge „einfach mal machen“ und „losmarschieren“. „Als die ersten Autos auf die Straße kamen, sprach auch niemand über die Verkehrstoten“, so der Staatssekretär.

Ins gleiche Horn stößt offenbar der Wortlaut der „Declaration for European Digital Sovereignty“. Die von Österreich initiierte Abschlusserklärung des Gipfels wird am Abend verabschiedet und ist rechtlich nicht bindend. Sie formuliert den Anspruch der EU, in kritischen Bereichen künftig unabhängig von Drittstaaten zu bleiben. Dafür brauche es langfristig auch private Investitionen in Hochleistungsrechner, Halbleiterfertigung oder Quantenforschung. Gleichzeitig aber müsse die EU private regulatorische Hürden abbauen, wie das Handelsblatt berichtet.

Zivilgesellschaft als fünftes Rad am Wagen

Nennenswerte Kritik am Deregulierungs-„Aufbruch“ der Bundesregierung war auf dem Gipfel nicht zu hören. Das könnte damit zusammenhängen, dass die Zivilgesellschaft auf den Panels nicht vertreten war, sagte Julia Pohle vom Wissenschaftszentrum für Sozialforschung in Berlin (WZB) gegenüber netzpolitik.org. „Die hätten womöglich über Gemeinwohl und Nachhaltigkeit gesprochen und das scheint nicht zum offiziellen Diskurs zu passen.“ Dass europäische digitale Souveränität demokratischen Werten und Grundrechten im Digitalen dienen soll, fiel damit hinten runter, so Pohle.

Auch Henriette Litta, Geschäftsführerin bei der Open Knowledge Foundation Deutschland, zeigte sich enttäuscht. Zwar begrüße sie, dass der Gipfel eine konsequente europäische Perspektive einnehme. „Ansonsten gab es aber keine Diskussionen und auf der Bühne kamen nur blumige Konsenspositionen vor“, sagte Litta gegenüber netzpolitik.org.

Rund 70 Vertreter:innen der Zivilgesellschaft hatten laut Digitalministerium zugesagt, zu dem Gipfel zu kommen. Insgesamt 150 Einladungen hatte das Ministerium zuvor an die Zivilgesellschaft verschickt. Einige Organisationen hatten bereits vor dem Gipfel die Sorge geäußert, dass der geplante Gipfel sich auf Großprojekte und KI fokussiere. Weder diese Sorge noch die Forderungen aus der Zivilgesellschaft wurden jedoch angehört.

So hatten das Bündnis „Offene Netzwerke und demokratische Öffentlichkeit. Dezentral, souverän und fürs Gemeinwohl!” und die Agora Digitale Transformation unter anderem öffentliche Investitionen in digitale Infrastrukturen gefordert. Als Beispiel nannten sie eine jährliche Förderung in Höhe von 30 Millionen Euro für das Fediverse sowie mehr Präsenz öffentlicher Behörden und Ministerien auf offenen Plattformen. Außerdem schlugen sie vor, dass freie und offene Software ohne Gewinnerzielungsabsicht gemeinnützig werden müsse, um die digitale Souveränität zu stärken.

Keine dieser möglichen Maßnahmen hat die Bundesregierung auf ihrem Gipfel aufgegriffen. Vielleicht wollte sie auch die Harmonie des Tages nicht stören.



Source link

Weiterlesen

Datenschutz & Sicherheit

Biometrische Überwachung bei Online-Prüfungen illegal


Frau an Schreibtisch
Beim Proctoring mussten die Studierenden teilweise ihre Zimmer abfilmen und einer Gesichtserkennung zustimmen. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Jochen Tack

Während der Pandemie nutzten viele Universitäten sogenannte Proctoring-Systeme. Diese sollen Betrug bei Online-Prüfungen der Studierenden verhindern, zeichnen sich aber durch tiefe Eingriffe in Datenschutz und Privatsphäre aus. So mussten die Studierenden teilweise ihr gesamtes Zimmer filmen, einer Gesichtserkennung zustimmen und dem Überwachungssystem Zugriff auf quasi den ganzen Computer geben. Schon damals gab es Beschwerden von Studierenden und Landesdatenschutzbeauftragten.

Die Gesellschaft für Freiheitsrechte (GFF) kritisierte in einem Gutachten, dass die Grundrechte der Studierenden bei Online-Prüfungen unter die Räder geraten seien. Die Nichtregierungsorganisation suchte damals nach Betroffenen und klagte zusammen mit diesen gegen die invasive Software. Nun hat das Thüringer Oberlandesgericht am Montag über eine Klage entschieden und klargestellt, dass die Videoüberwachung von Studierenden bei Online-Prüfungen rechtswidrig ist, wenn dabei biometrische Daten verarbeitet werden. Das verstoße gegen die Datenschutzgrundverordnung, heißt es in der Pressemitteilung der GFF.

Betroffene erhält Schadenersatz

In dem in Thüringen entschiedenen Fall nutzte die Universität Erfurt demnach die Anwendung Wiseflow, die die Studierenden unter anderem mittels Gesichtserkennung überwacht. Damit wollte die Universität sicherstellen, dass stets die gleiche Person vor dem Monitor sitzt. Wiseflow verarbeitete biometrische Daten und leitete sie darüber hinaus an den Dienstleister Amazon Web Services weiter. Diese Praxis hat das Gericht nun für rechtswidrig erklärt und der Klägerin zudem einen Schadensersatz zugesprochen.

„Die Software hat damals starke Ängste in mir ausgelöst. Ich wusste nicht, wie sie funktioniert und was mit meinen Daten passiert. Aber ich hatte keine andere Wahl, weil ich mit meinem Studium vorankommen wollte“, erklärt Klägerin Jennifer Kretzschmar. „Ich bin froh, dass das Gericht jetzt festgestellt hat, dass die Überwachung rechtswidrig war. Hoffentlich achtet die Universität die Grundrechte der Studierenden bei Prüfungen künftig.“

Die GFF geht davon aus, dass das Urteil auch Signalwirkung für andere Bereiche, etwa die Überwachung am Arbeitsplatz, habe.



Source link

Weiterlesen

Datenschutz & Sicherheit

Neue DDoS-Spitze: Microsoft wehrt 15,7 TBit/s-Angriff ab


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am 24. Oktober dieses Jahres hat Microsoft in seiner Azure-Cloud einen umfangreichen DDoS-Angriff mit mehreren Angriffsvektoren von 15,72 TBit pro Sekunde beobachtet. Die Last erzeugten 3,64 Milliarden Pakete pro Sekunde, was die derzeit größte beobachtete DDoS-Attacke auszeichnet, schreibt Microsoft in einem Blog-Beitrag.

Weiterlesen nach der Anzeige

Das Unternehmen führt aus, dass der Angriff vom Aisuro-Botnet ausging – das hatte im Mai etwa das Blog des IT-Sicherheitsjournalisten Brian Krebs attackiert. Es handele sich dabei um ein Mirai-artiges Botnet „mit Turbo“, das immer wieder rekordverdächtige DDoS-Angriffe ausführt. Dabei missbrauchten die kriminellen Drahtzieher kompromittierte Heimrouter und Kameras, die zum Großteil in Netzen von Internetprovidern für Privathaushalte in den USA und anderen Ländern stünden.

Bei einem DDoS-Angriff überfluten bösartige Akteure Server oder Systeme mit so vielen Anfragen, dass sie reguläre Anfragen etwa von echten Menschen nicht mehr beantworten können. DDoS-Angriffe nehmen sie somit quasi offline.

Der Angriff umfasste unter anderem UDP-Floods mit extrem hohen Raten, die auf eine bestimmte öffentliche IP-Adresse gerichtet waren – einem einzelnen Endpunkt in Australien. Sie gingen von mehr als einer halben Million Quell-IP-Adressen aus diversen Regionen aus. Die UDP-„Ausbrüche“ zeigten nur zu einem kleinen Teil Spoofing der Quelle und verwendeten zufällige Quell-Ports, was die Rückverfolgung erleichterte. „Angreifer skalieren mit dem Internet selbst“, schreibt Microsoft, „mit steigenden Geschwindigkeiten der Glasfaseranschlüsse und zunehmend stärkerer IoT-Hardware klettert auch die Grundlinie für Angriffsgrößen“.

Microsoft erklärt, dass der DDoS-Schutz von Azure den Angriff automatisch entdeckt und abgewehrt habe. „Bösartiger Verkehr wurde effektiv ausgefiltert und umgeleitet, was zur ununterbrochenen Dienstverfügbarkeit für Kunden-Workloads führte“, schreibt der Autor des Blog-Beitrags.

Im Juni hatte Cloudflare eine Spitzenlast von 7,3 TBit/s bei einem DDoS-Angriff beobachtet. Damit hat sich der der Spitzenwert in nicht einmal einem halben Jahr mehr als verdoppelt.

Anfang September hatte Cloudflare zuletzt eine DDoS-Attacke mit in der Spitze 11,5 TBit pro Sekunde gemeldet. Dafür hatten die Angreifer sogar 5,1 Milliarden Pakete pro Sekunde gesendet – deutlich mehr als die Angreifer jetzt an den von Microsofts Azure geschützten Endpunkt.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Beliebt