Connect with us

Datenschutz & Sicherheit

Die Mehrheit folgt dem Hype nicht


Ich öffne mein Bahn-Ticket. “Dieses Dokument scheint lang zu sein. Spare Zeit und lies eine Zusammenfassung”, empfiehlt mir prompt mein PDF-Reader. Ein Paradebeispiel dafür, wie immer mehr Anwendungen den Nutzer*innen KI-Tools aufdrängen, in den meisten Fällen, ohne dass sich ein Nutzen daraus ergibt.

Weltweit versuchen Regierungen und große IT-Firmen, sich im KI-Wettbewerb zu überbieten. Dabei benötigen die zugrunde liegenden Systeme immer mehr Rechenleistung, für die irgendwo Computer laufen müssen, die Strom und Wasser verbrauchen. Doch während das Thema Rechenzentren längst in der politischen Debatte und bei Fachleuten angekommen ist, wusste man bislang kaum etwas darüber, wie die Bevölkerung diese Entwicklung einschätzt.

Porträtfoto von Julian Bothe
Julian Bothe, Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch – Alle Rechte vorbehalten AlgorithmWatch

Aus diesem Grund hat AlgorithmWatch in mehreren europäischen Ländern eine repräsentative Umfrage zu Rechenzentren und ihren Auswirkungen durchführen lassen. Gemeinsam mit internationalen Partnerorganisationen wie der spanischen Initiative Tu Nube Seca mi Rio, Friends of the Earth Ireland und der europäischen Klimaschutzallianz Beyond Fossil Fuels wurden Menschen in Deutschland, der Schweiz, Spanien, Irland und dem Vereinigen Königreich befragt.

Wunsch nach mehr Transparenz und mehr Regulierung

Die Ergebnisse sind überraschend deutlich: In allen beteiligten Ländern spricht sich jeweils eine große Mehrheit der Befragten für eine stärkere Regulierung und mehr Transparenz von Rechenzentren aus. In einigen Ländern ist die Zustimmung dabei besonders hoch, so zum Beispiel in Spanien und Irland. Dort ist der Wasser- beziehungsweise Stromverbrauch der KI- und Cloud-Fabriken schon länger Gegenstand öffentlicher Diskussionen und Proteste. Denn sowohl im grünen Irland als auch im trockenen Spanien wirken sich die Rechenzentren bereits spürbar auf Energiepreise und Wasserverfügbarkeit aus. In Spanien befürchten knapp 90 Prozent der Befragten, dass der Wasserverbrauch der Einrichtungen ihre eigene Versorgung beeinträchtigen könnten.

Auch beim Blick auf die Gesamtergebnisse sprechen die Zahlen eine eindeutige Sprache: Drei Viertel der Befragten aller Länder sorgen sich, dass der Wasserverbrauch die umliegenden Ökosysteme beeinträchtigen könnte. Fast genauso viele befürchten Auswirkungen auf den eigenen Wasserverbrauch und immerhin nahezu zwei Drittel denken, dass der Energieverbrauch von Rechenzentren bereits heute einen relevanten Anteil des Stromverbrauchs in den jeweiligen Ländern ausmacht.

Groß ist aber nicht nur der Anteil derer, die sich Sorgen machen, sondern auch die Unterstützung für politische Forderungen, die Betreiber stärker in die Verantwortung nehmen. Mehr als sieben von zehn Befragten wollen, dass der Bau neuer Rechenzentren nur dann erlaubt ist, wenn der zusätzliche Strombedarf durch zusätzliche Kapazitäten an erneuerbaren Energien gedeckt wird. Ebenso viele wollen klare Kriterien, nach denen Energie verteilt wird – wobei die Befragten Rechenzentren und KI-Modelle konsequent als unwichtig bewerten.

Bei der Verteilung der Energie sollten gemäß der Umfrage vor allem die Sektoren priorisiert werden, die erneuerbare Energien zur Umstellung auf eine klimafreundliche Produktion benötigen. Rechenzentren gehören nicht dazu – ihr Stromverbrauch entsteht ja gerade zusätzlich. Häufig werden diese aktuell direkt mit Strom aus fossilen Brennstoffen betrieben. Vielerorts werden sogar Gaskraftwerke neu errichtet, um den Bedarf zu decken. Aber selbst wenn neue Rechenzentren mit erneuerbaren Energien betrieben werden, wie es in Deutschland ab 2027 für größere Einrichtungen vorgeschrieben ist, fehlt ohne weiteren Ausbau diese Energie dann in anderen Sektoren und verlangsamt dort die Dekarbonisierung. Ob direkt oder indirekt: Der Strombedarf für Rechenzentren und KI-Anwendungen gefährdet die Klimaziele.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Verbräuche steigen an, verlässliche Zahlen fehlen

Der Blick auf die Zahlen zeigt: Die in der Umfrage deutlich werdenden Sorgen sind mehr als berechtigt. In Irland verbrauchen Rechenzentren mittlerweile 22 Prozent des gesamten Stroms und tragen erheblich zu den teils enormen Strompreissteigerungen bei. Auch in Deutschland entfallen aktuell mehr als vier Prozent des gesamten Stromverbrauchs auf Rechenzentren. Schätzungen zufolge sind es in Frankfurt am Main bereits jetzt 40 Prozent des Stromverbrauchs, in Dublin sogar 80 Prozent. In der gesamten EU sind es mehr als drei Prozent – Tendenz stark steigend.

Hinzu kommt das für die Kühlung benötigte Wasser: In Spanien werden die größten KI-Fabriken ausgerechnet in den trockensten Regionen gebaut. Auch in Deutschland könnte laut einer Studie der Gesellschaft für Informatik der Wasserverbrauch von Rechenzentren zu Problemen führen – beispielsweise im Rhein-Main-Gebiet und in Brandenburg.

Während die Politik und Betreiberunternehmen offensiv für einen starken Ausbau von Rechenzentren und KI-Infrastruktur werben, mehren sich die Proteste der lokalen Bevölkerung. In Deutschland konzentrieren sich diese bislang vor allem auf Frankfurt und Umgebung. In Irland oder Spanien, wo bereits länger protestiert wird, sind die Bürgerinitiativen weiter verbreitet und dauerhafter organisiert, beispielsweise in der Initiative Tu Nube Seca Mi Rio – “Deine Cloud trocknet meinen Fluss aus”.

Vielerorts ist die mangelnde Transparenz ein großes Problem. Selbst offizielle Stellen müssen größtenteils auf Schätzungen zurückgreifen, wie viel Wasser und Strom die Rechenzentren tatsächlich verbrauchen. Sind valide Daten vorhanden, bleiben diese meist geheim. Zwar sollen Betreiber größerer Rechenzentren die Verbräuche mittlerweile an nationale Stellen wie dem deutschen Energieeffizienzregister für Rechenzentren und die EU melden – aber auch diese Daten werden nur aggregiert veröffentlicht. Hinzu kommt der Unwillen der Betreiber, diese Informationen bereitzustellen. Ein aktueller Bericht der Europäischen Kommission schätzt für das Jahr 2024, dass nur gut ein Drittel aller Rechenzentren in der gesamten EU dies tun. Selbst die Gesamtzahl aller Rechenzentren kann sie dabei nur mutmaßen.

Ein ähnliches Bild zeigt sich auch in Deutschland

In der Bundesrepublik wird der Strom- und Wasserverbrauch von Rechenzentren erst in der jüngsten Zeit stärker thematisiert. Hier liegt der Anteil der Menschen, die sich Sorgen machen, noch etwas niedriger als in anderen europäischen Ländern. Die Betonung liegt hier auf dem „noch“, denn auch in Deutschland nimmt die Zahl der Rechenzentren stark zu – und soll nach dem Willen der Bundesregierung noch stärker wachsen.

Wie drastisch die Entwicklungen sind, zeigen beispielsweise die Zahlen der Bundesnetzagentur. Diese hatte erst vor kurzem die Schätzungen bezüglich des zukünftigen Stromverbrauchs stark nach oben korrigiert: Die im April 2025 veröffentlichten Szenarien gehen davon aus, dass bis zum Jahr 2037 Rechenzentren 78 bis 116 Terawattstunde (TWh) Strom verbrauchen – doppelt bis viermal so viel, wie es die ursprünglichen Abfragen ergeben hatten. Zur Einordnung: Der gesamte Bruttostromverbrauch lag in Deutschland im Jahr 2023 bei gut 550 TWh.

Da die Bundesnetzagentur nur die Rechenzentren berücksichtigt, die sich aktuell in der Planung befinden, könnten die tatsächlichen Zahlen sogar noch weiter ansteigen. Damit würde der Gesamtbedarf der Rechenzentren 2037 nicht nur bis zu 10 Prozent des deutschen Stromverbrauchs betragen. Der Zuwachs an Rechenzentren sorgt vor allem dafür, dass große Mengen Strom zusätzlich bereitgestellt werden müssen, dass fossile Kraftwerke länger laufen und dass wahrscheinlich auch die Strompreise steigen.

Angesichts dieser Zahlen überraschen die Umfrageergebnisse in Deutschland nicht: Auch hier unterstützen zwei Drittel der Befragten die Auflage, dass Rechenzentren nur gebaut werden dürfen, wenn dafür entsprechend auch weitere Kapazitäten erneuerbarer Energien geschaffen werden. Mehr als drei Viertel der Befragten fordern, dass Betreiber von Rechenzentren ihren Energieverbrauch (76 Prozent), ihre Energiequellen (77 Prozent) und ihre Umweltauswirkungen (81 Prozent) offenlegen.

Die Umfrageergebnisse offenbaren damit auch eine Kluft zwischen der Mehrheitsmeinung in der Bevölkerung und dem Kurs der Bundesregierung. Digitalminister Karsten Wildberger (CDU) hatte erst Ende September gegenüber der Süddeutschen Zeitung angegeben, dass es für ihn “erst einmal primär um das Rechnen” gehe und Nachhaltigkeit demgegenüber nachrangig sei. Die Mehrheit der Befragten sieht das offensichtlich anders.

Und noch eines wird deutlich: Es reicht nicht aus, nur etwas an der Effizienz zu schrauben oder die Nutzung der Abwärme zu optimieren. Angesichts der Größe des erwarteten Wachstums muss es auch darum gehen, den Verbrauch von Rechenzentren absolut zu begrenzen – und dort, wo er unvermeidbar ist, durch zusätzliche erneuerbare Energien zu decken.

KI-Hype begrenzen – Rechenzentren nachhaltig gestalten

Rechenzentren sind zweifelsfrei wichtige Infrastrukturen und werden in Zukunft weiter an Bedeutung gewinnen. Umso wichtiger ist es, diese Infrastruktur nachhaltig zu gestalten und die Fehler der Vergangenheit nicht zu wiederholen. Dazu gehört auch die Frage: Wie viele solcher Rechenzentren brauchen wir eigentlich? Welche der neuerdings überall eingebauten KI-Anwendungen haben einen gesellschaftlichen Nutzen – und welche nicht?

Wie auch in anderen Bereichen darf sich die Debatte um den nachhaltigen Einsatz von KI nicht in erster Linie auf der Ebene von individuellen Konsum- beziehungsweise Nutzungsentscheidungen abspielen. Es braucht vielmehr eine politische Diskussion und Regulierung.

Aktuell wird einem bei jeder noch so kleinen PDF-Datei eine algorithmische Zusammenfassung aufgedrängt, führt jede Google-Anfrage zum Aufruf von Sprachmodellen und soll auch die staatliche Verwaltung nach dem Willen der Bundesregierung an so vielen Stellen wie möglich KI-Systeme benutzen. Hier bringt es wenig, nur an das Individuum zu appellieren. Stattdessen braucht es politische Entscheidungen, die sowohl bei KI-Systemen als auch bei Rechenzentren die ökologischen Folgen mitdenken. Statt der „KI-Nation“, zu der sich Deutschland laut dem Koalitionsvertrag entwickeln soll, braucht es – wenn man schon von Nation sprechen will – eine „KI-sensible Nation“, die neben dem Nutzen auch die Nebenwirkungen und häufig leeren Versprechungen solcher Anwendungen im Auge behält.

Mein Bahnticket jedenfalls drucke ich mir weder aus, noch lasse ich es mir zusammenfassen. Gar nicht so selten ist der Nicht-Einsatz von KI nämlich ihr bester Einsatz.

Julian Bothe ist als Senior Policy Manager bei der gemeinnützigen NGO AlgorithmWatch verantwortlich für das Thema „KI und Klimaschutz“. An der Schnittstelle von Digital- und Energiepolitik arbeitet er daran, den Ressourcenverbrauch und den Klimaschaden des aktuellen KI-Booms in Grenzen zu halten. Promoviert hat er zur Akzeptanz der Energiewende.



Source link

Datenschutz & Sicherheit

Gipfel zur Europäischen Digitalen Souveränität: Kehrtwende für die „Innovationsführerschaft“


Bundeskanzler Friedrich Merz (CDU) und der französische Präsident Emmanuel Macron haben zu einem Gipfel geladen, dem „Gipfel zur Europäischen Digitalen Souveränität“. Entsprechend hoch waren die Erwartungen: Ein Aufbruchssignal sollte von dem Gipfel ausgehen – an Europa, aber auch in die USA und nach China. Im Fokus stand dabei das Bestreben, in der EU die digitale Souveränität zu stärken. Darunter verstanden alle Beteiligten das Ziel, im digitalen Sektor die wirtschaftlichen Abhängigkeiten zu außereuropäischen Anbietern zu reduzieren.

Um dieses Ziel zu erreichen, will das deutsch-französische Tandem nicht nur bestehende Schutzrechte abbauen, sondern Regulierung vom Kopf auf die Füße stellen. „Product first, regulation second“, lautete das Credo von Digitalminister Karsten Wildberger (CDU). Erst müsse man das Produkt bauen, so der Minister, und danach die Risiken evaluieren. Die KI-Verordnung verfolgt bislang den genau entgegengesetzten Ansatz: eine risikobasierte Regulierung, bevor eine neue Technologie auf den Markt kommt.

In seiner Keynote bestärkte Macron diese Stoßrichtung: „Wenn wir den USA und China das Feld überlassen, haben wir eine gute Regulierung, aber regulieren am Ende nichts mehr.“

Angesichts dieser Agenda verwundert es nicht, dass Vertreter:innen der Zivilgesellschaft nur einen Platz im Zuschauerraum erhielten. Und es ist sicher kein Zufall, dass die EU-Kommission just einen Tag nach dem Gipfel ihren „Digitalen Omnibus“ vorstellen wird – ein umfassendes Gesetzespaket, das darauf abzielt, Verbraucher:innenrechte und KI-Regulierung in der EU zu schleifen.

Die EU zum Spitzenreiter machen

Merz und Macron hielten zum Abschuss des Gipfels Reden, in denen sie ihre Vorstellungen der gemeinsamen Zusammenarbeit skizzierten. Auf den rund zehn Panels des Tages saßen unter anderem Bundesdigitalminister Wildberger, seine französische Amtskollegin Anne Le Hénanff und EU-Kommissions-Vizepräsidentin Henna Virkkunen. Daneben waren Vertreter:innen von großen europäischen Unternehmen wie SAP, Telekom, Mistral und Siemens vertreten.

Wildberger betonte, die EU gemeinsam mit Frankreich zum „Spitzenreiter bei Schlüsseltechnologien“ machen zu wollen. Und seine französische Amtskollegin Le Hénanff unterstrich, dass Frankreich und Deutschland „von dem Ehrgeiz getrieben“ seien, Unternehmen wettbewerbsfähiger zu machen. Und „digitale Souveränität geht nicht ohne KI“, betonte der Minister.


Bild von einem Plakat. Daneben Text: Kunstdrucke kaufen.

In diesem Sinne ging es auf dem Gipfel viel um Wertschöpfung und Innovationsgeist, Hochleistungsrechner und Quantenforschung. Und alle Seiten betonten, dass es nun wichtig sei, ins Machen zu kommen und das Tempo zu erhöhen. Das Rennen sei noch nicht vorbei, die Aufholjagd könne aber nur gelingen, wenn man „den Fuß von der Bremse“ nehme, so Wildberger.

Weniger Hürden, mehr Überholspur

Die Regierung verengt den Begriff der digitalen Souveränität dabei auf ökonomische Aspekte. Besonders deutlich wurde das in der Keynote von Bundeskanzler Merz. Der forderte nicht weniger als die „Innovationsführerschaft“ für Europa, um so der Dominanz der USA und Chinas zu entkommen. Die Staaten seien bereit, dafür einen entsprechenden Ordnungsrahmen zu schaffen, dann aber sei die Wirtschaft am Zuge.

Merz und Macron verwiesen beide auf den „Digitalen Omnibus“, den die EU-Kommission morgen vorstellt. Das umfassende Gesetzespaket verfolgt ebenfalls das Ziel, den Fuß von der Bremse zu nehmen. Laut Kommission soll es Regeln vereinfachen, überlappende Gesetze in Einklang bringen und Bürokratie abbauen. Der im Vorfeld von netzpolitik.org veröffentliche Zwischenstand lässt hier allerdings wenig Gutes erahnen.

Demnach will die Kommission die Datenschutzgrundverordnung erheblich schwächen und die Umsetzung zentraler Teile der KI-Verordnung für zwölf Monate aussetzen. Vor allem sensible personenbezogene Daten sowie Hochrisiko-Systeme bei sogenannter Künstlicher Intelligenz wären von den Änderungen betroffen. Das Ziel ist es also, Regulierung zu bremsen, damit Start-ups auf die Überholspur kommen.

Deklaration für mehr Deregulierung

Die Kommission treibt damit ebenfalls jene Umkehr an, die auch das deutsch-französische Tandem forciert: Erst mal machen, dann regulieren. Auf eine griffige Formel brachte das Vorgehen der Parlamentarische Staatssekretär im Digitalministerium, Thomas Jarzombek, am Gipfeltag. Er strebt eine Disruption „wie vor 150 Jahren“ an. Man müsse Dinge „einfach mal machen“ und „losmarschieren“. „Als die ersten Autos auf die Straße kamen, sprach auch niemand über die Verkehrstoten“, so der Staatssekretär.

Ins gleiche Horn stößt offenbar der Wortlaut der „Declaration for European Digital Sovereignty“. Die von Österreich initiierte Abschlusserklärung des Gipfels wird am Abend verabschiedet und ist rechtlich nicht bindend. Sie formuliert den Anspruch der EU, in kritischen Bereichen künftig unabhängig von Drittstaaten zu bleiben. Dafür brauche es langfristig auch private Investitionen in Hochleistungsrechner, Halbleiterfertigung oder Quantenforschung. Gleichzeitig aber müsse die EU private regulatorische Hürden abbauen, wie das Handelsblatt berichtet.

Zivilgesellschaft als fünftes Rad am Wagen

Nennenswerte Kritik am Deregulierungs-„Aufbruch“ der Bundesregierung war auf dem Gipfel nicht zu hören. Das könnte damit zusammenhängen, dass die Zivilgesellschaft auf den Panels nicht vertreten war, sagte Julia Pohle vom Wissenschaftszentrum für Sozialforschung in Berlin (WZB) gegenüber netzpolitik.org. „Die hätten womöglich über Gemeinwohl und Nachhaltigkeit gesprochen und das scheint nicht zum offiziellen Diskurs zu passen.“ Dass europäische digitale Souveränität demokratischen Werten und Grundrechten im Digitalen dienen soll, fiel damit hinten runter, so Pohle.

Auch Henriette Litta, Geschäftsführerin bei der Open Knowledge Foundation Deutschland, zeigte sich enttäuscht. Zwar begrüße sie, dass der Gipfel eine konsequente europäische Perspektive einnehme. „Ansonsten gab es aber keine Diskussionen und auf der Bühne kamen nur blumige Konsenspositionen vor“, sagte Litta gegenüber netzpolitik.org.

Rund 70 Vertreter:innen der Zivilgesellschaft hatten laut Digitalministerium zugesagt, zu dem Gipfel zu kommen. Insgesamt 150 Einladungen hatte das Ministerium zuvor an die Zivilgesellschaft verschickt. Einige Organisationen hatten bereits vor dem Gipfel die Sorge geäußert, dass der geplante Gipfel sich auf Großprojekte und KI fokussiere. Weder diese Sorge noch die Forderungen aus der Zivilgesellschaft wurden jedoch angehört.

So hatten das Bündnis „Offene Netzwerke und demokratische Öffentlichkeit. Dezentral, souverän und fürs Gemeinwohl!” und die Agora Digitale Transformation unter anderem öffentliche Investitionen in digitale Infrastrukturen gefordert. Als Beispiel nannten sie eine jährliche Förderung in Höhe von 30 Millionen Euro für das Fediverse sowie mehr Präsenz öffentlicher Behörden und Ministerien auf offenen Plattformen. Außerdem schlugen sie vor, dass freie und offene Software ohne Gewinnerzielungsabsicht gemeinnützig werden müsse, um die digitale Souveränität zu stärken.

Keine dieser möglichen Maßnahmen hat die Bundesregierung auf ihrem Gipfel aufgegriffen. Vielleicht wollte sie auch die Harmonie des Tages nicht stören.



Source link

Weiterlesen

Datenschutz & Sicherheit

Biometrische Überwachung bei Online-Prüfungen illegal


Frau an Schreibtisch
Beim Proctoring mussten die Studierenden teilweise ihre Zimmer abfilmen und einer Gesichtserkennung zustimmen. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Jochen Tack

Während der Pandemie nutzten viele Universitäten sogenannte Proctoring-Systeme. Diese sollen Betrug bei Online-Prüfungen der Studierenden verhindern, zeichnen sich aber durch tiefe Eingriffe in Datenschutz und Privatsphäre aus. So mussten die Studierenden teilweise ihr gesamtes Zimmer filmen, einer Gesichtserkennung zustimmen und dem Überwachungssystem Zugriff auf quasi den ganzen Computer geben. Schon damals gab es Beschwerden von Studierenden und Landesdatenschutzbeauftragten.

Die Gesellschaft für Freiheitsrechte (GFF) kritisierte in einem Gutachten, dass die Grundrechte der Studierenden bei Online-Prüfungen unter die Räder geraten seien. Die Nichtregierungsorganisation suchte damals nach Betroffenen und klagte zusammen mit diesen gegen die invasive Software. Nun hat das Thüringer Oberlandesgericht am Montag über eine Klage entschieden und klargestellt, dass die Videoüberwachung von Studierenden bei Online-Prüfungen rechtswidrig ist, wenn dabei biometrische Daten verarbeitet werden. Das verstoße gegen die Datenschutzgrundverordnung, heißt es in der Pressemitteilung der GFF.

Betroffene erhält Schadenersatz

In dem in Thüringen entschiedenen Fall nutzte die Universität Erfurt demnach die Anwendung Wiseflow, die die Studierenden unter anderem mittels Gesichtserkennung überwacht. Damit wollte die Universität sicherstellen, dass stets die gleiche Person vor dem Monitor sitzt. Wiseflow verarbeitete biometrische Daten und leitete sie darüber hinaus an den Dienstleister Amazon Web Services weiter. Diese Praxis hat das Gericht nun für rechtswidrig erklärt und der Klägerin zudem einen Schadensersatz zugesprochen.

„Die Software hat damals starke Ängste in mir ausgelöst. Ich wusste nicht, wie sie funktioniert und was mit meinen Daten passiert. Aber ich hatte keine andere Wahl, weil ich mit meinem Studium vorankommen wollte“, erklärt Klägerin Jennifer Kretzschmar. „Ich bin froh, dass das Gericht jetzt festgestellt hat, dass die Überwachung rechtswidrig war. Hoffentlich achtet die Universität die Grundrechte der Studierenden bei Prüfungen künftig.“

Die GFF geht davon aus, dass das Urteil auch Signalwirkung für andere Bereiche, etwa die Überwachung am Arbeitsplatz, habe.



Source link

Weiterlesen

Datenschutz & Sicherheit

Neue DDoS-Spitze: Microsoft wehrt 15,7 TBit/s-Angriff ab


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am 24. Oktober dieses Jahres hat Microsoft in seiner Azure-Cloud einen umfangreichen DDoS-Angriff mit mehreren Angriffsvektoren von 15,72 TBit pro Sekunde beobachtet. Die Last erzeugten 3,64 Milliarden Pakete pro Sekunde, was die derzeit größte beobachtete DDoS-Attacke auszeichnet, schreibt Microsoft in einem Blog-Beitrag.

Weiterlesen nach der Anzeige

Das Unternehmen führt aus, dass der Angriff vom Aisuro-Botnet ausging – das hatte im Mai etwa das Blog des IT-Sicherheitsjournalisten Brian Krebs attackiert. Es handele sich dabei um ein Mirai-artiges Botnet „mit Turbo“, das immer wieder rekordverdächtige DDoS-Angriffe ausführt. Dabei missbrauchten die kriminellen Drahtzieher kompromittierte Heimrouter und Kameras, die zum Großteil in Netzen von Internetprovidern für Privathaushalte in den USA und anderen Ländern stünden.

Bei einem DDoS-Angriff überfluten bösartige Akteure Server oder Systeme mit so vielen Anfragen, dass sie reguläre Anfragen etwa von echten Menschen nicht mehr beantworten können. DDoS-Angriffe nehmen sie somit quasi offline.

Der Angriff umfasste unter anderem UDP-Floods mit extrem hohen Raten, die auf eine bestimmte öffentliche IP-Adresse gerichtet waren – einem einzelnen Endpunkt in Australien. Sie gingen von mehr als einer halben Million Quell-IP-Adressen aus diversen Regionen aus. Die UDP-„Ausbrüche“ zeigten nur zu einem kleinen Teil Spoofing der Quelle und verwendeten zufällige Quell-Ports, was die Rückverfolgung erleichterte. „Angreifer skalieren mit dem Internet selbst“, schreibt Microsoft, „mit steigenden Geschwindigkeiten der Glasfaseranschlüsse und zunehmend stärkerer IoT-Hardware klettert auch die Grundlinie für Angriffsgrößen“.

Microsoft erklärt, dass der DDoS-Schutz von Azure den Angriff automatisch entdeckt und abgewehrt habe. „Bösartiger Verkehr wurde effektiv ausgefiltert und umgeleitet, was zur ununterbrochenen Dienstverfügbarkeit für Kunden-Workloads führte“, schreibt der Autor des Blog-Beitrags.

Im Juni hatte Cloudflare eine Spitzenlast von 7,3 TBit/s bei einem DDoS-Angriff beobachtet. Damit hat sich der der Spitzenwert in nicht einmal einem halben Jahr mehr als verdoppelt.

Anfang September hatte Cloudflare zuletzt eine DDoS-Attacke mit in der Spitze 11,5 TBit pro Sekunde gemeldet. Dafür hatten die Angreifer sogar 5,1 Milliarden Pakete pro Sekunde gesendet – deutlich mehr als die Angreifer jetzt an den von Microsofts Azure geschützten Endpunkt.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Beliebt