Connect with us

Datenschutz & Sicherheit

Digital Networks Act: Entscheidender Herbst für Netzneutralität


Lange Zeit war es üblich, im Mobilfunk Telefonie über das Internet (VoIP) zu blockieren. Manche Betreiber sperrten Chat-Dienste wie WhatsApp in ihren Netzen. Andere unterbanden den Zugriff auf VPN-Dienste oder sogar E-Mail-Postfächer – meist, um eigene Produkte wie den Goldesel SMS oder Auslandstelefonie zu schützen. Denn über das offene Internet erreichbare Online-Dienste haben ihnen das Wasser abgegraben. Das ist Vergangenheit: Heutzutage ist kaum noch vorstellbar, wie die meisten Mobilfunkbetreiber ihre Kund:innen gegängelt haben.

Vor zehn Jahren hat die EU das Prinzip der Netzneutralität gesetzlich festgeschrieben. Netzbetreiber, ob für Festnetz oder Mobilfunk, können seitdem nicht mehr willkürlich Online-Dienste, Websites oder Endgeräte ausschließen oder anderweitig diskriminieren. Die Netzneutralität soll sicherstellen, dass das Internet offen bleibt und nicht zu einer Spielart von Kabel-TV verkommt, bei dem jedes Stückchen des Netzes in zubuchbare Pakete verpackt und vermarktet wird.

Nun sollen nach dem Willen der EU-Kommission zumindest Teile dieser Regeln zur Netzneutralität auf den Prüfstand. Die Kommission bereitet dafür derzeit ein umfassendes Gesetz rund um Telekommunikation vor. Präsentieren will sie ihren Entwurf des sogenannten Digital Network Act (DNA) noch in diesem Jahr. Als Teil des Gesetzgebungsverfahrens hat sie im Sommer grobe Vorstellungen skizziert und um Stellungnahmen gebeten, die netzpolitik.org ausgewertet hat.

Wiedergänger Datenmaut

Für Debatten sorgen vor allem zwei Aspekte: Zum einen verweist die Kommission ausdrücklich auf mutmaßliche Rechtsunsicherheiten rund um sogenannte Spezialdienste. Damit sind besonders anspruchsvolle Online-Dienste gemeint, die sich über das offene Internet nicht realisieren lassen, bespielsweise garantiert ruckelfreie medizinische Eingriffe übers Internet. Manchen Netzbetreibern sind die Vorgaben aus Brüssel zu streng oder nicht detailliert genug, Verbraucherschutzorganisationen hingegen warnen vor bezahlten Überholspuren zu Lasten des freien Netzes.

Dieses Internet der Zukunft wünschen sich die mächtigen Telekom-Konzerne

Zum anderen wirkt offenkundig der Vorschlag einer Datenmaut weiterhin nach. Vor Jahren hatte der inzwischen aus der Kommission ausgeschiedene Thierry Breton in den Raum gestellt, große Online-Dienste wie Netflix oder Meta für den Zugang in europäische Netze extra bezahlen zu lassen. Damals hat sich Breton zwar eine Abfuhr eingehandelt, den aktuellen DNA-Stellungnahmen zufolge scheint das Thema aber noch nicht restlos erledigt zu sein.

Branche springt auf Zeitgeist auf

Das hat einen einfachen Grund: Politisch fällt es immer schwerer zu vertreten, meist aus dem US-amerikanischen Silicon Valley stammende IT-Megakonzerne regulatorisch und steuerrechtlich mit Samthandschuhen anzufassen, während deren Milliardengewinne in den Taschen der Unternehmen und Aktionäre verschwinden. In den vergangenen Jahren verabschiedete EU-Gesetze wie der Digital Services Act und der Digital Markets Act zählen zu den ersten Anläufen, die Macht der großen Online-Dienste zumindest teilweise einzudämmen.

Die letzten derartigen Versuche dürften das nicht bleiben, schließlich gibt es bei Alphabet & Co. noch viel zu holen. Nicht nur die Kommission sieht das so: Seit Jahren finden sich in Beschlüssen des EU-Rats oder des Parlaments regelmäßig Forderungen danach, dass alle Akteure im digitalen Raum „einen fairen und angemessenen Beitrag zu den Kosten öffentlicher Güter, Dienstleistungen und Infrastrukturen zu leisten“ haben, heißt es etwa in der europäischen Erklärung digitaler Grundrechte.

Auf eine Datenmaut muss das nicht zwangsläufig hinauslaufen, in Frage käme etwa auch eine Digitalsteuer, mit der sich mehr Gerechtigkeit versuchen ließe. Doch an dem scheinbar naheliegenden Instrument hat sich die EU bislang die Zähne ausgebissen. Zu groß war der Widerstand aus der Industrie und manchen EU-Ländern, die etwa Großkonzerne mit Steuervorteilen locken – oder auch verhindern wollen, dass eine mit Eigenmitteln ausgestattete EU-Kommission zu mächtig würde.

Diese Situation haben vor allem große Netzbetreiber auszunutzen versucht. Um den EU-Verantwortlichen die Idee so schmackhaft wie möglich zu machen, zettelten sie unter dem Schlagwort „Fair Share“ besagte Debatte über eine Datenmaut an: Im Tausch gegen eine abgeschwächte Netzneutralität sollen Online-Dienste einen „fairen“ Beitrag für die Nutzung europäischer Infrastruktur leisten, so das Kernargument.

Letzter Versuch „Streitbeilegungsstelle“

Bislang sind sie damit abgeblitzt. Große Netzbetreiber wittern mit dem DNA jedoch ihre vorerst letzte Chance, einen Mechanismus zur Kostenbeteiligung gesetzlich verankern zu lassen. Die europäischen Ex-Monopolisten scheinen sich darauf geeinigt zu haben, sich gemeinsam für eine Vermittlungsstelle einzusetzen. Offenbar an Gerichten vorbei, die solche bisher seltenen Streitigkeiten aufgelöst haben, soll dieser auf den ersten Blick unverfängliche „dispute resolution mechanism“ etwaige Auseinandersetzungen rund um Zusammenschaltungsentgelte zwischen Netzbetreibern und Inhalteanbietern auflösen.

Entsprechend nehmen viele aktuelle Stellungnahmen zum DNA die Debatte wieder auf – mit weitgehend den gleichen Argumenten, die bereits bei einer vorherigen Konsultation ausgetauscht wurden. So verweist etwa die Nichtregierungsorganisation Internet Society (ISOC) auf Untersuchungen des EU-Gremiums GEREK, in dem sich europäische Telekom-Regulierungsbehörden koordinieren. Wiederholt haben dort die Regulierer in Untersuchungen festgestellt, dass der sogenannte Interconnection-Markt funktioniere und falsche Regulierung das offene Internet gefährden könnte.

„Der vorgeschlagene Mechanismus zur Streitbeilegung bei Vereinbarungen zur IP-Zusammenschaltung – der dem diskreditierten ‚Fair Share‘-Modell entspricht – sollte abgelehnt werden, da es keine Hinweise auf ein Marktversagen oder die Notwendigkeit regulatorischer Eingriffe gibt“, fasst ISOC, welche maßgeblich an der derzeitigen Internet-Governance beteiligt ist, den unveränderten Stand der Debatte zusammen.

Solche Debatten musste ISOC seit seiner Gründung Anfang der 1990er-Jahre schon mehrfach führen. Es dürfte auch nicht das letzte Mal sein, dass große Netzbetreiber einstige Pfründe wie das sogenannte Terminisierungsmonopol wieder aufleben lassen wollen.

Internet lebt von „Autonomie und Innovation“

Etwas grundsätzlicher erklärt ISOC, warum dies ein Rückschritt wäre: Die Einführung formaler Mechanismen wie eines Streitbeilegungsmechanismus oder „erleichterte Zusammenarbeit“ würde das Erfolgsmodell des Internets untergraben, warnt die Organisation. Damit würde „die Grenze zwischen freiwilliger Optimierung und vorgeschriebener Leistung verwischt“, was zu Reibungsverlusten in einem System führen würde, das von Autonomie und Innovation lebe.

Netzbetreiber und Online-Diensteanbieter mögen zwar ein gemeinsames Interesse an einer guten Endnutzererfahrung haben. Doch es sei ein grundlegender Fehler, dies mit einer gemeinsamen Verantwortung gleichzusetzen, die regulatorischer Durchsetzung bedürfe, so ISOC: „Der Erfolg des Internets beweist dies, da es auf einem dezentralen Modell beruht, in dem jeder Akteur seine eigenen Abläufe unabhängig optimiert, ohne vorgeschriebene Koordination oder gemeinsame Leistungsgarantien.“

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Vor unerwünschten Effekten warnt auch die Menschenrechtsorganisation Article 19, die sich für Meinungs- und Informationsfreiheit einsetzt. Ein Mechanismus zur Streitbeilegung „würde großen Netzbetreibern Verfahrensinstrumente an die Hand geben, um unter dem Vorwand der Streitbeilegung Gebühren von Online-Diensten zu verlangen.“ In die selbe Kerbe schlagen europäische Verbraucherschutzorganisationen wie BEUC oder Euroconsumers sowie nationale Organisationen, etwa der deutsche Verbraucherzentrale Bundesverband oder die österreichische Arbeiterkammer Wien.

Außer großen Ex-Monopolisten wie Telekom Deutschland oder Orange scheint ohnehin kaum jemand Gefallen an der Streitbelegungsidee zu finden. So weist etwa der kleine italienische Netzbetreiber UGL Telecomunicazioni auf die Gefahren von Überregulierung hin und fügt hinzu: „Die Lösung ist einfacher, und es ist ziemlich seltsam, dass sie noch nicht umgesetzt wurde: Online-Dienste sollten verpflichtet werden, in allen Mitgliedstaaten, in denen sie präsent sind, Steuern zu zahlen, ohne auf Strategien wie sogenannte Steueroasen zurückzugreifen“.

Angeblich unklare Spezialdienste

Tatsächlich scheinen sich viele Akteure auf dem Markt präzisere Regeln zu wünschen, etwa der Industrieverband DigitalEurope. Der vertritt praktisch das Who-is-who der internationalen IT-Branche, von Apple über Nintendo bis hin zu Red Hat. „Unsicherheit hält Anbieter davon ab, innovative Dienste wie 5G-Slicing oder vertikale Anwendungen mit extrem niedriger Latenz einzuführen“, klagt der Verband in seiner Stellungnahme. „Um Anwendungsfälle der nächsten Generation zu ermöglichen, ist es wichtig zu klären, ob solche Dienste mit der Netzneutralität vereinbar sind.“

EU-Kommission stellt Netzneutralität zur Debatte

Bislang ist allerdings völlig unklar, an welchen Stellen genau nachgeschärft werden sollte. Sowohl die EU-Regeln aus dem Gesetz als auch die begleitenden Leitlinien, in denen GEREK akribisch genau erläutert, unter welchen Bedingungen solche Spezialdienste erlaubt sind, sollten eigentlich einen recht genau abgesteckten Rahmen vorgeben. Solange solche Überholspuren technisch objektiv notwendig sind und dabei das offene Internet nicht untergraben, können Netzbetreiber ihrer Fantasie freien Lauf lassen.

In Deutschland wäre dies etwa die Telekom, die im Vorjahr mit einem speziellen Gaming-Paket sehr wohl ein Produkt mit „5G-Slicing (…) mit extrem niedriger Latenz“ eingeführt hat. So groß scheint die Verunsicherung, anders als es so manche Stellungnahme aus der Branche behauptet, also nicht zu sein.

Zumindest dem deutschen Digitalministerium waren im vergangenen Sommer keine Fälle bekannt, in denen „innovative Geschäftsmodelle im Zusammenhang mit Network Slicing“ untersagt wurden, teilte damals ein Sprecher der Ministeriums mit. „Wir halten die Vorgaben der EU-Verordnung und die diese erläuternden Leitlinien des GEREK auch grundsätzlich für klar und sachgerecht“, so der Sprecher.

Sollte die EU-Kommission diesen Bereich verändern, dürfe es keine unerwünschten Nebenwirkungen geben, mahnt ISOC: „Soweit die Rolle von Spezialdiensten im Rahmen der EU-Regeln für Netzneutralität geklärt werden muss, halten wir es für wichtig, dass ein solcher Prozess die Offenheit des Internets verteidigt und es vermeidet, ‚Innovation‘ als Rechtfertigung für diskriminierende Behandlung oder geschlossene Ökosysteme zu verwenden.“



Source link

Datenschutz & Sicherheit

Schweiz: Palantir-Software hat verheerende Risiken


Der Chef von Palantir, Alex Karp, residiert auch in einem Anwesen in der Schweiz. Der US-Tech-Konzern expandiert sein Geschäft mit Analysesoftware schon mehrere Jahre nach Europa. Was liegt da näher, als auch den Eidgenossen die Palantir-Systeme anzudienen? Genau das versuchte das militärnahe Unternehmen über Jahre – aber biss sich die Zähne aus.

Das berichtet das Magazin „Republik“ aus der Schweiz. Die Journalisten haben mit Hilfe von 59 Anfragen nach dem Öffentlichkeits­gesetz in einer lesenswerten Analyse nachvollzogen, wie sich der Konzern an öffentliche Stellen ranwanzte, um seine Software bei den Schweizer Bundes­behörden und beim Militär an den Mann zu bringen. Der Palantir-CEO und Milliardär Karp gab sich höchstselbst die Ehre und empfing den damaligen Bundeskanzler Walter Thurnherr.

Die Analyse enthält auch einen 20-seitigen internen Evaluationsbericht der Armee. Darin werden Vorzüge, aber auch Risiken eines Palantir-Einsatzes beschrieben, die letztlich zur Ablehnung einer Kooperation mit dem Konzern führten. Die Militärexperten kommen zu dem Schluss, dass ein Abfluss von Daten aus den Palantir-Systemen technisch nicht verhindert werden könne.

Das jedoch lässt die von polizeilichen Palantir-Nutzern in Deutschland gebetsmühlenartig wiederholte Behauptung, ein Abfluss der polizeiinternen Daten sei technisch gar nicht möglich, unglaubwürdig erscheinen. Sie dürfte sich eher auf bloße Zusicherungen des US-Konzerns, nicht aber auf technische Fakten stützen. Denn die Software ist proprietär, weswegen technische Einblicke darin nur begrenzt möglich sind.

Die vier deutschen Landespolizeien und deren Innenminister, die Verträge mit Palantir eingegangen sind, wirken einmal mehr ignorant gegenüber diesen ernsten Risiken, die eine Kooperation mit dem Konzern mit sich bringen: Nordrhein-Westfalen, Hessen, Bayern und nun auch Baden-Württemberg.

Palantir

Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!

Daumen runter für Palantir

Palantir-Software, wie sie auch von deutschen Polizeien eingesetzt wird, verbindet heterogene Datenbanken und analysiert Verbindungen von Datenpunkten oder Mustern darin. Zuvor fragmentierte Daten werden also zusammengeführt. Damit werden beispielsweise Verbindungen von Menschen sichtbar oder geographische Bewegungen verfolgbar.

Im Evaluationsbericht heißt es zu den Risiken für die in die Palantir-Systeme eingepflegten Daten:

Palantir ist ein Unternehmen mit Sitz in den USA, bei dem die Möglichkeit besteht, dass sensible Daten durch die amerikanische Regierung und Geheim­dienste eingesehen werden können.

Die Risikoeinschätzung der Militärs weist auf weitere Problemfelder, die von den polizeilichen Palantir-Vertragspartnern in Deutschland auch gern wegdiskutiert werden. Die Palantir-Software führe zu einer Abhängigkeit vom US-Anbieter, insbesondere „von externem hochqualifizierten Personal“. Ob „für die Implementierung, den Betrieb und die Wartung der Systeme dauerhaft technisches Fachpersonal von Palantir vor Ort benötigt wird“, sei unklar.

Auch drohe der Verlust der Daten­hoheit und der „nationalen Souveränität“. Das Kostenrisiko sei außerdem schwer abzuschätzen, da es keine Preislisten gebe. Das betrifft die Implementierung und Anpassung der Software und die Datenmigration, aber auch Lizenzgebühren und Wartungskosten. Man könne „genaue Beträge nur durch direkte Verhandlungen“ ermitteln.

Zudem werden die starken Eingriffe in die Privatsphäre in dem Bericht problematisiert, die durch die umfassende Daten­sammlung und -analyse entstehe. Auch die Diskriminierung spielt dabei eine Rolle, denn es könne dazu kommen, „dass bestimmte Personen aufgrund statistischer Zusammen­hänge ungewollt ins Visier geraten“.

Das Schweizer Bundesamt für Rüstung prüfte den Einsatz von Palantir-Software für ein bestimmtes Softwaresystem, das „Informatiksystem Militärischer Nachrichtendienst“. Dafür lagen vorgegebene Kriterien der Ausschreibung vor. Eines davon erfüllt das Palantir-Angebot nicht. Das Amt gibt den Journalisten aber keine Auskunft, um welches Kriterium es sich handelte. Das dazu veröffentlichte Schreiben besteht fast nur aus Schwärzungen.

Das Problem heißt nicht nur Palantir

Nimmt Dobrindt die Risiken in Kauf?

Die Eidgenossen entschieden sich gegen den Einsatz von Palantir-Produkten. Es war ihnen ein zu großes Risiko. Die Empfehlung lautet knapp: „Die Schweizer Armee sollte Alternativen zu Palantir in Betracht ziehen.“

Der Bericht stammt von Anfang Dezember 2024. Seither hat der 2003 gegründete US-Anbieter seine überaus engen Verbindungen zur Trump-Regierung noch intensiviert und durch Karp-Interviews medial begleitet. Die Software wird zwar in Kriegsgebieten von US-Geheimdiensten und -Militärs schon jahrelang intensiv genutzt. Doch seit dem Börsengang im Jahr 2020 wuchs Palantir zu einem der größten US-Tech-Konzerne heran.

Wenn die Risiken der Zusammenarbeit in Fragen der Datenhoheit und gar dauerhaften Abhängigkeit, der digitalen Souveränität, des Datenabflusses und bei den Grundrechtseingriffen von den Schweizern als so erheblich eingeschätzt werden, drängt sich die Frage auf, warum die deutschen Landespolizeien und Landesinnenminister zu einer anderen Einschätzung kommen. Es bleibt ihr Geheimnis.

Der deutsche Bundesinnenminister Alexander Dobrindt (CSU) weigert sich bisher, diese Fakten anzuerkennen. Denn er schließt nicht aus, Palantir-Produkte bei den Polizeien des Bundes einzuführen. Sein geplantes „Sicherheitspaket“ umfasst auch die sog. automatisierte Datenanalyse, so dass auch die Polizeien des Bundes ihre Datenbanken automatisiert erschließen und auswerten könnten.

Wenn er für die polizeiliche Datenanalyse­software mit dem US-Konzern kooperieren wollte, würden Millionen Datensätze, auch von völlig unverdächtigen Menschen, diesen nun hinlänglich bekannten Risiken ausgesetzt. Aber eigentlich müsste Palantir als möglicher Vertragspartner schon wegfallen, weil er mit der vielgepriesenen „digitalen Souveränität“ nicht kompatibel ist. Denn selbst bei lockerer Auslegung von „digital souverän“ kann die proprietäre Softwarelösung des US-Konzerns nicht akzeptabel sein.



Source link

Weiterlesen

Datenschutz & Sicherheit

Syncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht


Kontroverse rund um Syncthing-Fork: Das GitHub-Repository des Projekts, einer beliebten Android-Variante der Dateisynchronisations-Software Syncthing, war erst nicht mehr verfügbar und tauchte dann unter zweifelhaften Umständen wieder auf. Wie Nutzer im offiziellen Syncthing-Forum berichten, verschwand das Projekt des Entwicklers Catfriend1 plötzlich. Der Maintainer selbst ist seitdem nicht erreichbar und hat sein Profil auf privat gestellt.

Weiterlesen nach der Anzeige

Syncthing ermöglicht die dezentrale Synchronisation von Dateien zwischen verschiedenen Geräten ohne Cloud-Anbieter. Da die Anwendung vollen Zugriff auf das Dateisystem hat, sorgt das plötzliche Verschwinden des Repositorys in der Community für erhebliche Verunsicherung.

Laut Aussagen im Forum handelt es sich nicht um den ersten Vorfall dieser Art. Ein Nutzer berichtet, dass es 2025 bereits dreimal zu Repository-Resets gekommen sei. Syncthing-Mitbegründer Jakob Borg erklärte im Forum, dass es im Juli einen ähnlichen Ausfall gab, bei dem die Repository-History neu geschrieben wurde, um unangemessene Inhalte zu entfernen. Das Repository sei damals korrekt zurückgekehrt.

Jetzt ist die Situation jedoch anders: Ein neuer GitHub-Account namens researchxxl hat das Projekt offenbar übernommen. Es gibt jedoch keine öffentlich nachvollziehbare, verifizierbare Übergabe durch Catfriend1 – in bekannten Kanälen ist zumindest nichts dergleichen zu finden. Und das, obwohl der neue Maintainer theoretisch nun beliebigen Code unter der bisherigen Signatur auf eine große Zahl von Geräten bringen könnte. In der Community wird die Kommunikation des neuen Projektverantwortlichen wenigstens als ausweichend, beschwichtigend und wenig transparent wahrgenommen. Konkrete Fragen nach der Übergabe und nach mehr Offenlegung bleiben weitgehend unbeantwortet oder werden heruntergespielt.

Technisch wurden die bisherigen Änderungen von einigen Leuten geprüft und es wurden keine offensichtlichen bösartigen Modifikationen gefunden; F‑Droid baut die App zudem reproduzierbar und verifiziert, ob der veröffentlichte Code zu den Binaries passt. Dass „bisher nichts Böses gefunden“ wurde, ist aber explizit kein langfristiger Vertrauensbeweis – zum Beispiel könnten zukünftige Commits nach dem Abflauen der Kontroverse weniger genau kontrolliert werden und der neue Schlüsselhalter hat dauerhaft weitreichende Rechte.

In einem GitHub-Issue lassen sich die organisatorischen Fragen, etwa zur Einrichtung von Build-Prozessen, zur Freigabe über F-Droid und zur möglichen Umbenennung des Projekts, öffentlich nachvollziehen. Dabei meldet sich auch der bereits bekannte Entwickler und Play‑Store‑Verwalter nel0x, der bei der Weiterentwicklung helfen will – mehrere Syncthing‑Entwickler und Teile der Community erklären, dass sie eher seinen Builds vertrauen und hoffen, dass zum Beispiel F‑Droid künftig dorthin umzieht.

Weiterlesen nach der Anzeige

Aus Sicherheitssicht besonders problematisch: Unklar ist, ob der neue Account Zugang zu den Signierschlüsseln der ursprünglichen App hat – diese Frage wird in der Community intensiv diskutiert. Allein die Möglichkeit wirft jedoch Fragen zur Sicherheit der App auf, da unklar ist, wie diese Schlüssel in die Hände des neuen Maintainers gelangt sind. Ohne offizielle Stellungnahme von Catfriend1 lässt sich nicht ausschließen, dass das Entwicklerkonto kompromittiert wurde. Hier werden böse Erinnerungen an die xz-Lücke 2024 wach.

Die Community diskutiert intensiv über die Situation. Einige Nutzer hoffen auf eine Rückkehr des ursprünglichen Repositorys wie bei früheren Vorfällen, andere zeigen sich besorgt über die fehlende Transparenz. Hinzu kommt ein uraltes Problem freier Software: Borg wies im Forumsbeitrag darauf hin, dass die Wartung von Open-Source-Projekten eine weitgehend undankbare Aufgabe sei und jemand anderes die Gelegenheit nutzen könnte, einen Mirror anzubieten.

Für Nutzer der App bedeutet die Situation Unsicherheit: Updates könnten ausbleiben, und die Vertrauenswürdigkeit künftiger Versionen ist fraglich. Wer Syncthing-Fork installiert hat, sollte die Entwicklungen genau beobachten und sich gegebenenfalls mit Alternativen vertraut machen. Die zu finden, ist für Android-Nutzer derzeit schwierig, da die offizielle Syncthing-Android-App im Dezember 2024 eingestellt und das Repository archiviert wurde. Als mögliche Lösung hat nel0x angekündigt, seine Version weiterzuentwickeln – die Community hofft, dass F-Droid künftig auf diese Version umsteigt.


(fo)



Source link

Weiterlesen

Datenschutz & Sicherheit

Neuer DDoS-Spitzenwert: 29,7 Terabit pro Sekunde


Cloudflare hat den Bedrohungsbericht zum dritten Quartal 2025 veröffentlicht. Darin meldet das Unternehmen unter anderem einen neuen Spitzenwert bei einer DDoS-Attacke (Distributed Denial of Service), also einem Überlastungsangriff auf Server im Internet. Der hat eine Stärke von 29,7 Terabit pro Sekunde erreicht.

Weiterlesen nach der Anzeige

Wie Cloudflare im Blog-Beitrag dazu schreibt, ging dieser Angriff vom Aisuru-Botnetz aus. Das besteht aus geschätzten ein bis vier Millionen infizierten Geräten weltweit und zeichnete etwa im Mai für einen DDoS-Angriff auf die Webseite des IT-Sicherheitsjournalisten Brian Krebs verantwortlich. Routinemäßig entfessele Aisuru großvolumige DDoS-Angriffe, die die Stärke von 1 Terabit je Sekunde und 1 Milliarde Pakete pro Sekunde überschreiten, schreiben die IT-Forscher von Cloudflare. Hierbei haben sie eine Zunahme von mehr als 50 Prozent gegenüber dem Vorquartal beobachtet, im Schnitt 14 derart hochvolumige Angriffe am Tag. Den Höhepunkt markierte besagte Attacke, mit 29,7 TBit/s und 14,1 Milliarden Pakete je Sekunde. Es handelte sich um eine „UDP-Teppich-Bomben-Attacke“, die pro Sekunde auf 15.000 Zielports gerichtet war.

Einige weitere Höhepunkte sind laut Cloudflare die deutlich gestiegenen Angriffe gegen KI-Unternehmen. Gegenüber den Vormonaten sah das Unternehmen eine Zunahme von rund 350 Prozent im September 2025. Zudem sei ein signifikanter Anstieg bei Angriffen gegen Unternehmen aus Bergbau, Mineralien- und Metallgewinnung zu beobachten gewesen – zeitlich zusammentreffend mit den Spannungen zwischen EU und China bezüglich seltener Erden und Zöllen auf Elektroauto-Importe.

Insgesamt habe Cloudflare mit seinen automatischen Systemen 8,3 Millionen DDoS-Attacken im dritten Quartal 2025 abgewehrt. Das entspricht 3780 DDoS-Angriffen in jeder einzelnen Stunde. Im Quartalsvergleich stieg die Zahl der Angriffe um 15 Prozent – im Jahresvergleich hingegen sogar um 40 Prozent an.

Cloudflare erörtert auch die Verteilung auf die unterschiedlichen DDoS-Angriffswege. Die meisten sind vergleichsweise kurz und endeten nach etwa 10 Minuten. UDP-DDoS-Angriffe stiegen zum Vorquartal um 231 Prozent an und machten damit den Hauptanteil an Angriffen auf Netzwerkebene aus. An zweiter Stelle standen DNS-Floods, an dritter SYN-Floods sowie auf Platz vier ICMP-Floods. Über das gesamte Jahr 2025 gab es 10,3 Millionen HTTP-DDoS-Angriffe sowie 25,9 L3/L4-DDoS-Attacken, also jene auf Netzwerkebene, die Cloudflare mit seinen Systemen beobachten konnte.

Die bekannten Rekordwerte bei DDoS-Angriffen meldete zuvor Mitte November Microsoft mit 15,7 TBit/s und 3,64 Milliarden Paketen in der Sekunde. Nur wenige Monate vorher, im September, lag der Spitzenwert noch bei 11,5 TBit/s mit 5,1 Milliarden Paketen pro Sekunde.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Beliebt