Connect with us

Datenschutz & Sicherheit

Bundesregierung verfehlt Ziele der IT-Konsolidierung


Eigentlich wollte die Bundesregierung die Bundes-IT in diesem Jahr fertig modernisiert haben. Vor zehn Jahren beschloss sie ein Konzept zur IT-Konsolidierung. Damit wollte der Bund „eine leistungsfähige, wirtschaftliche, stabile und zukunftsfähige IT“ erreichen.

Das Konzept schaffte es aber bisher vor allem in die Schlagzeilen, weil die Kosten von einer Milliarde Euro auf 3,5 Milliarden Euro stiegen. Seinen Zielen kam der Bund trotzdem kaum näher. Er wollte IT und Netzinfrastruktur für die Bundesverwaltung fit machen und Kosten senken, etwa durch das Zusammenlegen von Rechenzentren.

Über zehn Jahre später ist klar: Der Bund ist hinter den Zielvorstellungen von damals weit zurückgeblieben. Das ist das ernüchternde Prüfergebnis des Bundesrechnungshofes. Wir veröffentlichen den 34-seitigen Bericht: Zentrale IT des Bundes – 10 Jahre IT-Konsolidierung Bund und Netze des Bundes.

Ziele heruntergeschraubt

Der Bundesrechnungshof prüfte, wie die zuständigen Finanz- und Innenministerien das Mammutprojekt umsetzen. Hardware- und Software-Komponenten zu vereinheitlichen, hält der Bundesrechnungshof für sinnvoll. Damit ließen sich nicht nur Kosten einsparen. IT-Systeme seien dadurch auch einfacher zu pflegen und weiterzuentwickeln. Nicht zuletzt könne es sie sicherer machen und dazu beitragen, dass der Bund die eigene IT besser kontrollieren kann.

Doch der Rechnungshof kritisiert, dass die Bundesregierung die ambitionierten Ziele beschnitten habe. Der Bund wollte noch 2018 die über 1.300 Rechenzentren und Serverräume der Bundesverwaltung auf eine kleinere Zahl zusammenschrumpfen. Inzwischen hat sie dieses Ziel zu den Akten gelegt.

Auch die Ziele, Software-Lösungen zu standardisieren und zu bündeln, schränkte die Bundesregierung ein. Hier wollte das zuständige Bundesinnenministerium bis Ende 2025 49 zentrale IT-Lösungen bereitstellen. Doch nicht alle werden fertig. Dabei habe das BMI für seine Aufgaben in den Jahren 2016 bis 2025 eine Milliarde Euro erhalten.

Netze des Bundes

Zunehmend wichtiger werden die Netze des Bundes. Mit der IT-Konsolidierung soll ein großer Teil des Datenverkehrs zwischen Behörden dahin verlagert werden. Damit steigen auch die Anforderungen an die Netze des Bundes und ihren Betrieb.

Bundesregierung, Bundesverwaltung sowie die Verwaltungen der Länder sollen darüber besser zusammenarbeiten, kommunizieren und sicher Daten austauschen können. Netzbetreiberin ist die Bundesanstalt für den Digitalfunk der Behörden und Organisationen mit Sicherheitsaufgaben. Diese BDBOS untersteht dem BMI.

Doch davon sind die Netze des Bundes weit entfernt. Laut Bundesrechnungshof sind wesentliche Komponenten „veraltet“, erhalten also zum Beispiel keine Sicherheitsupdates mehr. Zudem erfüllten die Netze des Bundes grundlegende Anforderungen zur „Bandbreite, Skalierbarkeit und Leistungsfähigkeit“ nicht. Mitarbeiter*innen in Behörden können darüber etwa keine Videokonferenzen abhalten oder mobil arbeiten.

Das kann die BDBOS laut Rechnungshof mit der jetzigen Architektur auch nicht entsprechend anpassen. Daher entwickelt sie die Netze des Bundes zu einem Informationsverbund der öffentlichen Verwaltung weiter. Das soll 1,3 Milliarden Euro kosten. Die müsste der Bund zur Verfügung stellen, so der Rechnungshof, unter anderem auch dafür, sich vom privaten Generalunternehmer unabhängiger zu machen.

IT-Strategie wird nicht konkret

Seit 2022 arbeitet die Bundesregierung an einer neuen IT-Strategie zusammen mit dem IT-Rat. Dieses Gremium steuert die Digitalisierung der Bundesverwaltung und legte zehn Handlungsfelder fest, um Ziele der Konsolidierung handhabbar zu machen. Dazu gehört etwa „Konsolidierung, Standardisierung und Nachfrage“.

Doch konkret ist die Bundesregierung bisher nur beim Handlungsfeld „Cloud Computing“ geworden. Andere Felder zu „Digitaler Souveränität, Resilienz und Sicherheit“ oder „Digitale Infrastruktur“ ließen laut Rechnungshof keine klare Zielsetzung und daher auch keine Fortschritte erkennen.

Mängel beim Monitoring

Der Bundesrechnungshof kritisiert: „Die Bundesregierung hat die übergreifenden Ziele der IT-Konsolidierung Bund seit dem Jahr 2015 weder überprüft noch angepasst.“ Für das mangelnde Monitoring führt er mehrere Beispiele an.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

So habe die Bundesregierung bislang nicht geprüft, inwieweit sie von technologischen oder geopolitischen Entwicklungen weltweit betroffen ist, wenn sie ihre IT bündelt. Ein Beispiel dafür sind wiederum Lieferkettenprobleme.

Logistikprobleme, Handelsbeschränkungen oder politische Konflikte – diese Ursachen zählt etwa die Zentralstelle für IT-Beschaffung auf. Die Bundesverwaltung hat dann unter Umständen mit höheren Preisen zu kämpfen oder muss damit rechnen, auf Server sieben Monate lang zu warten.

Eine klare Zielsetzung schaffte auch das BMI bei Thema IT-Beschaffung nicht. Um IT für den Bund wirtschaftlich zu beschaffen, sollte das Ministerium die Nachfrage und Beschaffung koordinieren. Dazu sollten Behörden unter anderem möglichst über Rahmenverträge einkaufen. Die Hoffnung sind hier niedrigere Preise. Laut Rechnungshof legte das BMI jedoch nicht fest, wie es die Auswirkungen auf Einkaufspreise messen will.

Zu viele Externe

Um die einzelnen Aufgabenbereiche umsetzen zu können, konnte sich die Bundesregierung nicht allein auf eigenes qualifiziertes Personal verlassen. Das geht aus dem Bericht des Rechnungshofes hervor.

Daher habe beispielsweise das BMI in den Jahren 2018 bis 2022 viele Externe beauftragt. Für Dienstleistungen zu „Projektunterstützung, Finanzcontrolling, Risikomanagement und Veränderungsmanagement“ habe das Ministerium „knapp 28 Millionen Euro“ ausgegeben.

Der Rechnungshof mahnt, die Bundesregierung dürfe sich gerade beim Thema Finanzcontrolling seiner IT-Projekte nicht von Externen abhängig machen. „Dies kann die Verwaltungsintegrität gefährden.“ Laut Bericht hat das Digitalministerium angekündigt, künftig mehr Stellen zu erhalten.

Noch ein langer Weg

Der Bundesrechnungshof sieht noch „einen langen Weg“ zur zentralen IT des Bundes: „Die Bundesregierung wollte mit der IT-Konsolidierung Bund und den Netzen des Bundes eine leistungsfähige, sichere, wirtschaftliche und zukunftsfähige zentrale IT für die Bundesverwaltung aufbauen. Sie hat es bis heute nicht geschafft, die dafür nötigen Stellschrauben vollständig zu justieren.“



Source link

Datenschutz & Sicherheit

Gipfel zur Europäischen Digitalen Souveränität: Kehrtwende für die „Innovationsführerschaft“


Bundeskanzler Friedrich Merz (CDU) und der französische Präsident Emmanuel Macron haben zu einem Gipfel geladen, dem „Gipfel zur Europäischen Digitalen Souveränität“. Entsprechend hoch waren die Erwartungen: Ein Aufbruchssignal sollte von dem Gipfel ausgehen – an Europa, aber auch in die USA und nach China. Im Fokus stand dabei das Bestreben, in der EU die digitale Souveränität zu stärken. Darunter verstanden alle Beteiligten das Ziel, im digitalen Sektor die wirtschaftlichen Abhängigkeiten zu außereuropäischen Anbietern zu reduzieren.

Um dieses Ziel zu erreichen, will das deutsch-französische Tandem nicht nur bestehende Schutzrechte abbauen, sondern Regulierung vom Kopf auf die Füße stellen. „Product first, regulation second“, lautete das Credo von Digitalminister Karsten Wildberger (CDU). Erst müsse man das Produkt bauen, so der Minister, und danach die Risiken evaluieren. Die KI-Verordnung verfolgt bislang den genau entgegengesetzten Ansatz: eine risikobasierte Regulierung, bevor eine neue Technologie auf den Markt kommt.

In seiner Keynote bestärkte Macron diese Stoßrichtung: „Wenn wir den USA und China das Feld überlassen, haben wir eine gute Regulierung, aber regulieren am Ende nichts mehr.“

Angesichts dieser Agenda verwundert es nicht, dass Vertreter:innen der Zivilgesellschaft nur einen Platz im Zuschauerraum erhielten. Und es ist sicher kein Zufall, dass die EU-Kommission just einen Tag nach dem Gipfel ihren „Digitalen Omnibus“ vorstellen wird – ein umfassendes Gesetzespaket, das darauf abzielt, Verbraucher:innenrechte und KI-Regulierung in der EU zu schleifen.

Die EU zum Spitzenreiter machen

Merz und Macron hielten zum Abschuss des Gipfels Reden, in denen sie ihre Vorstellungen der gemeinsamen Zusammenarbeit skizzierten. Auf den rund zehn Panels des Tages saßen unter anderem Bundesdigitalminister Wildberger, seine französische Amtskollegin Anne Le Hénanff und EU-Kommissions-Vizepräsidentin Henna Virkkunen. Daneben waren Vertreter:innen von großen europäischen Unternehmen wie SAP, Telekom, Mistral und Siemens vertreten.

Wildberger betonte, die EU gemeinsam mit Frankreich zum „Spitzenreiter bei Schlüsseltechnologien“ machen zu wollen. Und seine französische Amtskollegin Le Hénanff unterstrich, dass Frankreich und Deutschland „von dem Ehrgeiz getrieben“ seien, Unternehmen wettbewerbsfähiger zu machen. Und „digitale Souveränität geht nicht ohne KI“, betonte der Minister.


Bild von einem Plakat. Daneben Text: Kunstdrucke kaufen.

In diesem Sinne ging es auf dem Gipfel viel um Wertschöpfung und Innovationsgeist, Hochleistungsrechner und Quantenforschung. Und alle Seiten betonten, dass es nun wichtig sei, ins Machen zu kommen und das Tempo zu erhöhen. Das Rennen sei noch nicht vorbei, die Aufholjagd könne aber nur gelingen, wenn man „den Fuß von der Bremse“ nehme, so Wildberger.

Weniger Hürden, mehr Überholspur

Die Regierung verengt den Begriff der digitalen Souveränität dabei auf ökonomische Aspekte. Besonders deutlich wurde das in der Keynote von Bundeskanzler Merz. Der forderte nicht weniger als die „Innovationsführerschaft“ für Europa, um so der Dominanz der USA und Chinas zu entkommen. Die Staaten seien bereit, dafür einen entsprechenden Ordnungsrahmen zu schaffen, dann aber sei die Wirtschaft am Zuge.

Merz und Macron verwiesen beide auf den „Digitalen Omnibus“, den die EU-Kommission morgen vorstellt. Das umfassende Gesetzespaket verfolgt ebenfalls das Ziel, den Fuß von der Bremse zu nehmen. Laut Kommission soll es Regeln vereinfachen, überlappende Gesetze in Einklang bringen und Bürokratie abbauen. Der im Vorfeld von netzpolitik.org veröffentliche Zwischenstand lässt hier allerdings wenig Gutes erahnen.

Demnach will die Kommission die Datenschutzgrundverordnung erheblich schwächen und die Umsetzung zentraler Teile der KI-Verordnung für zwölf Monate aussetzen. Vor allem sensible personenbezogene Daten sowie Hochrisiko-Systeme bei sogenannter Künstlicher Intelligenz wären von den Änderungen betroffen. Das Ziel ist es also, Regulierung zu bremsen, damit Start-ups auf die Überholspur kommen.

Deklaration für mehr Deregulierung

Die Kommission treibt damit ebenfalls jene Umkehr an, die auch das deutsch-französische Tandem forciert: Erst mal machen, dann regulieren. Auf eine griffige Formel brachte das Vorgehen der Parlamentarische Staatssekretär im Digitalministerium, Thomas Jarzombek, am Gipfeltag. Er strebt eine Disruption „wie vor 150 Jahren“ an. Man müsse Dinge „einfach mal machen“ und „losmarschieren“. „Als die ersten Autos auf die Straße kamen, sprach auch niemand über die Verkehrstoten“, so der Staatssekretär.

Ins gleiche Horn stößt offenbar der Wortlaut der „Declaration for European Digital Sovereignty“. Die von Österreich initiierte Abschlusserklärung des Gipfels wird am Abend verabschiedet und ist rechtlich nicht bindend. Sie formuliert den Anspruch der EU, in kritischen Bereichen künftig unabhängig von Drittstaaten zu bleiben. Dafür brauche es langfristig auch private Investitionen in Hochleistungsrechner, Halbleiterfertigung oder Quantenforschung. Gleichzeitig aber müsse die EU private regulatorische Hürden abbauen, wie das Handelsblatt berichtet.

Zivilgesellschaft als fünftes Rad am Wagen

Nennenswerte Kritik am Deregulierungs-„Aufbruch“ der Bundesregierung war auf dem Gipfel nicht zu hören. Das könnte damit zusammenhängen, dass die Zivilgesellschaft auf den Panels nicht vertreten war, sagte Julia Pohle vom Wissenschaftszentrum für Sozialforschung in Berlin (WZB) gegenüber netzpolitik.org. „Die hätten womöglich über Gemeinwohl und Nachhaltigkeit gesprochen und das scheint nicht zum offiziellen Diskurs zu passen.“ Dass europäische digitale Souveränität demokratischen Werten und Grundrechten im Digitalen dienen soll, fiel damit hinten runter, so Pohle.

Auch Henriette Litta, Geschäftsführerin bei der Open Knowledge Foundation Deutschland, zeigte sich enttäuscht. Zwar begrüße sie, dass der Gipfel eine konsequente europäische Perspektive einnehme. „Ansonsten gab es aber keine Diskussionen und auf der Bühne kamen nur blumige Konsenspositionen vor“, sagte Litta gegenüber netzpolitik.org.

Rund 70 Vertreter:innen der Zivilgesellschaft hatten laut Digitalministerium zugesagt, zu dem Gipfel zu kommen. Insgesamt 150 Einladungen hatte das Ministerium zuvor an die Zivilgesellschaft verschickt. Einige Organisationen hatten bereits vor dem Gipfel die Sorge geäußert, dass der geplante Gipfel sich auf Großprojekte und KI fokussiere. Weder diese Sorge noch die Forderungen aus der Zivilgesellschaft wurden jedoch angehört.

So hatten das Bündnis „Offene Netzwerke und demokratische Öffentlichkeit. Dezentral, souverän und fürs Gemeinwohl!” und die Agora Digitale Transformation unter anderem öffentliche Investitionen in digitale Infrastrukturen gefordert. Als Beispiel nannten sie eine jährliche Förderung in Höhe von 30 Millionen Euro für das Fediverse sowie mehr Präsenz öffentlicher Behörden und Ministerien auf offenen Plattformen. Außerdem schlugen sie vor, dass freie und offene Software ohne Gewinnerzielungsabsicht gemeinnützig werden müsse, um die digitale Souveränität zu stärken.

Keine dieser möglichen Maßnahmen hat die Bundesregierung auf ihrem Gipfel aufgegriffen. Vielleicht wollte sie auch die Harmonie des Tages nicht stören.



Source link

Weiterlesen

Datenschutz & Sicherheit

Biometrische Überwachung bei Online-Prüfungen illegal


Frau an Schreibtisch
Beim Proctoring mussten die Studierenden teilweise ihre Zimmer abfilmen und einer Gesichtserkennung zustimmen. (Symbolbild) – Alle Rechte vorbehalten IMAGO / Jochen Tack

Während der Pandemie nutzten viele Universitäten sogenannte Proctoring-Systeme. Diese sollen Betrug bei Online-Prüfungen der Studierenden verhindern, zeichnen sich aber durch tiefe Eingriffe in Datenschutz und Privatsphäre aus. So mussten die Studierenden teilweise ihr gesamtes Zimmer filmen, einer Gesichtserkennung zustimmen und dem Überwachungssystem Zugriff auf quasi den ganzen Computer geben. Schon damals gab es Beschwerden von Studierenden und Landesdatenschutzbeauftragten.

Die Gesellschaft für Freiheitsrechte (GFF) kritisierte in einem Gutachten, dass die Grundrechte der Studierenden bei Online-Prüfungen unter die Räder geraten seien. Die Nichtregierungsorganisation suchte damals nach Betroffenen und klagte zusammen mit diesen gegen die invasive Software. Nun hat das Thüringer Oberlandesgericht am Montag über eine Klage entschieden und klargestellt, dass die Videoüberwachung von Studierenden bei Online-Prüfungen rechtswidrig ist, wenn dabei biometrische Daten verarbeitet werden. Das verstoße gegen die Datenschutzgrundverordnung, heißt es in der Pressemitteilung der GFF.

Betroffene erhält Schadenersatz

In dem in Thüringen entschiedenen Fall nutzte die Universität Erfurt demnach die Anwendung Wiseflow, die die Studierenden unter anderem mittels Gesichtserkennung überwacht. Damit wollte die Universität sicherstellen, dass stets die gleiche Person vor dem Monitor sitzt. Wiseflow verarbeitete biometrische Daten und leitete sie darüber hinaus an den Dienstleister Amazon Web Services weiter. Diese Praxis hat das Gericht nun für rechtswidrig erklärt und der Klägerin zudem einen Schadensersatz zugesprochen.

„Die Software hat damals starke Ängste in mir ausgelöst. Ich wusste nicht, wie sie funktioniert und was mit meinen Daten passiert. Aber ich hatte keine andere Wahl, weil ich mit meinem Studium vorankommen wollte“, erklärt Klägerin Jennifer Kretzschmar. „Ich bin froh, dass das Gericht jetzt festgestellt hat, dass die Überwachung rechtswidrig war. Hoffentlich achtet die Universität die Grundrechte der Studierenden bei Prüfungen künftig.“

Die GFF geht davon aus, dass das Urteil auch Signalwirkung für andere Bereiche, etwa die Überwachung am Arbeitsplatz, habe.



Source link

Weiterlesen

Datenschutz & Sicherheit

Neue DDoS-Spitze: Microsoft wehrt 15,7 TBit/s-Angriff ab


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Am 24. Oktober dieses Jahres hat Microsoft in seiner Azure-Cloud einen umfangreichen DDoS-Angriff mit mehreren Angriffsvektoren von 15,72 TBit pro Sekunde beobachtet. Die Last erzeugten 3,64 Milliarden Pakete pro Sekunde, was die derzeit größte beobachtete DDoS-Attacke auszeichnet, schreibt Microsoft in einem Blog-Beitrag.

Weiterlesen nach der Anzeige

Das Unternehmen führt aus, dass der Angriff vom Aisuro-Botnet ausging – das hatte im Mai etwa das Blog des IT-Sicherheitsjournalisten Brian Krebs attackiert. Es handele sich dabei um ein Mirai-artiges Botnet „mit Turbo“, das immer wieder rekordverdächtige DDoS-Angriffe ausführt. Dabei missbrauchten die kriminellen Drahtzieher kompromittierte Heimrouter und Kameras, die zum Großteil in Netzen von Internetprovidern für Privathaushalte in den USA und anderen Ländern stünden.

Bei einem DDoS-Angriff überfluten bösartige Akteure Server oder Systeme mit so vielen Anfragen, dass sie reguläre Anfragen etwa von echten Menschen nicht mehr beantworten können. DDoS-Angriffe nehmen sie somit quasi offline.

Der Angriff umfasste unter anderem UDP-Floods mit extrem hohen Raten, die auf eine bestimmte öffentliche IP-Adresse gerichtet waren – einem einzelnen Endpunkt in Australien. Sie gingen von mehr als einer halben Million Quell-IP-Adressen aus diversen Regionen aus. Die UDP-„Ausbrüche“ zeigten nur zu einem kleinen Teil Spoofing der Quelle und verwendeten zufällige Quell-Ports, was die Rückverfolgung erleichterte. „Angreifer skalieren mit dem Internet selbst“, schreibt Microsoft, „mit steigenden Geschwindigkeiten der Glasfaseranschlüsse und zunehmend stärkerer IoT-Hardware klettert auch die Grundlinie für Angriffsgrößen“.

Microsoft erklärt, dass der DDoS-Schutz von Azure den Angriff automatisch entdeckt und abgewehrt habe. „Bösartiger Verkehr wurde effektiv ausgefiltert und umgeleitet, was zur ununterbrochenen Dienstverfügbarkeit für Kunden-Workloads führte“, schreibt der Autor des Blog-Beitrags.

Im Juni hatte Cloudflare eine Spitzenlast von 7,3 TBit/s bei einem DDoS-Angriff beobachtet. Damit hat sich der der Spitzenwert in nicht einmal einem halben Jahr mehr als verdoppelt.

Anfang September hatte Cloudflare zuletzt eine DDoS-Attacke mit in der Spitze 11,5 TBit pro Sekunde gemeldet. Dafür hatten die Angreifer sogar 5,1 Milliarden Pakete pro Sekunde gesendet – deutlich mehr als die Angreifer jetzt an den von Microsofts Azure geschützten Endpunkt.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Beliebt