Connect with us

Datenschutz & Sicherheit

Deutschland-Stack und Zivilgesellschaft: Digitalministerium sendet widersprüchliche Signale


Der Deutschland-Stack ist das Großprojekt des jungen Bundesministeriums für Digitales und Staatsmodernisierung schlechthin. Damit will Karsten Wildberger (CDU) ein „digitales Update“ (€) für Deutschland. Mit der „einheitlichen IT-Infrastruktur mit Basiskomponenten wie Cloud- und IT-Diensten und klar definierten Schnittstellen“ adressiert er die grundlegenden Versäumnisse der seit Jahren schleppenden Digitalisierung der öffentlichen Verwaltung.

Eigentlich könnte das Ministerium hier aus dem Vollen zivilgesellschaftlicher Expertise schöpfen. Viele zivilgesellschaftliche Akteure beobachten die scheiternde Verwaltungsdigitalisierung nicht nur seit Jahrzehnten, sondern bringen ihr Wissen und ihre Erfahrungen häufig ehrenamtlich in Digitalisierungsprojekte und nachhaltige Lösungswege ein.

Zum Start des Konsultationsprozesses im Herbst erhielt das Ministerium zunächst viel Lob. Öffentlich rief es Gruppen, Verbände, aber auch Einzelpersonen dazu auf, über die Plattform openCode ihr Feedback zum Stack einzubringen. Der Zugang dazu ist niedrigschwellig und die einzelnen Beiträge sind öffentlich einsehbar. Die volle Transparenz hebt hier die Konsultation stark von bisherigen Beteiligungsformaten ab.

Workshops ohne die Zivilgesellschaft

Doch um Feedback zu bekommen, fährt das Ministerium von Anfang an zweigleisig. Denn zeitgleich zur offenen Konsultation plante es Workshops mit Verbänden aus den Bereichen Start-ups, Wissenschaft, IT- und Digitalwirtschaft sowie weiteren. Mit von der Partie waren vor allem Wirtschaftsverbände. Dabei erhielt die Zivilgesellschaft bislang keinen Zugang.

Was bei den Workshops herauskam, ist nicht bekannt. Die hätten „generell im Haus intern und auf Arbeitsebene stattgefunden – zu diesen gibt es keine öffentliche Berichterstattung“, erklärt ein Sprecher des BMDS gegenüber netzpolitik.org.

Wie aus der Antwort (PDF) der Bundesregierung auf eine Kleine Anfrage von Sonja Lemke (Die Linke) hervorgeht, gab es im November fünf Workshops – zu den Themen Markt und Integrationsplattform, Startups und Agentic AI. Sie wurden unter anderem ausgerichtet von eco, dem KI-Verband, Bitkom und Databund. Die Bundesregierung betonte, sie habe Expertise zum Thema „technische Standards und Technologien des Deutschland-Stacks“ angefragt, aber an den Workshops lediglich als „Impulsgeber“ teilgenommen.

Digitalministerium lässt sich bitten

Bei der Terminvergabe ging die Zivilgesellschaft leer aus, sowohl in der ersten Konsultationsphase vom 1. Oktober bis zum 30. November als auch in der zweiten vom 16. Januar bis zum 15. Februar. Dabei hatte das Bündnis F5 bereits im Herbst beim Ministerium nach einem Termin gefragt, so Kai Dittmann. Er leitet die Advocacy- und Policyarbeit bei der Gesellschaft für Freiheitsrechte (GFF) und koordiniert das Bündnis.

Zu diesem Bündnis haben sich die Organisationen Reporter ohne Grenzen, AlgorithmWatch, Wikimedia Deutschland, Open Knowledge Foundation Deutschland und GFF zusammengeschlossen, sie setzen sich für eine gemeinwohlorientierte Digitalpolitik ein.

„Wir hatten gehofft, dass das BMDS von sich aus einen Konsultationsworkshop zum Deutschland-Stack anbietet“, sagt Dittmann, „um zunächst ein paar grundlegende Informationen zu vermitteln, etwa was zum Stack gehört und was nicht. Es wäre sinnvoll gewesen, zu Beginn darüber zu diskutieren, bei welchen Fragestellungen die Zivilgesellschaft aktiv eingebunden sein sollte“, etwa bei der Frage nach dem Einsatz digitaler Identitäten und danach, wie der sich auf Grundrechte auswirkt und wie er eingeschränkt werden müsste. Auch zur Frage einer sinnvollen Datenhaltung, um diesen Deutschland-Stack zu befüllen, hätte das BMDS von der Expertise von Wikimedia profitieren können, so Dittmann.

F5-Workshop zu KI in der Verwaltung

Schließlich fand Ende März ein Workshop mit F5 statt. Das Thema: „KI in der Verwaltung“. Doch wie das BMDS auf Anfrage erklärt, habe der Workshop „keinen speziellen Bezug zum Deutschland-Stack“. Das überrascht in doppelter Hinsicht. Denn laut Antwort der Bundesregierung vom Dezember sei ein Workshop mit der Zivilgesellschaft „in Klärung“ und als Organisation benannte sie das Bündnis F5. Das suggeriert, dass der F5-Workshop im Kontext des Deutschland-Stacks geplant war.

Zweitens waren bei diesem Workshop laut BMDS nicht nur Vertreter:innen aus der Zivilgesellschaft eingeladen, sondern auch aus der Wirtschaft. Überraschend ist die „Klarstellung“ des Ministeriums auch, weil KI im überarbeiteten „Gesamtbild“ ausdrücklich Teil des Deutschland-Stacks ist.

Agentische KI soll Verwaltungsaufgaben künftig erleichtern und teilweise übernehmen. Dazu hat das BMDS einen eigenen Hub gegründet und fördert eine Reihe an Pilotprojekten. Eines davon setzt agentische KI beim Antragsverfahren für Wohnberechtigungsscheine ein. Sie betrifft einen sensiblen Bereich, in dem es um die Existenz von Menschen geht. Fehler wären hier verheerend. Das veranschaulicht das Beispiel um die Kindergeldaffäre in den Niederlanden.

„Ins Machen kommen“ braucht klare Grenzen

„Im Workshop haben wir viele Fragen erst angerissen“, so Dittmann. Wie gehen Verwaltungen und Mitarbeiter:innen etwa damit um, wenn was schief geht? Wer trägt die Verantwortung für den Fall, dass Fehler passieren, die unter Umständen gravierende Konsequenzen haben? Der Sachbearbeiter, die Software-Hersteller, der IT-Dienstleister, die Behörde, die das KI-System eingekauft hat, oder der Minister, der das Ganze vorangetrieben hat? Wer ist zuständig, wenn entsprechende KI-Systeme nicht die gewünschten Ergebnisse liefern?

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Was passiert, wenn ein einzelner Sachbearbeiter mithilfe von KI-Agenten immer mehr Anträge bearbeitet und etwas übersieht? „Müssen wir mit einer Verantwortungsdiffusion in diesem System rechnen?“, fragt Dittmann. Denn klar sei, die Maschine kann keine Verantwortung tragen.

Das alles seien gesellschaftliche Fragen, über die wir sprechen und die wir klären müssten. Angesichts des Mottos „ins Machen kommen“ seien sie bislang untergegangen. Ins Machen zu kommen, heiße aber auch zu entscheiden, „was wir alles nicht machen“ und Grenzen abzustecken, so Dittmann.

Aufsuchende Beteiligung

Dass das BMDS im Rahmen des D-Stacks die Zivilgesellschaft auf Abstand hält, ist umso unverständlicher, als es laut Sprecher beim KI-Transformationsprozess ausdrücklich darum gehe, deren Perspektiven einzubeziehen.

Auch wenn die Kommunikation des Ministeriums bislang unstet war, den Workshop Ende März sieht Dittmann als Startschuss dafür, zivilgesellschaftliche Expertise nicht nur einzubeziehen, sondern auch als Ressource zu begreifen. Die könne das Ministerium noch mehr nutzen, wenn es sich um eine aufsuchende Beteiligung bemüht.

Das kann bedeuten, die Expertise engagierter Menschen über andere Wege einzuholen. Denn die arbeiten häufig ehrenamtlich und können Workshops nicht wahrnehmen, wenn die an einem Werktag zu normalen Geschäftszeiten stattfinden. Das betrifft zum Beispiel Ehrenamtliche von D64, dem Zentrum für digitalen Fortschritt, vom Chaos Computer Club oder InÖG, dem Innovationsverbund öffentliche Gesundheit.

Das Ministerium könnte Forschungsmittel bereitstellen oder bei Forschenden anfragen, welche Personen oder ehrenamtlichen Organisationen sich bei bestimmten Fragen besonders gut auskennen. Beispielsweise könne das BMDS auch nach Erfahrungen fragen, die ehrenamtliche Digitalisierungsprojekte in Berlin, auf Bundesebene, aber auch in Städten und kleineren Gemeinden eingeholt haben.



Source link

Datenschutz & Sicherheit

Rotlichtviertel Frankfurt am Main: Hier analysiert die Polizei jedes Gesicht


Juanita Henning steht auf der Elbestraße in Frankfurt am Main und schaut in eine Videokamera. Die hängt etwa 50 Meter von ihr entfernt und hat acht Linsen, um von allen Straßenabschnitten gleichzeitig scharfe Bilder zu liefern. „Die vermisst jetzt gerade mein Gesicht und prüft, ob ich von der Polizei gesucht werde“, sagt Henning. Biometrische Fernidentifizierung in Echtzeit nennt das hessische Innenministerium die Technologie, die hier in einem Pilotprojekt getestet wird. Und wie fühlt es sich an, im Blickfeld der Kamera? „Absolut unangenehm. Du weißt ja auch nie, wozu diese Aufnahmen missbraucht werden“, sagt sie.

Juanita Henning befindet sich vor dem Büro von Doña Carmen, einer Beratungsstelle für Prostituierte. Links daneben ist eine Tabledance-Bar, rechts daneben ein Bordell. Gegenüber, auf der anderen Straßenseite, sind noch zwei weitere Bordelle. Auch ihre Eingänge liegen im Sichtbereich der Kamera. Insgesamt erfasst die Videoüberwachung des Frankfurter Bahnhofsviertels mindestens 16 Häuser, in denen Sexarbeit verrichtet wird.

Deren Türen und Fenster werden in der Videoüberwachung angeblich ausgeblendet, ansonsten wird der öffentliche Raum im Bahnhofsviertel von Frankfurt am Main „nahezu vollständig“ videoüberwacht, so die Polizei zu netzpolitik.org. 29 der 70 Kameras, die in Frankfurt öffentlichen Raum erfassen, stehen hier. 19 davon eignen sich für die automatisierte Gesichtserkennung.

„Ein ganz perverser Eingriff“

Henning sagt: „Videoüberwachung und automatisierte Gesichtserkennung dort, wo Sexarbeiter*innen arbeiten – das ist ein ganz perverser Eingriff in die Intimsphäre von Menschen.“ Henning ist im Vorstand von Doña Carmen, hat den Verein einst mitgegründet und ist auf ihren Wegen zu und von der Beratungsstelle regelmäßig der automatisierten Gesichtserkennung ausgesetzt. Sie hat nun gemeinsam mit Gerhard Walentowitz, ebenfalls Doña-Carmen-Vorstandsmitglied, und unterstützt von der Gesellschaft für Freiheitsrechte (GFF) vor dem Verwaltungsgericht Frankfurt Klage dagegen eingereicht.

Davy Wang von der GFF sagt: „Besonders problematisch ist der Einsatz der biometrischen Videoüberwachung in sensiblen Kontexten, etwa im Umfeld sozialer Beratungsstellen. Institutionen wie Dona Carmen sind darauf angewiesen, ihren Klient*innen einen geschützten, vertraulichen und niedrigschwelligen Zugang zu gewährleisten.“

Henning arbeitet seit 1991 als Sozialarbeiterin hier im Viertel. Sie sagt: „Den Frauen gefällt das absolut nicht, dass sie überwacht werden. Die wollen anonym bleiben, um sich und ihre Familien vor Diskriminierung und Stigmatisierung zu schützen.“ Zudem würden durch die vielen Kameras die Umsätze sinken, weil auch die Kunden lieber unerkannt blieben.

Frankfurt ist wohl erst der Anfang

Das Frankfurter Bahnhofsviertel ist Freiluftlabor für die Echtzeit-Fernidentifizierung. Zahlreiche Bundesländer haben bereits Interesse an der Technologie angemeldet, die hier deutschlandweit – nach einem Testlauf am Berliner Bahnhof Südkreuz – erstmals offen eingesetzt wird. In einem ersten Ausweitungsschritt wurde die automatisierte Gesichtserkennung auch an Kameras angeschlossen, die Haupt- und Konstablerwache überwachen, die Enden der zentralen Frankfurter Einkaufsstraße Zeil. Der hessische Innenminister Roman Poseck (CDU) hat noch vor Einführung der KI-Überwachung angekündigt, dass er diese hessenweit an Kriminalitätsschwerpunkten einführen will. Und Bundesinnenminister Alexander Dobrindt (CSU) möchte deutsche Bahnhöfe flächendeckend mit dieser Technologie – und zudem Verhaltensscannern – ausrüsten. Frankfurt ist also höchstwahrscheinlich erst der Anfang.

Aktuell darf in Frankfurt mit der Gesichtserkennung nach Terrorist*innen gesucht werden, nach vermissten Menschen und nach Opfern von Entführung, Menschenhandel oder sexueller Ausbeutung. Für jede Suche ist ein richterlicher Beschluss nötig. Das System läuft seit Juli 2025, seitdem wurde „eine niedrige zweistellige Anzahl an Personen“ damit gesucht. Erfolg gab es nur einmal, als eine vermisste 16-Jährige mit der Kamera-KI identifiziert wurde. Ab Juli 2026 soll eine Evaluationsphase folgen, aber es sieht bereits so aus, als solle das System auf jeden Fall verstetigt werden. Zuständig für die Gesichtserkennungstechnologie ist die Direktion 100 der Frankfurter Polizei, zu der auch das skandalumwitterte 1. Polizeirevier gehört.

Neben dem Probelauf mit der Fernidentifizierung ist Frankfurt am Main auch Experimentierfeld einer weiteren, bislang deutschlandweit einmaligen Form der automatisierten Gesichtserkennung. Polizist*innen nutzen hier seit Dezember 2025 eine App, mit der sie bei Personenkontrollen Verdächtige identifizieren, die sich nicht ausweisen wollen oder können. Die „Abfrage-App“ bietet eine mobile Schnittstelle zum Gesichtserkennungssystem des BKA. Dort wird das fotografierte Gesicht mit den Gesichtern der 5,36 Millionen Menschen verglichen, die in der polizeilichen Datenbank gespeichert sind. Gibt es einen Treffer, erscheinen Name, Geburtsdatum und Staatsangehörigkeit auf dem Smartphone-Display. Darauf folgt eine „menschliche Plausibilitätskontrolle“.

Die Kosten hält die Polizei geheim

Auf 160 Geräten wurde die App bislang installiert. Nach Abschluss der Pilotphase wolle man sie für alle Polizist*innen des Landes freischalten, so die hessische Polizei. Andere Landes-Polizeien und Bundesbehörden sollen die App dann ebenfalls einsetzen dürfen. Die Kosten für die Entwicklung der App – wie auch die Kosten für die Echtzeit-Fernidentifizierung – hält die Frankfurter Polizei geheim.

Dimitrios Bakakis, Fraktionsvorsitzender der Grünen im Frankfurter Stadtparlament, sagt: „Was hier erprobt wird, ist der Einstieg in eine Überwachungspraxis, die wir aus den USA kennen und die dort zu massiven Diskriminierungen geführt hat.“ Der Landesdatenschutzbeauftragte Alexander Roßnagel arbeitet gerade an einer Stellungnahme zu der Gesichtserkennungs-App.

Frankfurt am Main ist die deutsche Frontstadt der automatisierten Gesichtserkennung. Hier beginnt die Zeitenwende hin zur automatisierten Erfassung und Identifikation von Menschen über physiologische Merkmale. Und das ausgerechnet in dem Bundesland, das 1970 das erste Datenschutzgesetz der Welt verabschiedete. „Pilotprojekte wie Biometrie-Apps auf Polizeihandys oder Gesichtserkennung mit Kameras sind keine harmlosen Tests an begrenzten Orten, sondern weiten Schritt für Schritt biometrische Überwachung für alle aus“, sagt Kilian Vieth-Ditlmann von AlgorithmWatch. „Das Ende jeder Anonymität im öffentlichen Raum ist aus unserer Sicht keine Übertreibung, sondern die logische Konsequenz, die sich aktuell andeutet.“

Bakakis von den Frankfurter Grünen fügt hinzu: „Freiheit im öffentlichen Raum bedeutet nicht nur, dass man sich physisch bewegen darf – sondern auch, dass man anonym sein kann, also nicht automatisch identifiziert und registriert wird, nur weil man irgendwo entlangläuft.“

„Wie 1984“

Im Frankfurter Bahnhofsviertel kann man also schon jetzt erleben, was an vielen Orten droht: eine ständige potenzielle De-Anonymisierung aller Personen im öffentlichen Raum. Was macht das mit den Menschen vor Ort, wenn eine Software ständig versucht, sie zu identifizieren?

Milan, lange Haare, zerrissene Jeans, sitzt neben zwei Bekannten auf dem Bürgersteig, an der Wand eines Bordells. Er hält eine Metallpfeife in der Hand. Milan raucht damit Crack. Was sagt er zu der Kamera, die genau auf ihn zeigt? „Die ist mir egal“, sagt er. Die Polizei interessiere sich nicht für ihn. Die Kleinstmengen, die er und seine Bekannten bestenfalls einstecken hätten, seien den Aufwand nicht wert. Und was ist mit der Gesichtserkennungs-Software, die die Bilder analysiert? „Das ist ja wie in dem Buch ‚1984‘“, sagt er, eher interessiert als alarmiert.

Auch Lisa guckt frontal in eine achtlinsige Kamera. „Ganz schön gruselig“, sagt sie. Die Dreißigjährige wohnt hier im Bahnhofsviertel, die Kamera steht auf einem ihrer täglichen Wege. Lisas Alltag als Anwohnerin spielt sich zu einem guten Teil hier ab, unter Kameras. „Ich versuche das zu verdrängen, aber ein Unbehagen ist immer da“, sagt sie. Die offene Drogenszene empfindet sie hingegen als nicht bedrohlich. „Ich wohne hier ganz entspannt. Ich hatte kaum bedrohliche Situationen. Und wenn, könnten die Kameras mir nicht helfen“, sagt sie. Lisa nennt das Bahnhofsviertel „Projektionsfläche konservativer Politiker mit Ordnungsfantasien“.

„Man weiß nie, ob man gerade angestarrt wird“

Die Kamera filmt Lisas Gesicht. Die Bilder laufen in eine Videoleitstelle und werden dort von Polizist*innen gesichtet. Die können einige der Kameras auch ferngesteuert schwenken, neigen, zoomen. „Das ist eigentlich schlimm genug, dass man nie weiß, ob man gerade angestarrt wird“, sagt Lisa. Zudem werden die Bilder für 14 Tage gespeichert, sollten sie für Ermittlungen benötigt werden, auch länger.

„Und jetzt kommt der gruseligste Teil“, sagt Lisa. Sie meint: Die Software, die im Datenstrom der Kameras in Echtzeit Menschen identifiziert. Denn wenn die Polizei mit der Videoüberwachung gerade nach Menschen fahndet, scannt eine Software alle Gesichter, also auch Lisas. Das Programm leitet aus Lisas Physiognomie eine Datenkolonne ab und vergleicht diese mit den Daten des Zielgesichts. Würde Lisa tatsächlich gesucht oder wäre ihr Gesicht einem gesuchten zumindest ähnlich genug, würde auf dem Bildschirm des zuständigen „Videosachbearbeiters“ ein Screenshot erscheinen, auf dem Lisa optisch markiert ist, dazu erklänge ein akustischer Hinweis. Die Person vor dem Bildschirm müsste dann einschätzen, ob Lisa tatsächlich die gesuchte Person ist und gegebenenfalls Einsatzkräfte informieren. Die würden dann mit einer Personenbeschreibung zum Ort der Sichtung geschickt. Sind auf dem Videostream Straftaten zu sehen, wird sogar ein Foto der tatverdächtigen Person per polizeiinternem Messenger an die Dienst-Handys der Beamt*innen vor Ort gesendet.

Der Landesdatenschutzbeauftragte schrieb schon 2024, dass die Live-Gesichtserkennung einen „tiefgreifenden Grundrechtseingriff“ darstelle und nur unter „engen Voraussetzungen“ legal sei. Davy Wang von der Gesellschaft für Freiheitsrechte, die Juanita Henning in ihrem Kampf gegen die KI-Überwachung unterstützt, sagt: „Die biometrische Echtzeit-Fernidentifizierung im öffentlichen Raum stellt einen besonders schwerwiegenden Eingriff in die Grundrechte dar, weil sie massenhaft auch unbeteiligte Personen erfasst.“ Die hessische Rechtsgrundlage dafür sei zu unbestimmt, die Eingriffsschwelle zu niedrig. Lösch- Transparenz- und Bachrichtigungspflichten gebe es nicht.

Gesichtsscans ermöglichen Einblicke in das Privatleben

Die digitale Kennung, die die Software aus Lisas Gesicht errechnet, ließe sich auch mit Bildern aus dem Internet vergleichen. So fänden sich möglicherweise Demo-Fotos, auf denen sie in der Masse abgebildet ist, oder peinliche Jugendsünden auf Social Media. Die Bundesregierung will derartige Datenabgleiche zeitnah möglich machen, obwohl hohe grundrechtliche Hürden dagegenstehen.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

In Frankfurt wird ein Gesichtsscan angeblich sofort verworfen, wenn er nicht zu einem Treffer führt. „Aber ob das wirklich passiert, weiß ich nicht“, sagt Lisa. „Man weiß auch nicht, ob die Bilder aus den Kameras nicht doch irgendwann mit der Palantir-Software Hessendata ausgewertet werden“, fügt sie hinzu.

Eine Ecke weiter, eine Stunde später: Ein Trupp von fünf Polizist*innen stürmt im Laufschritt durch das Viertel, zielstrebig zu zwei überraschten Männern. Die werden umstellt und aufgefordert, sich auszuweisen, anschließend folgt die Leibesvisitation. Kein Ergebnis. Die Polizist*innen ziehen wieder ab. Was war das jetzt? „Anlasslose Kontrolle“, sagt ein Polizist. Aufgrund der Waffenverbotszone, die hier gilt, dürfen die Polizist*innen das.

Viele repressive Maßnahmen

Die Aktion ist eine von vielen repressiven Maßnahmen, mit denen Sicherheitsbehörden gegen Menschen im Bahnhofsviertel von Frankfurt am Main vorgehen. Die Polizei patrouilliert mit Fahrzeugen durchs Viertel, mit uniformierten Einheiten und mit Zivilfahnder*innen. Regelmäßig gibt es Groß-Razzien, dazwischen auch zahlreiche verdachtsunabhängige Kontrollen einzelner Menschen oder Gruppen. Polizist*innen können Aufenthaltsverbote für das Viertel aussprechen, die mit bis zu zwei Jahren Haft strafbewehrt sind. Am Stadtbild ändert sich dadurch nichts. Das ist, auch mit intelligenter Videoüberwachung, ganz offen von Crack geprägt.

Die Frankfurter Polizei lässt die Konsument*innen weitgehend in Ruhe, geht aber gegen Dealer vor, auch mit Hilfe der Videoüberwachung. Die Händler haben sich vermutlich deshalb außerhalb der videoüberwachten Zone eingerichtet. Dort, kurz vor dem Schild, das vor den Kameras warnt, nickt beispielsweise ein junger Mann herausfordernd Passant*innen zu. Wer seinem Blick standhält, dem wispert er „Brauchst du was?“ entgegen.

In Blickweite des mutmaßlichen Dealers, in der überwachten Zone, steht das Nika-Haus, ein selbstverwaltetes Wohnprojekt. Im Erdgeschoss residiert eine Beratungsstelle des „Förderverein Roma“. Timur Beygo leitet sie. Vor seiner Tür stehen und sitzen Menschen und konsumieren Crack. „Wir kommen im Allgemeinen sehr gut mit denen aus“, sagt er. Was ihn hingegen stört, das ist die Videoüberwachung. „Hier erscheinen etwa 15 Klienten am Tag, Roma und Sinti, meist Mütter mit Kindern, die werden dann einfach mitüberwacht. Das ist hochgradig überzogen.“ Kritik hat er auch an den Polizeieinsätzen. „Die Polizei tritt häufig sehr ruppig auf. Mein Eindruck ist zudem, dass Polizeieinsätze die Situation mitunter erst zuspitzen, obwohl vorher noch gar kein Konflikt bestand.“

„Das wird testhalber eingeführt und dann entgrenzt“

Auf einer Bierbank vor einem Kiosk im Bahnhofsviertel sitzen Walter Schmidt und Uli Breuer. Die beiden gehören zur Bürgerrechtsgruppe dieDatenschützer Rhein Main. Gelegentlich bieten sie Führungen an, in denen sie die KI-gestützte Videoüberwachung des Areals zeigen und erklären. „Das wird immer alles testhalber eingeführt und dann entgrenzt“, sagt Breuer. „Jetzt haben wir noch eine relativ freie Gesellschaft, aber wenn solche Methoden in die falschen Hände geraten, dann kann das sehr schlimm werden.“ Schmidt fügt hinzu: „Ich empfinde das als Unverschämtheit, dass ich von allen möglichen Kamerabetreibern erfasst werde und wehre mich dagegen wo möglich.“

Die beiden positionieren sich auch gegen die verdachtsunabhängigen Kontrollen, die im Viertel möglich sind (Breuer: „Das ist Willkür!“), und gegen den hessischen Polizeigesetzpassus, der Videoüberwachung ermöglicht, wenn mutmaßlich das Sicherheitsgefühl von Bürger*innen beeinträchtigt ist (Schmidt: „Ganz üble Kiste“). „Wir können sie nicht stoppen, aber bremsen“, sagt Breuer zu den Überwachungsbestrebungen. Nachdem sich die beiden beschwert hatten, erhielten beispielsweise einige Kameras an der Alten Oper eine Abschirmung, sodass diese nur noch die zulässigen Flächen abfilmen können.

Hoffnung für die beiden Datenschützer liefern die Grünen im Hessischen Landtag. Die lassen mit einem Normenkontrollantrag beim Staatsgerichtshof klären, ob die der Echtzeit-Fernidentifizierung zugrunde liegende Polizeigesetzänderung rechtens war. Eine Überprüfung der Rechtsgrundlage streben auch Juanita Henning und die GFF an. Sie haben beim Verwaltungsgericht Frankfurt beantragt, dass es die Abschnitte aus dem Polizeigesetz, die die Fernidentifizierung erlauben, dem Bundesverfassungsgericht vorlegt.

Durchkärchern

Etwa 150 Meter Luftlinie von Schmidt und Breuer auf ihrer Bierbank: Eine Frau mit löchriger Strumpfhose und rastlosen Beinen wälzt sich in einem Hauseingang. Zwei Männer hocken einander gegenüber zwischen parkenden Autos, während einer ein Glasröhrchen erhitzt. Eine Gruppe hat sich entlang einer Hauswand niedergelassen. Menschen liegen vollverhüllt in Schlafsäcken, einige reden, andere sitzen vornübergebeugt und präparieren anscheinend Drogen zwischen ihren ausgestreckten Beinen. Crackpfeifen er- und verglühen im erratischen Takt. Darüber wacht ein Kameraturm.

Auftritt Stadtpolizei Frankfurt am Main. Vier Beamt*innen sprechen die Menschen auf der Straße an und fordern sie auf, zu gehen. „Lagern und Verweilen zum Zweck des Konsums von Betäubungsmitteln“ ist hier verboten. Bis zu 100 Euro Bußgeld kann das kosten. Nach und nach lösen die Polizist*innen die Gruppe auf. Im Davonstolpern bereitet sich ein Mann, Kapuze auf dem Kopf, eine weitere Pfeife zu, hinter ihm gehen die Beamt*innen, dahinter bürstet eine Kehrmaschine der Stadtreinigung über den Bürgersteig. Als letzter in der Prozession folgt ein Mann mit einem Hochdruckreiniger. Er gibt dem Pflaster den letzten Schliff.



Source link

Weiterlesen

Datenschutz & Sicherheit

Oracle sichert Produktportfolio mit 481 Sicherheitsupdates ab


Oracle hat sein vierteljährlich erscheinendes Sicherheits-Update veröffentlicht. Insgesamt sind es 481 Patches, die gewissermaßen im gesamten Softwareportfolio Sicherheitslücken schließen. Oracle rät Admins, die Updates zügig zu installieren. Bislang erwähnt der Softwarehersteller keine laufenden Attacken.

Weiterlesen nach der Anzeige

In einer XXL-Liste finden sich die bedrohten Anwendungen und nun reparierten Versionen. Admins sollten diese Liste studieren, um die für sie relevanten Anwendungen zu identifizieren. Aus der Masse an Schwachstellen sind besonders „kritische“ Lücken in unter anderem Oracle Communications (CVE-2025-6965), E-Business Suite (CVE-2026-34275), Fusion Middleware (CVE-2025-68615) und MySQL (CVE-2025-15467) hervorzuheben. Durch das erfolgreiche Ausnutzen dieser Lücken können Angreifer Abstürze auslösen oder sogar Schadcode ausführen, um Systeme vollständig zu kompromittieren.

Das nächste Oracle Critical Patch Update ist für den 21. Juli geplant. Wenn Angreifer in der Zwischenzeit Zero-Day-Lücken ausnutzen, veröffentlicht der Softwarehersteller auch Sicherheitspatches außerhalb der Reihe.


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Fachleute fordern: Bundesregierung muss KI auf Klima-Kurs bringen


Wie kann Künstliche Intelligenz ökologisch nachhaltiger und gleichzeitig zum Wettbewerbsvorteil für Deutschland und Europa werden? Das Bundesumweltministerium hat zu dieser Frage in der vergangenen Woche ein Gutachten von fünf Expert:innen veröffentlicht. Ihre klare Botschaft: Beides ist möglich, aber nur mit einem deutlichen Umsteuern in der KI-Politik.

Während die Bundesregierung gerade die Regeln zu Umweltschutz und Energieeffizienz von Rechenzentren lockern will, weil sie sich als Konkurrentin in einem KI-Wettrennen mit den USA und China wähnt, warnt das Gutachten unter anderem: „Regulatorische Änderungen mit eng gefasstem Fokus und kurzfristiger Perspektive können zu langfristigen Problemen führen und dazu, dass die Ziele der Energiewende verfehlt werden.“

Der Energiehunger der Künstlichen Intelligenz

Die Ausgangslage für nachhaltige KI ist aktuell gleich im doppelten Sinne düster: Zum einen ist klar, dass der Energieverbrauch durch Rechenzentren, die für die Entwicklung und den Betrieb sogenannter Künstlicher Intelligenz gebaucht werden, rasant steigt. Nach Schätzungen der Internationalen Energieagentur betrug er in 2024 bereits 415 Terawattstunden, was nur knapp unter dem Stromverbrauch von Frankreich liegt, also der siebtgrößten Volkswirtschaft der Welt (449 Terawattstunden in 2024). Um den Energiehunger der KI zu stillen, setzen die großen KI-Firmen neben erneuerbaren auch massiv auf fossile, umweltschädliche Formen der Energiegewinnung, insbesondere Gas.

Zum anderen ist aufgrund der großen Intransparenz der Branche weitgehend unbekannt, wie viel Strom und Wasser einzelne KI-Modelle oder Rechenzentren genau verbrauchen oder wie viele Treibhausgas-Emissionen sie verursachen. Auch die großen Versprechen, dass KI für nachhaltige Zwecke wie etwa intelligentes Energie-Management genutzt werden könne, warten überwiegend noch auf ihre Einlösung.

Die ausgewiesenen Expert:innen Udit Gupta, Philipp Hacker, Lynn Kaack, Emma Strubell und Aimee van Wynsberghe haben im Auftrag des Umweltministeriums deshalb zahlreiche Vorschläge gemacht, wie die Situation verbessert werden könnte. Sie sagen: KI und Nachhaltigkeit müssten nicht im Widerspruch stehen. Deutschland habe eine gute Ausgangslage, um bei nachhaltiger KI eine globale Führungsrolle einzunehmen.

Spezialisierte KI-Ansätze statt riesiger Modelle

Eine zentrale Empfehlung der interdisziplinären Expert:innen-Gruppe ist ein realistischerer Blick auf die Vor- und Nachteile unterschiedlicher KI-Ansätze.

Derzeit sei die Aufmerksamkeit auf die großen sogenannten General-Purpose-AI-Modelle (GPAI) konzentriert. Der englische Begriff lässt sich am besten als KI-Modelle mit allgemeinem Verwendungszweck übersetzen. Gemeint sind in der Regel generative Modelle wie GPT von OpenAI oder Claude von Anthropic. Diese Modelle sind gerade wegen ihres allgemeinen Problemlösungsanspruchs und der dahinterstehenden Technik des Reasonings, das logisches Schlussfolgern imitiert, besonders energieintensiv.

Klimaschädlich by Design

Daneben gebe es jedoch auch andere vielversprechende Ansätze wie etwa kleinere KI-Modelle, die speziell zur Erfüllung konkreter Aufgaben trainiert werden. Diese seien oft besser zur Erfüllung von Aufgaben in der Industrie geeignet, etwa für Predictive Maintenance oder Bilderkennung für Krebsforschung. Viele Aufgaben erforderten gar nicht die Fähigkeiten von Allzweckmodellen oder profitieren nicht einmal davon.

Je genauer man die Zielaufgabe für ein KI-Modell definieren könne, desto effizienter lasse es sich in der Regel gestalten. Die klare Empfehlung des Gutachtens: „Um den wirtschaftlichen Nutzen von KI zu maximieren und gleichzeitig ihren Ressourcenbedarf zu minimieren, ist es daher von entscheidender Bedeutung, Modelle entsprechend zu spezialisieren oder sie gezielt für bestimmte Aufgaben einzusetzen.“

Der Fokus auf kleinere und spezifische Modelle passe zum deutschen und europäischen KI-Ökosystem, das stärker von kleineren und mittleren Unternehmen als von Tech-Giganten geprägt sei. Solche Modelle müssten durch gezielte Investitionen, Förderungen und Public-Private-Partnerships vorangetrieben werden. Dann könnten sich Nachhaltigkeit und ökonomische Wettbewerbsfähigkeit gegenseitig verstärken.

„Die Zukunft ist offener, als wir denken“, so fasste Jurist Philipp Hacker von der Europa-Universität Viadrina die Hoffnung der Sachverständigen bei einer Vorstellung der Studie in Berlin zusammen. „Es ist nicht alternativlos, dass die GPAI-Modelle gewinnen.“ Die Anbieter der großen Modelle hätten bis heute kein tragfähiges Geschäftsmodell und ihre Modelle würden teilweise immer schlechter, Stichwort „Entshittification“, so Hacker.

Intransparenz als Kernproblem

Ein großes Problem bei einer nachhaltigeren Gestaltung der KI-Ökonomie ist dem Gutachten zufolge die massive Intransparenz der Branche. Weil entsprechende Informationen fehlen, könnten Nutzer:innen heute gar nicht das „am wenigsten problematische Modell“ auswählen, so Computerlinguistin Emma Strubell von der Carnegie Mellon University.

Die Intransparenz sei nicht nur ein Problem für private, sondern auch für betriebliche Anwender:innen, die sich ein Bild von der Effizienz machen müssten. Auflagen für die Umweltberichterstattung müssten deshalb dringend um verpflichtende, standardisierte, unabhängig überprüfte und öffentlich zugängliche Informationen zu den Folgen von KI über den gesamten Lebenszyklus ergänzt werden.

Die KI-Verordnung der EU enthalte hierzu beispielsweise nur rudimentäre Anforderungen, die erweitert werden müssten. Dabei sollten nicht nur Daten zum Energieverbrauch beim Training, sondern auch beim Gebrauch von KI-Modellen einfließen. Ebenso CO₂-Emissionen, die bei der Produktion spezialisierter Hardware wie etwa hochleistungsfähigen Grafikprozessoren entstehen.

Bislang halten KI-Firmen solche Daten unter Verweis auf Geschäftsgeheimnisse unter Verschluss. Das öffentliche Informationsinteresse überwiege hier jedoch, so das Gutachten: „Der dringende Bedarf an Daten für ein wirksames Ressourcenmanagement und den Umweltschutz überwiegt die potenziellen Wettbewerbsnachteile, die mit der Offenlegung von Kennzahlen verbunden sind, die indirekt mit der Modellgröße zusammenhängen.“

Darüber hinaus könnten Anbieter verpflichtet werden, ein „grünes Modell“ ihrer KI-Anwendungen anzubieten, das beispielsweise ohne rechenintensives Reasoning daherkomme, um Energieverschwendung durch unnötige Rechenoperationen zu vermeiden. Auch das staatliche Beschaffungswesen sollte als Hebel genutzt werden, um KI- und Cloud-Anbieter zu fördern, die auf Energieeffizienz, nachhaltige Energiequellen und öffentliche Transparenz setzen.

Regeln für Rechenzentren müssen verschärft werden

Auch Rechenzentren als wichtige KI-Infrastruktur stehen im Fokus des Gutachtens. Bei keiner Industrie steige der Energiebedarf derzeit so rasant an wie bei Rechenzentren, so Udit Gupta von der New Yorker Universität Cornell Tech bei der Vorstellung des Papiers. In bestimmten Regionen führe der Bau-Boom bereits heute zu Problemen mit der Energieversorgung. In Frankfurt am Main etwa gingen bereits 2022 knapp 30 Prozent des Stromverbrauchs auf das Konto von Rechenzentren.

Auch hier gehen dem Gutachten zufolge die aktuellen Berichts- und Transparenzpflichten für Betreiber nicht weit genug. Statt tatsächlicher Verbrauchsmessungen würden sie häufig lediglich Schätzungen basierend auf dem Design ihrer Anlagen übermitteln. Ohne solche Angaben könne der tatsächliche Bedarf an Rechenkapazität nicht realistisch eingeschätzt und der Bau neuer Anlagen volkswirtschaftlich sinnvoll geplant werden. Zahlen aus den Niederlanden hätten erst kürzlich gezeigt, dass Rechenzentren dort vermutlich nur zu einem Drittel ausgelastet seien.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Problematisch seien auch die zentralen Maßeinheiten für die Effizienz von Rechenzentren, der PUE-Wert, kurz für Power Usage Effectiveness, und der WUE-Wert, kurz für Water Usage Effectiveness. Beide Werte, die auch in den Nachhaltigkeitsberichten großer Rechenzentrumsbetreiber wie Amazon, Google oder Microsoft angegeben werden, geben keine Auskunft über den absoluten Verbrauch. Stattdessen sind es relative Effizienzwerte, was dazu führe, dass PUE und WUE sich zwar verbessern würden, der absolute Verbrauch jedoch drastisch steige, weil Einsparungen in immer noch größere Modelle investiert würden. Der PUE-Wert messe zudem nur den Energieverbrauch der Gebäude-Infrastruktur, etwa Kühlsystem und Beleuchtung, nicht den Verbrauch der tatsächlichen Energieinfrastruktur.

Wo sich lokaler Widerstand gegen den KI-Hype formiert

Um hier für Verbesserungen zu sorgen, müssten den Expert:innen zufolge die Transparenz- und Berichtspflichten für Rechenzentren deutlich verschärft werden. Hierzu müsste der DIN-Standard für Rechenzentren ebenso angepasst werden wie die Europäische Energieeffizienz-Richtlinie und das deutsche Energieeffizienzgesetz. Wichtig seien unabhängig auditierte Verbrauchsmessungen, die zudem mindestens in aggregierter Form öffentlich zugänglich sein sollten. Auch bei Rechenzentren müsse der ganze Lebenszyklus ins Reporting einbezogen werden: von den Emissionen, die bei der Herstellung von Servern entstehen, bis zum Elektroschrott, nachdem Hardware aussortiert wird.

Darüber hinaus könnten auch beim Design von Rechenzentren und der Energieversorgung große Fortschritte erzielt werden. So sollten etwa KI-Unternehmen verpflichtet werden, selbst für den Ausbau Erneuerbarer Energien in dem Maße zu sorgen, wie sie Strom verbrauchen. Rechenzentren sollten zudem Teil des Systems der CO₂-Bepreisung sein, damit Betreiber Folgekosten für die Umwelt nicht externalisieren können.

Außerdem sollte der Staat die Entwicklung energieeffizienter Rechenzentren fördern, die auf die Bedürfnisse der deutschen Wirtschaft spezialisiert sind. Auch die Abwärme von Rechenzentren sollte weiterhin verpflichtend genutzt werden müssen, Ausnahmen davon reduziert werden.

Auf Kollisionskurs

Die Liste der Vorschläge der Expert:innen ist noch deutlich länger und zeigt, wie groß die Möglichkeiten wären, KI und Rechenzentren nachhaltiger zu gestalten. Zum aktuellen Kurs der Bundesregierung passen sie jedoch gar nicht. Diese sieht Deutschland und Europa in einem KI-Wettrennen mit den USA und China und setzt deshalb auf den Ausbau von KI-Kapazitäten um jeden Preis.

Getrieben von Wirtschaftsverbänden wie BDI, Bitkom oder Eco hat Digitalminister Karsten Wildberger (CDU) eine neue Rechenzentrumsstrategie erarbeiten lassen, die im März vom Bundeskabinett beschlossen wurde. Sie sieht vor, die Rechenzentrumskapazitäten in Deutschland bis 2030 mindestens zu verdoppeln und die KI-Kapazitäten bis dahin sogar zu vervierfachen. Hierfür sollen Umweltstandards gesenkt, Berichtspflichten gelockert und Planungsverfahren beschleunigt werden.

Wirtschaftministerin Katharina Reiche (CDU) will zudem das deutsche Energieeffizienzgesetz so weit zurückfahren, dass es nur noch den Mindeststandards der entsprechenden EU-Richtlinie entspricht. Dabei haben Journalist:innen von Investigate Europe gerade erst aufgedeckt, wie erfolgreich große Tech-Konzerne gegen weitergehende Transparenzvorgaben in dieser Richtlinie lobbyiert hatten: Die EU-Kommission hat demzufolge bestimmte Abschnitte fast wortgleich von Microsoft kopiert, so dass die ohnehin schon schwammigen Kennzahlen zu Rechenzentren, die an Aufsichtsbehörden übermittelt werden müssen, nicht öffentlich gemacht werden dürfen.

Es ist nun also an Umweltminister Carsten Schneider (SPD), die Vorschläge der von ihm beauftragten Expert:innen in die Debatte mit seinen Kolleg:innen zu bringen. Ob er die KI-Politik auf Klima-Kurs bringen kann, wenn er argumentiert, dass Deutschland und Europa von nachhaltiger KI auch wirtschaftlich profitieren könnten?



Source link

Weiterlesen

Beliebt