Connect with us

Datenschutz & Sicherheit

„Wir brauchen mehr kritische Debatten und zivilgesellschaftliches Engagement“


Drohnen, die von sogenannter Künstlicher Intelligenz gesteuert werden, gewinnen an Bedeutung. Gerade der Ukrainekrieg dient als Testfeld für neue militärische KI-Anwendungen. Sie ermöglichen nicht nur technologische Fortschritte, sondern werfen auch grundlegende ethische und geopolitische Fragen auf.

Jens Hälterlein ist Technik- und Wissenschaftsforscher an der Universität Paderborn. Er forscht im Projekt Meaningful Human Control zur Regulierung autonomer Waffensysteme. Ein Fokus seiner Arbeit liegt auf Drohnenschwärmen und bestehenden Ansätzen zur ethischen Regulierung KI-basierter Militärtechnologien. Wir haben mit ihm über die Auswirkungen von KI-Anwendungen im Krieg gesprochen.

netzpolitik.org: In Ihrer Forschung beschäftigen sie sich intensiv mit der Entwicklung und dem Einsatz von KI im militärischen Kontext. Der Ukrainekrieg wird zunehmend als „Experimentierfeld“ für militärische KI-Anwendungen beschrieben. Wie schauen Sie auf diese Entwicklung?

Jens Hälterlein: Der Krieg in der Ukraine ermöglicht es – wie im Prinzip jeder Krieg –, neue militärische Entwicklungen unter realen Einsatzbedingungen zu testen. Für die Entwicklung militärischer KI-Anwendungen besteht ein weiterer Vorteil darin, dass auf den Schlachtfeldern der Ukraine große Mengen an Trainingsdaten erzeugt werden. Sie sind für maschinelle Lernprozesse notwendig. Daraus ergeben sich ganz neue Möglichkeiten. Die Ukraine wurde daher auch als „Living Lab“ für militärische KI bezeichnet, also eine Art „Reallabor“.

Nicht ohne Grund hat das US-amerikanische Unternehmen Palantir seine Datenanalyse-Software gleich zu Beginn des Krieges der Ukraine angeboten. Obwohl diese Software zuvor nur für wirtschaftliche und polizeiliche Analysen genutzt wurde, stellte sie schon nach kurzer Zeit ein zentrales Element für die Entscheidungsfindungsprozesse des ukrainischen Militärs dar.

Daten verhelfen der KI zum Druchbruch

netzpolitik.org: Zu Beginn des Ukrainekrieges spielten KI-Systeme bei Drohnen offenbar eine eher unterstützende Rolle. Das verändert sich aus Ihrer Sicht. Können Sie die technologischen Fortschritte und ihre Bedeutung genauer erläutern?

Jens Hälterlein: Am Anfang des Ukrainekrieges wurden die eingesetzten Drohnen noch größtenteils ferngesteuert. KI hat nur in einigen sogenannten „nicht-kritischen“ Funktionen eine Rolle gespielt, beispielsweise im Sinne eines Autopiloten. Das ändert sich derzeit aber anscheinend. Sowohl die Systeme ukrainischer Start-ups als auch die dort eingesetzten westlichen Systeme entsprechen zunehmend dem, was in der internationalen Debatte als tödliche Autonome Waffensysteme (LAWS) bezeichnet wird. Damit sind Systeme gemeint, die kritische Funktionen – also Zielfindung, Zielauswahl und Angriff – ohne menschliches Zutun vollziehen können.

Die in diesen Waffensystemen verwendeten Hardwarekomponenten und Algorithmen sind im Prinzip nicht neu. Aber lange Zeit wurden militärische Innovationen in diesem Bereich durch einen Mangel an Daten ausgebremst. Das ist vergleichbar mit der Entwicklung von Gesichtserkennungssystemen, die erst durch die massenhafte Verfügbarkeit von gelabelten Fotos in sozialen Medien einen Durchbruch erfahren haben.

netzpolitik.org: Über die russischen Systeme, wie etwa die neue Variante der Lancet-Kamikaze-Drohne, ist weit weniger bekannt.

Jens Hälterlein: Im Prinzip sind wir bei allen Kriegsparteien auf die Aussagen von Militärs und Waffenherstellern angewiesen. Und die sind natürlich grundsätzlich mit Vorsicht zu genießen, ganz gleich, ob es sich um westliche oder nicht-westliche Akteure handelt. Seit dem Krieg ist unsere Informationslage zu russischen Systemen allerdings noch eingeschränkter als zuvor. Aber da eine russische KI beziehungsweise eine russische KI-basierte Kampfdrohne grundsätzlich ähnlich funktioniert wie eine US-amerikanische oder eine deutsche sollten auch der jeweilige Kontext ähnlich sein. Auch auf russischer Seite werden diese Waffensysteme daher wohl autonomer werden. Und mit diesem Anspruch wird ja auch das neue Modell der Lancet-Drohne beworben.

Blindes Vertrauen

netzpolitik.org: Wenn militärische KI-Systeme und Autonome Waffensysteme in einem Konflikt wie in der Ukraine getestet werden, wirft dies ethische oder politische Fragen auf. Welche sind das aus Ihrer Sicht?

Jens Hälterlein: Es gibt zahlreiche Probleme. Zum einen ist militärische KI – wie jede KI – notorisch fehleranfällig und vorurteilsbehaftet. Fehler und Vorurteile können hier aber tödliche Folgen haben. Ein System könnte etwa Zivilisten als Kombattanten identifizieren, weil es Daten fehlinterpretiert oder weil es für die Unterscheidung relevante Faktoren übersieht.

Zum anderen droht es durch den Einsatz hochkomplexer Systeme zu einer Verantwortungsdiffusion zu kommen. Formal muss zwar immer ein Mensch als Letztinstanz zustimmen, wenn es zur Tötung von Menschen kommen kann. Allerdings können Bediener*innen nicht im Detail nachvollziehen, wie ein KI-basiertes System seinen Output erzeugt hat. Gleichzeitig kommen sie nicht umhin, auf dessen Basis Entscheidungen zu treffen, und das meist unter Zeitdruck. Auch deshalb könnten sie dazu tendieren, dem Output der Systeme nahezu blind zu vertrauen, was sie angesichts der Fehleranfälligkeit dieser Systeme jedoch keineswegs tun sollten.

Kriegstreiber KI

netzpolitik.org: Ein weiteres Risiko ist die globale Verbreitung dieser Technologien. Wie realistisch ist es, dass in Zukunft immer mehr Staaten autonome Waffensysteme einsetzen – möglicherweise auch im Globalen Süden?

Jens Hälterlein: Drohnen sind wesentlich preisgünstiger als Kampfjets. Gerade kleine Drohnen mit relativ kurzer Flugzeit und geringer Nutzlast sind nicht teuer. In der Ukraine werden sogar kommerzielle Modelle, die wenige hundert Euro kosten, verwendet. Sie werden quasi „in Heimarbeit“ mit Granaten und anderen Kampfmitteln bestückt.

Teuer wird es vor allem dann, wenn besondere Softwarekomponenten entwickelt werden. Aber auch diese Kosten sind kaum mit den Gesamtkosten für die Entwicklung der F-35 oder des Future Combat Air Systems vergleichbar. Es ist also davon auszugehen, dass Finanzen einen zunehmend geringen Faktor bei der globalen Verbreitung KI-basierter Militärtechnologien darstellen. Das türkische Unternehmen Baykar hat beispielsweise seine KI-Kampfdrohe Bayraktar TB2 eben nicht nur in die Ukraine exportiert, sondern auch in zahlreiche afrikanische und asiatische Staaten, wo sie bereits in mehreren Kriegen zum Einsatz gekommen ist.




Unzureichende Regulierung

netzpolitik.org: Mit Blick auf die politische Regulierung von autonomen Waffensystemen und KI-Drohnen sagen Sie, dass wir zunehmend vor vollendete Tatsachen gestellt werden. Gibt es überhaupt noch Chancen auf international verbindliche Regeln?

Jens Hälterlein: Da sehe ich leider wenig Grund zu Optimismus. Im Rahmen der UN-Rüstungskontrolle gibt es seit mehr als zehn Jahren Bemühungen, verbindliche Regulierungen für LAW zu erwirken – bisher ohne Erfolg. Und zwar in erster Linie deshalb, weil solche Regulierungen nicht im Interesse der Nationen liegen, die LAWS entwickeln, einsetzen oder es in Zukunft beabsichtigen. Das sind neben den militärischen Großmächten USA, Großbritannien, Russland und China auch militärische Exportnationen wie Israel, die Türkei und Deutschland.

Deutschland hat sich zwar zusammen mit Frankreich für ein Verbot sogenannter vollautonomer Waffensystemen ausgesprochen. Gleichzeitig aber soll der Einsatz von sogenannten teilautonomen Waffensystemen erlaubt sein. Wenn aber für deren Einstufung bereits ausreichen soll, dass ein Mensch dem Output des Systems final zustimmen muss, halte ich diesen Ansatz aus den genannten Gründen für ungenügend.

Ethik ist kein Ersatz für Recht

netzpolitik.org: Was muss aus Ihrer Sicht passieren, um die unkontrollierte Verbreitung und den Missbrauch solcher Technologien noch zu verhindern?

Jens Hälterlein: Eine Patentlösung habe ich leider nicht. Es benötigt mehr kritische Debatten und zivilgesellschaftliches Engagement. Außerdem müssen wir stärker die Perspektiven der Opfer solcher Technologien in den Blick nehmen. Aber letzten Endes dürften die gegenwärtige globale Polarisierung und Militarisierung ein Klima erzeugen, in dem für Waffenkontrolle wenig Raum ist. Das sehen wir derzeit auch im Bereich der Regulierung von Atomwaffen.

Was aus meiner Perspektive definitiv keine ausreichende Lösung darstellt, ist die Ethik. Mittlerweile gibt es in eine ganze Reihe von Militärstrategien – vor allem westlicher Staaten -, die ein freiwilliges Bekenntnis zum Leitbild eines verantwortungsvollen, erklärbaren und verlässlichen Einsatzes von KI vorsehen. Es ist aber weiterhin unklar, wie die ethischen Prinzipien im Kontext von LAWS eingehalten sowie umgesetzt und kontrolliert werden können.

Vor allem aber sollte Ethik nicht an die Stelle des Rechts treten. Genau diese Gefahr besteht aber. Wir sehen aktuell eine Delegitimierung etablierter internationaler Rechtsnormen seitens westlicher Staaten. Gleichzeitig beziehen sie sich auf Konzepte wie die „regelbasierte internationale Ordnung“, die sich je nach Interessenlage mit Inhalt füllen lassen. In diesem Kontext sollten wir auch die Rhetorik einer „Responsible AI in the Military Domain“ verstehen. Ethik wirkt hier eher ermöglichend als einschränkend.

Erika Dornbusch hat Politikwissenschaften studiert, einige Monate in Syrien gelebt und dort hauptsächlich über den IS geschrieben. Zurzeit arbeitet sie im Bevölkerungsschutz, kommt mit Ordnung jedoch schlechter als mit Chaos zurecht.



Source link

Datenschutz & Sicherheit

„Schaufenster in die Zukunft der Polizeiarbeit“


In Hamburg sollen ab dem 1. September die Bewegungen von Menschen auf dem Hansa- und dem Hachmannplatz zum KI-Training genutzt werden. Dazu werden ihre Abbilder in eine Art Strichmännchen umgewandelt. Angeblich sind die personenbezogenen Daten so vollumfänglich geschützt. Dabei können tatsächlich auch nicht-anonymisierte Daten zum KI-Training weitergegeben werden.

Am Hamburger Hansaplatz war das System in 2023 bereits drei Monate in Betrieb. Im Rahmen eines Forschungsprojekts, das noch bis Februar 2026 läuft, wurde offenkundig, dass die Technologie zu ihrer eigenen Ausweitung drängt. Gleichzeitig ist unklar, wie sie am Ende tatsächlich eingesetzt werden soll.

Das Projekt ist an der Uni Hamburg und der TU Chemnitz angesiedelt. Es wird von Stephanie Schmidt und Philipp Knopp geleitet und von Fabian de Hair als wissenschaftlichem Mitarbeiter durchgeführt. Für das Gespräch mit netzpolitik.org haben sich alle drei Zeit genommen.

Kritiker*innen kommen kaum zu Wort

netzpolitik.org: Sie untersuchen die testweise Einführung eines KI-gestützten Überwachungssystems. Was genau erforschen Sie da?

Stephanie Schmidt: Wir beschäftigen uns mit den sozialen Konflikten. Wie verändern sich die sozialen Beziehungen zwischen den Akteur*innen vor Ort und auch die zu den staatlichen Akteuren wie der Polizei? Wir schauen uns auch an, was für mediale Diskurse mit dieser KI-Technologie verbunden sind.

netzpolitik.org: Sie haben ausgewertet, wie Medien über den KI-Testlauf berichten. Diese Berichterstattung ist vermutlich zentral für die gesellschaftliche Verhandlung dieser Technologie. Welche Positionen kommen da zu Wort?

Fabian de Hair: Der Diskurs ist vor allem ordnungspolitisch orientiert. Rund drei Viertel der Sprecher*innen bewerten die Technologie positiv. Sie vereine Datenschutz und Rationalisierung der polizeilichen Arbeit, so die Argumentation. Top-Sprecher der Befürworter ist der Hamburger Innensenator Andy Grote, dann folgen eine ehemalige Sprecherin der Polizei, der Polizeipräsident, der Polizeivizepräsident und Sprecher der Innenbehörde.

Risiken, Kritik und Protest sind im Vergleich dazu unterrepräsentiert. Weniger als ein Fünftel der Menschen, die in den Medien zu Wort kommen, sieht die Technologie negativ. Vor allem der der innenpolitische Sprecher der Linken ist hier eine deutlich vernehmbare Stimme. Daneben sind noch Menschen vom Einwohner*innen-Verein St. Georg und der CCC unter den Kritikern. Aber die sind weit schwächer repräsentiert als die Gegenseite.

Am Hansaplatz gibt es seit 2019 konventionelle Videoüberwachung. Medial wird er als Positivbeispiel angeführt, als Erfolgsgeschichte der Kriminalitätsbekämpfung. Und die aktuelle Entwicklung gilt als Schaufenster in die Zukunft der Polizeiarbeit. Dabei wird die KI-Kameraüberwachung insbesondere im Hinblick auf die Potenziale der Skalierung betrachtet.

Trainingsdaten gesucht: KI-Überwachung führt zu ihrer eigenen Ausweitung

netzpolitik.org: Das heißt, es wird jetzt bereits überlegt, wie man die KI-Überwachung ausweiten kann?

Philipp Knopp: Videoüberwachung ist sehr ressourcenintensiv. Da muss jemand sitzen, der Monitore überwacht und der muss auch noch konzentriert sein. Die KI soll das effizienter machen. Jetzt kann man sagen, das ist eine tolle Arbeitserleichterung für die Polizei. Wir sehen aber auch, dass mit dieser neuen Effizienz eine Ausweitungstendenz verbunden ist. Es hieß ja bereits: Wir überwachen nicht nur den Hansaplatz damit, sondern wir nehmen auch noch den deutlich belebteren Hachmannplatz am Hauptbahnhof dazu.

Fabian de Hair: Auch eine Ausweitung auf andere bestehende Kamerastandorte ist innerhalb des Mediendiskurses im Gespräch: Jungfernstieg, Reeperbahn, öffentlicher Nahverkehr beispielsweise. Und es gibt weitere Ideen: In ihrer Bewerbung auf den Förderfond InnoTecHH der Hamburger Senatskanzlei schreibt die Hamburger Polizei, dass man damit auch Großveranstaltungen wie den Hafengeburtstag oder bei Sportveranstaltungen das Stadion und dessen Umfeld überwachen könne.

Philipp Knopp: Die Notwendigkeit, neue Trainingsdaten zu generieren, hat den Effekt, dass man immer auf der Suche nach Möglichkeiten ist, diese KI einzusetzen. Hamburg hat ja extra ein Gesetz geschaffen, mit dem die Überwachungsdaten auch als Entwicklungsdaten genutzt werden können. Und wenn der Aufwand zu groß ist, die zu anonymisieren, dürfen diese Daten auch unanonymisiert weitergegeben werden.

Die Befugnis, KI mit Überwachungsdaten zu trainieren, findet sich mittlerweile auch in der geplanten Novelle zum Berliner Polizeigesetz. In Baden-Württemberg gibt es die Idee, die Bindung von Videoüberwachung an tatsächliche Kriminalitätsschwerpunkte zu entkoppeln. So könnte die Polizei auch Orte damit überwachen, wo sie nur vermutet, dass dort Kriminalität auftreten könnte, weil man von dort beispielsweise gut flüchten kann, oder weil der Ort sehr belebt oder schlecht einsehbar ist.

Wie die Technologie Verhaltensweisen diskriminiert

netzpolitik.org: Neben dem medialen haben Sie auch den parlamentarischen Diskurs in Hamburg betrachtet. Wie stehen die Parteien zu der Technologie?

Philipp Knopp: Einfach gesagt: Die Linkspartei ist dagegen, SPD und CDU sind dafür. Eine große Verschiebung ist, dass die Grünen sich sehr für die Technologie aussprechen, teils auch sehr vehement gegen die Kritik der Linkspartei argumentieren. Die Befürworter verweisen gerne auf den Datenschutzbeauftragten von Baden-Württemberg, der meint, dass die Technologie es möglich mache, datenschutzsensibler zu überwachen. Laut den Grünen ist es ein technischer Kompromiss, der das Spannungsverhältnis von Sicherheit und Freiheit auflöst.

netzpolitik.org: Was bedeutet das?

Philipp Knopp: Die Technologie rechnet Körper in Vektoren um, in Strichmännchen sozusagen. Und dann schätzt sie, ob deren Bewegungen bestimmten vordefinierten Bewegungsmustern entsprechen. Dazu gehören zum Beispiel Treten, Schlagen oder Würgen, aber auch Liegen und sogenannte aggressive oder defensive Körperhaltungen.

Das wird im Diskurs als ein Verfahren der Anonymisierung gedeutet. Alter, Geschlecht, Hautfarbe, Statur sollen nicht erkennbar sein. Das verhindere Diskriminierung und schütze Daten, heißt es. Die Kritiker der Technologie sagen hingegen, man könne ja nicht nur Alter, Geschlecht oder Hautfarbe diskriminieren, sondern auch bestimmte Praktiken. Das Argument ist, dass Praktiken wie „auf dem Boden liegen“ oder „sich aus Spaß hauen“ von bestimmten Personengruppen durchgeführt werden, zum Beispiel Obdachlosen oder Kindern. Und das sind Praktiken, die von dem System als mögliche Gefahr erkannt werden können, was zu intensiverer Überwachung führen kann.

Die Technologie löscht den Kontext: Welche Interaktionssituation liegt dort vor? Was sind die räumlichen Umstände? Sie bekommt auch keine Ausdrucksweisen mit, die wir mitkommunizieren, wenn wir Bewegungen durchführen. Das macht sie derzeit und möglicherweise auch in Zukunft unpräzise. Zudem ist die Polizei sehr zurückhaltend damit, Situationen aus der Detektion auszuschließen. Es wird also niemals nur der tatsächliche kriminelle Vorfall erkannt.

Die Daten sind auf Personen rückführbar

netzpolitik.org: Wie anonym sind diese Strichmännchen denn wirklich? Mein Bewegungsmuster ist doch so einzigartig wie ein Fingerabdruck.

Philipp Knopp: Dadurch, dass diese Daten zeit- und ortsbezogen sind, sind sie rückführbar auf die Person. Weil sich eine bestimmte Person zu einer bestimmten Zeit an einem bestimmten Ort auf diese Art und Weise bewegt. Die müssen ja auch rückführbar sein, weil die Polizei vielleicht auf diese Person zugreifen will. Das Gesamtprogramm des Fraunhofer-Instituts umfasst auch Trackingsoftware, mit der Dinge oder Personen markiert und über mehrere Kameras hinweg verfolgt werden können. Die wird allerdings aktuell nicht erprobt.

Wo die Reise hingeht, hängt auch davon ab, wie gut die Technologie ist. Die große Vision am Fraunhofer Institut ist ein meist schwarzer Bildschirm, auf dem die überwachende Person nur noch das sieht, was die KI als Gefahrensituation erkannt hat. Es ist aber auch möglich, dass die Technologie nur als Assistenzsoftware genutzt wird, die mitläuft, während weiter ein Mensch die Bildschirme überwacht. Es kann auch sein, dass die überwachende Person viel mehr Gebiete beobachtet, weil sie nur noch sehen muss, was die KI ihr anzeigt. Und es ist auch möglich, dass man die Überwachung um neue Technologien erweitert, zum Beispiel zum Tracking oder Objekterkennung.

Der Endzweck dieser Technologie, wie sie als polizeiliches Werkzeug genutzt wird, ist derzeit nicht klar. Weil die Technologie noch nicht fertig entwickelt ist, ist es auch für Menschen, NGOs oder Politik schwer zu bewerten, was sie derzeit kann und womit man in Zukunft zu rechnen hat. Diese Ungewissheit ist bei Tests im öffentlichen Raum problematisch.

netzpolitik.org: Was ist das eigentlich für ein Ort, den sie da untersuchen, dieser Hansaplatz?

Fabian de Hair: Ein enorm heterogener und vielfältiger. Der kleine Stadtteil St. Georg ist ein in Gentrifizierung befindliches Wohnquartier und Lebensort verschiedenster sozialer sowie marginalisierter Gruppen und internationaler Communitys. Der Hansaplatz ist für alle ein zentraler Durchgangs- und Verweilort. Es ist sehr schwierig, ihn zu umlaufen, wenn man nicht Umwege durch das komplette Viertel gehen will. Er wird als sehr lebhaft und als ein wichtiger, schöner Ort beschrieben. Er ist verkehrsberuhigt und hat einen großen Brunnen in der Mitte.

Seitens der Polizei gilt er als gefährlicher Ort. Es ist einer der Orte in Hamburg mit der höchsten Dichte an polizeilichen Maßnahmen. Es gibt dort visuelle Überwachung, ein Glasflaschenverbot von 17 Uhr bis morgens, eine Waffenverbotszone, und weil dort Personen der Straßenprostitution nachgehen, auch ein Kontaktverbot. Entsprechend gibt es diverse Verdrängungseffekte insbesondere von marginalisierten Gruppen in die Nebenstraßen und anliegenden Viertel.

Schaukämpfe zwischen Polizist*innen

netzpolitik.org: Wie wird sich dieser Platz verändern, wenn ab dem 1. September die Bewegungsdaten der Menschen dort zum KI-Training genutzt werden?

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Philipp Knopp: Was passieren könnte, ist, dass sich öfter mal Polizist*innen untereinander prügeln werden. Aktuell bestehen die Trainingsdaten nämlich vor allem aus Schaukämpfen zwischen Polizist*innen, die in Mannheim simuliert wurden, wo die Technik ebenfalls getestet wird. Die spielen wie in einem Film mit Regisseur und Drehbuch und verschiedenen Kamerawinkeln gezielt Konfliktsituationen wie Schlägereien nach.

netzpolitik.org: Werden sich die Platznutzer*innen angesichts der KI-Überwachung noch unbefangen dort bewegen können?

Fabian de Hair: Selbst Leute, die sich sehr ablehnend gegenüber der Technologie zeigen, leiten daraus keine anderen Nutzungspraktiken ab. Auch weil sie den Platz nicht wirklich meiden können. Weil er Durchgangsort ist oder auch der Ort, an dem die Leute arbeiten.

Philipp Knopp: Im Vergleich zu 2019, als KI-Videoüberwachung am Berliner Südkreuz getestet wurde, sind wir heute noch viel stärker daran gewöhnt, von verschiedensten Akteuren überwacht zu werden. Der Widerstand ist heute auch geringer, wie das Beispiel der Grünen in Bezug auf diese konkrete Technologie zeigt.

netzpolitik.org: Hat die Technik auch Auswirkungen auf die Freiheit, an diesem Ort politische Versammlungen abzuhalten?

Philipp Knopp: Natürlich resultiert aus der Überwachung eine Versammlungsöffentlichkeit, in der ich mich nicht mehr unbefangen mit anderen Menschen im ermächtigenden Erscheinungsraum befinde, wo ich mich verbünden kann, um politische Angelegenheiten zu klären. Sondern es ist verstärkt ein Raum der Kontrolle.

Vertrauen in die Polizei wird überflüssig

netzpolitik.org: Wie wirkt sich die KI-Überwachung auf die Beziehung zwischen den Platznutzer*innen und der Polizei aus?

Philipp Knopp: Es gibt auf jeden Fall eine Verschiebung: weg von einer Tradition, wo die Polizei vor Ort ist oder wo Bürger*innen vor Ort die Polizei per Notruf alarmieren, hin zu einer technisierten Überwachung. Das hat natürlich Folgen für die sozialen Abhängigkeitsverhältnisse der Polizei gegenüber der Bevölkerung. Wenn man auf den Notruf angewiesen ist, dann ist man auch darauf angewiesen, dass Menschen in dem konkreten Sozialraum der Polizei vertrauen. Das ist, wenn man sich voll auf die Technik verlässt, nicht mehr der Fall. Dann gibt es nur noch die Polizei und den Raum. Nicht mehr die Polizei, die Menschen und den Raum.

netzpolitik.org: Ist das auch eine Entmenschlichung von Kontrolle?

Fabian de Hair: Wir wissen aus Interviews mit Menschen, die am Hansaplatz arbeiten, dass alle Akteur*innen miteinander üblicherweise eine Form von vertrauensvollem Umgang pflegen. Das verändert sich jetzt aber.

netzpolitik.org: Als ein Ergebnis ihrer Forschung wollen Sie eine Toolbox entwickeln. Was kann man sich darunter vorstellen und wozu ist es gut?

Stephanie Schmidt: Wir nutzen unsere Erkenntnisse aus Gesprächen mit Expert*innen, Polizei und Platznutzer*innen, um gemeinsam mit Menschen, die vor Ort arbeiten, und bundesweiten NGOs eine Toolbox zu entwickeln. Sie soll lokalen zivilgesellschaftlichen Akteur*innen dabei helfen, ich informiert mit solchen KI-Anwendungen auseinanderzusetzen.

Wenn in irgendeiner Stadt eine KI-basierte Technologie angekündigt wird und sich Menschen damit beschäftigen wollen, dann finden sie in der Toolbox Quellen, die über KI bei der Polizei informieren. Hinzu kommt ein sogenanntes Sozialraummapping, mit dem man Gruppen und Nutzungsweisen im Raum erschließen kann. So lässt sich aufzuzeigen, wen man alles in den Diskurs miteinbeziehen sollte. Das dritte Tool ist eine Bewertungsmatrix, die Rechtfertigungen und Kritiken der KI mittels eines Fragenkatalogs aufschlüsselt.

Die Tools helfen auch einzuschätzen, was zivilgesellschaftliche Perspektiven auf die Technologie sein können. Jenseits davon, dass Fragen nach Datenschutz und Sicherheit einfach nur mit Ja oder Nein beantwortet werden, was ja von staatlichen Akteuren in den Vordergrund gestellt wird.



Source link

Weiterlesen

Datenschutz & Sicherheit

Überwachung: Proton verlagert Teile seiner Infrastruktur aus der Schweiz


Die geplanten Novellen der schweizerischen Verordnung über die Überwachung des Post- und Fernmeldeverkehrs (VÜPF) sowie der zugehörigen Durchführungsbestimmung schlagen weiter hohe Wellen. Proton hat jetzt bestätigt, dass der Anbieter verschlüsselter Kommunikationsdienste aufgrund der mit dem Vorhaben verknüpften Rechtsunsicherheit mit dem Abzug von IT-Infrastrukturen aus der Schweiz begonnen hat. Der im Juli eingeführte KI-Chatbot Lumo, der mit mehr Datenschutz als ChatGPT & Co. punkten soll, ist das erste Produkt, das seinen Standort wechselt.

Schon in einem Blogbeitrag zum Start von Lumo erklärte Eamonn Maguire, Leiter für Missbrauchsbekämpfung und Kontosicherheit bei Proton, dass sich das Unternehmen aus Angst vor den drohenden Gesetzesänderungen für Investitionen außerhalb der Schweiz entschieden habe. Angesichts der Pläne der Schweizer Regierung „zur Einführung von Massenüberwachung“, die in der EU verboten sei, verlagere der Anbieter „den Großteil seiner physischen Infrastruktur“ aus der Alpenrepublik. Der Anfang erfolge mit dem Chatbot.

Protons CEO Andy Yen führte nach dem Start gegenüber der Nachrichtenagentur Keystone-SDA aus, dass sich das Unternehmen aufgrund der vorgesehenen VÜPF-Reform für Deutschland als Standort für die Server von Lumo entschieden habe. Zusätzlich baue die Firma Standorte in Norwegen auf. Ganz will Proton die Zelte in der eidgenössischen Heimat aber nicht abbrechen. „In Europa zu investieren bedeutet nicht, die Schweiz zu verlassen“, erklärte ein Unternehmenssprecher gegenüber TechRadar. Gerüchte, wonach Proton das Land endgültig verlassen werde, bestätigte er so nicht.

Laut der umkämpften Initiative des Schweizer Bundesrats und des Eidgenössischen Justiz- und Polizeidepartements müssten künftig auch Online-Dienste, die mindestens 5000 Nutzer haben, Metadaten wie IP-Adressen und Portnummern sechs Monate auf Vorrat speichern sowie der Polizei und Geheimdiensten beim Entschlüsseln von Inhalten helfen. Neu dazukommen wird dem Plan nach auch eine Auflage für solche Betreiber, User zu identifizieren. Diese müssten eine Ausweis- oder Führerscheinkopie vorlegen oder zumindest eine Telefonnummer angeben.

Doch auch die EU-Kommission hat schon vor Jahren einen Entwurf für eine Verordnung zur massenhaften Online-Überwachung unter dem Aufhänger des Kampfs gegen sexuellen Kindesmissbrauch (Chatkontrolle) auf den Weg gebracht. Vor Kurzem legte die Brüsseler Regierungsinstitution zudem einen Fahrplan für „Entschlüsselung“ und eine Neuauflage der Vorratsdatenspeicherung unter dem Aufhänger „ProtectEU“ vor. Der Proton-Sprecher hielt dem entgegen, dass das obligatorische Aufbewahren elektronischer Nutzerspuren bereits mehrfach von europäischen Gerichten für rechtswidrig erklärt worden sei. Er unterstrich: „Wir werden die Entwicklungen in der EU jedoch selbstverständlich weiterhin genau beobachten. Das tun wir auch in anderen Rechtsräumen.“

Proton ist nicht der einzige Anbieter, der sich lautstark gegen den befürchteten „Krieg gegen Online-Anonymität“ in der Schweiz ausgesprochen hat. NymVPN, ein anderer Anbieter virtueller privater Netzwerke, drohte bereits im Mai, die Schweiz zu verlassen, sollten die erweiterten Überwachungsvorgaben in Kraft treten. „In der Schweiz kann man derzeit nicht in Datenschutz investieren“, monierte Nym-Mitgründer Alexis Roussel nun gegenüber TechRadar. Die Firma habe ebenfalls bereits eine Strategie entwickelt, um ihre VPN-Aktivitäten außerhalb der Schweiz und der EU anzusiedeln. Das wäre jedoch der letzte Ausweg. Aufgrund seiner dezentralen Infrastruktur sei das Unternehmen aber nicht direkt von der Anti-Verschlüsselungsregel betroffen, da es dafür gar keine Schlüssel selbst speichere.

Die Schweizer Bürgerrechtsorganisation Digitale Gesellschaft und die Kampagnenseite Campax übergaben der Regierung in Bern derweil am Donnerstag gut 15.000 Unterschriften der Petition „Demokratie statt Überwachungsstaat!“ gegen die skizzierte VÜPF-Novelle. Sie warnten dabei vor einem massiven Angriff auf Grundrechte, Datenschutz und digitale Freiheit und forderten den sofortigen Stopp der Pläne. Die Organisatoren kritisierten auch, dass der Bundesrat diesen Ausbau der Massenüberwachung ohne parlamentarische Debatte und demokratische Legitimation auf dem Verordnungsweg umsetzen wolle. Das Alles erinnere eher an „Russland, China oder den Iran“ als an europäische Staaten.


(jo)



Source link

Weiterlesen

Datenschutz & Sicherheit

Die Woche, in der wir uns an den angeblichen Landesverrat erinnerten


Liebe Leser*innen,

Als ich meinen letzten Job kündigte, um hierher zu wechseln, fragte mich mein damaliger Chef, wo ich denn hingehen würde. Ich sagte: „netzpolitik.org“. Er kannte das nicht. Also droppte ich eine Info, die den kritischen Standpunkt des Mediums sehr eindeutig klärt: „Gegen die wurde mal wegen Landesverrat ermittelt.“

Landesverrat ist per Definition eine Straftat, die das Potenzial hat, die Bundesrepublik in ihren Grundfesten zu erschüttern, ja sogar: zu vernichten. Dafür droht bis zu lebenslange Haft. Das muss man als Journalist auch erstmal hinkriegen, sich bei staatlichen Organen so unbeliebt zu machen, dass die mit dieser juristischen Atombombe auf einen losgehen.

Ich war damals, 2015, als die Ermittlungen begannen, auf jeden Fall mächtig beeindruckt. Wer mit einer solchen Chuzpe vertrauliche Dokumente veröffentlicht, dass er derartiges in Kauf nimmt, hatte meinen höchsten Respekt verdient. Seitdem hat Andre Meister, der damals die vertraulichen Internet-Überwachungspläne des Bundesamts für Verfassungsschutz frei zugänglich machte, was den Anstoß zu der Ermittlung lieferte, einen Ehrenplatz in meinem Herzen. Wir kannten uns damals schon von Partys, aber ab dann war er für mich eine Art Held.

Am Ende ging es ja gut aus. Die Ermittlungen gegen Andre und den damaligen Chefredakteur Markus Beckedahl wurden – ziemlich genau vor zehn Jahren – eingestellt und netzpolitik.org bekam viele Spenden, mit denen die Redaktion ausgebaut werden konnte. So dass Andre auch heute noch alles veröffentlichen kann, was er an wichtigen Dokumenten in die Finger kriegt.

Letztlich sind unsere vielen Spender*innnen ja auch dafür verantwortlich, dass ich hier mitspielen darf, was mich wahnsinnig freut. So wie mich auch der Ausgang unserer gerade abgeschlossenen sommerlichen Spendenkampagne freut, mit der wir 177 Menschen gefunden haben, die netzpolitik.org jeden Monat als stabile Dauerspender*innen mit einem gewissen Betrag unterstützen. Ohne unsere Unterstützer*innen wäre unser Kampf für die Grundrechte so nicht möglich. Ihr seid, wie Andre, eine Art Helden für mich.

Mit herzlichem Dank

Martin

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Die Welt der Fachanwendungen mag langweilig wirken, und doch sollten wir sie als Gesellschaft immer kritisch begleiten. Denn ob wir wollen oder nicht: Software ist längst Teil der Daseinsvorsorge und Grundlage unseres gesellschaftlichen Zusammenlebens. Und daraus erwächst eine Verantwortung.

Lesen Sie diesen Artikel: Vom Fach



Source link

Weiterlesen

Beliebt