Connect with us

Datenschutz & Sicherheit

Digitale Souveränität ganz, ganz wichtig – nur nicht bei Palantir


Wer erwartet hatte, dass nach dem gestrigen Gipfeltreffen zur Europäischen Digitalen Souveränität ein digitaler Ruck durchs Land gehen oder dort auch nur irgendwas Überraschendes angekündigt werden würde, konnte nur enttäuscht werden. Dafür sind solche Treffen wohl nicht gemacht. Die Reden der Spitzenpolitiker waren durch erwartbare Plattitüden gekennzeichnet, aber eben auch durch Widersprüchlichkeiten beim großen Thema der Konferenz. Denn was unter „digitaler Souveränität“ verstanden wird, scheint keineswegs klar.

Eigentlich beschreibt das Konzept der „digitalen Souveränität“ die Fähigkeit, dass genutzte Hardware und Software oder auch IT-Dienstleistungen vom Nutzer oder Auftraggeber – hier der Staat oder seine Behörden – selbstbestimmt gestaltet werden können. Das soll zu mehr Unabhängigkeit, Resilienz und auch Nachhaltigkeit führen und dem Vermögen, selbständig entscheiden zu können, ob man Abhängigkeiten von Anbietern eingeht oder vermeidet.

Das klingt gut und modern, hinter dieser Idee können sich die Spitzenpolitiker aus Deutschland und Frankreich versammeln. Haben sie auch, denn ohne Ausnahme betonten gestern alle, künftig auf mehr „digitale Souveränität“ setzen zu wollen. Seitdem im Weißen Haus die Devise „America first“ aktiv umgesetzt wird, ist das Konzept diesseits des Atlantiks in aller Munde.

So auch bei Digitalminister Karsten Wildberger (CDU).

In seiner Rede hatte Wildberger sich und das Publikum gefragt: „Was heißt digitale Souveränität ganz konkret?“ Dahinter verberge sich „etwas ganz, ganz Wichtiges“, es bedeute nämlich, dass „wir in Europa, in Deutschland Technologie wieder selber nicht nur nutzen wollen als Kunden, sondern selber entwickeln wollen und selber Produkte bauen“.

Er beklagte, dass wir „zu sehr über die Zeit Kunde geworden“ seien „von Lösungen anderer“. Das aber „wäre fatal, wenn das so bliebe im Zeitalter von KI“, so Wildberger weiter.

Als der Digitalminister nach Palantir gefragt wurde

Dem dürften viele zustimmen. Als es aber wirklich mal konkret wird, werden seine schönen Worte Makulatur. Als Wildberger nach seiner Rede von Johannes Kuhn vom Tagesspiegel auf den Streit um die Software von Palantir angesprochen wird, zeigt sich, dass es mit der digitalen Souveränität nicht so weit her ist.

Im August hatte Wildberger gesagt, dass er der Nutzung von Palantir-Software für die Polizeibehörden des Bundes offen gegenüber stehe. Nun wollte der Journalist wissen, ob sich diese Position geändert habe.

Die Debatte war damals ausgelöst worden, nachdem die Pläne für ein Sicherheitspaket mit einem Referentenentwurf Gestalt angenommen hatten. Darin steckte auch die automatisierte polizeiliche Datenanalyse, für die der US-Konzern Palantir den deutschen Polizeien eine Softwarelösung anbietet.

Palantir

Wir berichten mehr über Palantir als uns lieb wäre. Unterstütze unsere Arbeit!

Anders als Bundesjustizministerin Stefanie Hubig (SPD), die Palantir gegenüber skeptisch war und auf die Vereinbarkeit mit „rechtsstaatlichen Grundsätzen“ pochte, sagte der Digitalminister: „Wir sollten […] Technologien nutzen, um unseren Staat und unsere Demokratie zu schützen. Wenn ein Anbieter eine solche Technologie bereitstellt, sollten wir in sie investieren. Wir sollten aber auch europäische Unternehmen haben, die solche Lösungen bieten können.“

Wildbergers abgespeckte digitale Souveränität

Souveränitätsgipfel hin oder her, der Digitalminister bleibt auch heute bei dieser Haltung. Er antwortet auf die Frage von Kuhn, dass die Software von Palantir eine „weltweit extrem mächtige Lösung“ sei, das gelte sowohl im zivilen als auch im militärischen Bereich. Damit wiederholt er die vom US-Konzern gern betonte Saga einer quasi konkurrenzlosen Stellung im Markt. Naturgemäß wird das von alternativen Anbietern ganz anders dargestellt, technisch sei Palantir den Konkurrenten ebenbürtig. Wildberger sagt dann:

Wenn man mit so einer Lösung arbeitet, auch in einem nationalen Kontext, dann hängt es sehr davon ab, wie man diese Lösung implementiert, auch von der Architektur lokal. Wie werden die Daten gehalten, wie ist sichergestellt, dass die Daten nicht rausfließen etc. Und das ist durchaus möglich.

Möglich ist das ohne Zweifel, aber das wäre eine bis zur Unkenntlichkeit abgespeckte Version von „digitaler Souveränität“. Denn man bleibt ja bloßer Kunde und entwickelt gar nichts selber, sondern begibt sich sehendes Auges in eine langfristige Abhängigkeit, die nur ein absolutes Minimum an Datensicherheit in Aussicht stellt.

Fatal, um Wildberger selbst zu zitieren.

Es passt nicht zusammen

Ob das im Fall von Software von Palantir aber auch tatsächlich so gehandhabt wird, weiß der Minister gar nicht. Denn er habe „keine Kenntnis darüber, wie es im Einzelfall ausgestaltet“ werde. Worüber er aber immerhin Kenntnis habe, sei, dass „diejenigen, die das gegebenenfalls nutzen“, also die Polizeibehörden, „diese Fragen ganz, ganz vorne auf der Agenda haben“.

Dem Minister scheint zu schwanen, dass seine anfängliche Definition der „digitalen Souveränität“ mit der proprietären Palantir-Lösung des US-Konzerns, die sensible polizeiinterne Datenbanken miteinander verknüpft und deren Inhalte analysiert, nicht recht zusammengeht. So fügt er an:

Der nächste Satz ist mir sehr wichtig. Wir sind auch dabei, als Ministerium, uns Technologie aus Europa anzuschauen, die vieles kann, vielleicht nicht immer so weit ist, vielleicht sogar einiges besser kann. Und natürlich muss dann auch unser Anspruch sein, auch solche Technologie in Europa zu haben.

Die Palantir-Konkurrenz wird es freuen. Dass das Digitalministerium offenbar dabei ist, nun nach Alternativen zum abgründigen US-Tech-Konzern zu suchen, wäre allerdings ein nur kleiner Schritt in Richtung „digitale Souveränität“.

Eine Sprecherin des Bundesministeriums für Digitales und Staatsmodernisierung erklärt auf Nachfrage von netzpolitik.org, dass sich der Minister grundsätzlich dafür ausgesprochen hätte, im Sicherheitsbereich die neuesten Technologien zu nutzen. Sie fügt aber hinzu: „Er spricht sich hier nicht für oder gegen eine bestimmte Software aus.“ Die ebenfalls gestellte Frage, wie deutsche Behörden beim Einsatz von Palantir digital souverän bleiben könnten, beantwortet sie nicht.

Grundrechte nur im Disclaimer

Auf der Strecke bleibt mal wieder die Frage nach den Grundrechten. Zwar baut Wildberger in seine Rede einen „Disclaimer“ ein, den er auch so nennt. Er betont, „Datenschutz, Sicherheit, Grundrechte von Bürgerinnen und Bürgern“ stünden „nicht zur Debatte“, sie seien „essentiell wichtig und notwendig“. Dennoch zieht sich nach diesem „Disclaimer“ durch seine gesamte Rede die Forderung, alle vermeintlichen Innovationsbremsen wie Regulierung und Datenschutz endlich zu lockern.

Palantir bietet eine Softwarelösung für ein Vorhaben an, dass die rechtlich vorgeschriebene Zweckbindung polizeilich aufgenommener Daten weitgehend hinfällig macht und damit verfassungsrechtlich auf dünnem Eis steht. Der US-Konzern, der solche in Software gegossene Praktiken in seinem Mutterland jahrelang durchführen und verfeinern dürfte, hat auch deswegen einen Wettbewerbsvorteil, weil er solche „Innovationsbremsen“ wie das Recht auf informationelle Selbstbestimmung ignorieren konnte.

Dass Wildberger bei Fragen nach automatisierter polizeilicher Datenanalyse kein Wort über die massiven Eingriffe in Grundrechte von Millionen Menschen verliert, ist überaus bedauerlich, aber auf schwarz-roter Koalitionslinie. Aber dass die Software von Palantir auch nach seiner eigenen Definition nicht „digital souverän“ ist, hätte dem Digitalminister wenigstens auffallen können.



Source link

Datenschutz & Sicherheit

Auslegungssache 150: Auf digitaler Spurensuche


In Episode 150 des c’t-Datenschutz-Podcasts geht es um IT-Forensik, insbesondere die digitale Spurensicherung nach Cyberangriffen und bei Verdachtsfällen im Unternehmen. Redakteur Holger Bleich und heise-Verlagsjustiziar Joerg Heidrich haben dazu Joanna Lang-Recht eingeladen. Sie leitet den Bereich Forensik bei der Intersoft Consulting Services AG und bringt einen ungewöhnlichen Werdegang mit: Nach einem Germanistikstudium wechselte sie zur IT-Security und erwarb zahlreiche Zertifizierungen im Bereich Forensik.

Weiterlesen nach der Anzeige


Joanna Lang-Recht

Joanna Lang-Recht

Joanna Lang-Recht berichtet in der Auslegungssache über ihren Alltag als IT-Forensikerin.

Lang-Recht beschreibt IT-Forensik als klassische Spurensuche, nur eben komplett digital. Ermittelt wird auf Laptops, Smartphones, Servern oder in ganzen IT-Landschaften. Ziel sei es, sauber zu rekonstruieren: Wer ist eingedrungen, welche Daten sind betroffen und wie groß ist der Schaden. Ihr Team identifiziert Spuren, sichert sie möglichst gerichtsfest und wertet sie neutral aus.

Den größten Teil ihrer Einsätze machen laut Lang-Recht Ransomware-Angriffe aus. Mehr als die Hälfte aller Vorfälle drehen sich um erpresste Unternehmen, deren Systeme verschlüsselt wurden. Feiertage gelten dabei als Hochrisikophase: IT-Abteilungen sind dünn besetzt, Angriffe werden später bemerkt, Schäden wachsen.

Ein heikles Thema ist das Zahlen von Lösegeld. Viele Unternehmen verhandeln tatsächlich mit den Erpressern, oft aus purer Not, weil Backups fehlen oder unbrauchbar sind. Lang-Recht schildert, dass diese kriminellen Gruppen professionell auftreten: mit eigenen Chatportalen, Support-Strukturen und einer Art Notrufsystem. Wer zahlt, erhält in der Regel auch funktionierende Entschlüsselungsschlüssel, sonst würde das kriminelle Geschäftsmodell zusammenbrechen.

Neben externen Angriffen bearbeiten Forensik-Teams auch interne Fälle in Unternehmen: Verdacht auf Datendiebstahl durch Mitarbeitende, Wirtschaftsspionage oder Arbeitszeitbetrug. Hier sei besondere Vorsicht gefragt, erzählt Lang-Recht. Untersuchungen müssen eng am konkreten Verdacht bleiben, um nicht unnötig in private Daten einzudringen. Bring-your-own-Device-Modelle erschweren solche Ermittlungen erheblich und machen sie manchmal sogar unmöglich.

Im Spannungsfeld zwischen Aufklärung und Datenschutz betont Lang-Recht die Zusammenarbeit mit den Datenschutz-Aufsichtsbehörden der Länder. Meldungen zu Sicherheitsvorfällen laufen demnach meist pragmatisch ab, Nachfragen bleiben sachlich. Betroffenenrechte spielen laut Lang-Recht bei der Spurensuche eine Rolle, bremsen die Ermittlungen aber selten, solange die Datensicherung gut begründet ist. Vor jeder Analyse prüfe das Team, ob ein berechtigtes Interesse gemäß DSGVO vorliege und ob Privatnutzung der Geräte erlaubt war. Bei unklaren Situationen lehne man Aufträge ab.

Weiterlesen nach der Anzeige

Episode 150:

Hier geht es zu allen bisherigen Folgen:


(hob)



Source link

Weiterlesen

Datenschutz & Sicherheit

Chatbot-inspirierte Gewalt: KI-Hersteller entschädigen Familien



In den US-Bundesstaaten Florida, Texas, Colorado and New York handeln Google und Character Technologies Vergleiche mit fünf Familien aus, deren Kinder angeblich durch Chatbot-Nutzung zu Schaden gekommen sind. Der Fall, der die meiste Aufmerksamkeit erhielt, behandelt den Suizid eines 14-Jährigen Jungen. Der Jugendliche hatte eine emotionale Beziehung zum Chatbot „Dany“ von Character Technologies aufgebaut, der den Suizid des Jungen befürwortete.

In anderen Fällen hatten Chatbots von Character Technologies angeblich Jugendliche zu Gewalt gegen ihre Eltern oder selbstverletzendem Verhalten inspiriert. Die Bedingungen der Vergleiche sind bisher öffentlich nicht bekannt und werden nach Angaben von TechCrunch weiter verhandelt. Demnach wollen sich weder Sprecher*innen von Character Technologies, noch die Anwältin der Anklage dazu äußern.

Haften Techkonzerne für ihre Chatbots?

Zwei ehemalige Google-Mitarbeiter gründeten 2021 den Chatbot-Hersteller Character Technologies. Drei Jahre später kehrten sie zu Google zurück. Im gleichen Zug erwarb der Konzern Lizenzen in Höhe von 2,7 Milliarden US Dollar von Character Technologies. Beide Gründer stehen als Angeklagte vor Gericht. Die Mutter des toten 14-Jährigen hat ebenfalls Googles Mutterkonzern Alphabet angeklagt. Sie argumentiert, dass das Unternehmen den Chatbot mitentwickelt hat. Google beteiligt sich nun auch an dem Vergleich.

Im Mai des vergangenen Jahres hatte die verantwortliche US-Bezirksrichterin Anne C. Conway entschieden, dass KI-Chatbots rechtlich als Produkte zu behandeln sind. Ihre Ausgaben seien nicht als geschützte Meinungsäußerung zu werten. Andernfalls hätte das die Chancen einer Haftungsklage stark verringert.

Gegenmaßnahme Altersbeschränkungen

Aktuell laufen in den USA sieben Verfahren gegen den Tech-Konzern OpenAI. Eine Anklage stammt von den Eltern eines 16-Jährigen Jungen. Auch sie werfen dem Unternehmen vor, dass die KI den Jugendlichen bei der Selbsttötung unterstützt habe. OpenAI zieht sich bisher aus der Verantwortung. Der KI-Hersteller verweist auf die Missachtung der Sicherheitsmaßnahmen durch den 16-Jährigen.

Wir sind ein spendenfinanziertes Medium

Unterstütze auch Du unsere Arbeit mit einer Spende.

Gleichzeitig führt das Unternehmen neue Tools zur Alterskontrolle und „Kindersicherung“ ein. Auch der KI-Hersteller Character Technologies hat neue Regelungen zur Altersüberprüfung eingeführt.

Präzedenzfall steht aus

Character Technologies und Google streben die nicht-öffentlichen Vergleiche wohl auch deshalb an, um Präzedenzfälle zu vermeiden, auf die sich Kläger*innen bei zukünftigen Verstößen berufen können. Außerdem ist der Schaden für die Reputation bei einem Vergleich vermutlich geringer als bei einer juristischen Niederlage.

Aline Blankertz von Rebalance Now, einem Verein der sich gegen Monopolisierung einsetzt, sagt: „Die kollektive Schutzwirkung der Gesetze wird dadurch untergraben, denn es bleibt offen, ob das Verhalten illegal war. Wir beobachten diese Tendenz in verschiedenen Rechtsbereichen.“

Blankertz erklärt auch, warum sich Kläger*innen auf Vergleiche einlassen: „Aus Sicht der einzelnen Geschädigten ergeben Vergleiche Sinn: Sie geben ihnen ein sicheres Ergebnis innerhalb kürzerer Zeit.“



Source link

Weiterlesen

Datenschutz & Sicherheit

Dr. Ansay: Neue Sicherheitslücke legte 1,7 Millionen Datensätze offen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Bei dem Telemedizinanbieter Dr. Ansay hat es eine Sicherheitslücke gegeben, durch die rund 1,7 Millionen Rezepte von rund einer halben Million Kunden potenziell einsehbar waren. Betroffen sind vor allem Cannabis-Rezepte mit Gesundheits- und personenbezogenen Daten, darunter Namen, Adressen, E-Mail-Adressen, Telefonnummern und Angaben zu den rund 15 verschreibenden Ärzten, die meist nicht aus Deutschland kommen. Außerdem waren dort Daten zu Medikamenten, Dosierungen sowie ausgewählten Apotheken einsehbar sowie beispielsweise auch Bestellungen zu Schmerzmitteln. Fragen dazu, ob Daten abgeflossen sind, beantwortet das Unternehmen nicht.

Weiterlesen nach der Anzeige

Bei heise online gingen Hinweise darauf ein, dass die Lücke auf einer Fehlkonfiguration der Zugriffsregeln einer Firebase-Firestore-Datenbank basiert. heise online konnte das bestätigen. Durch die Fehlkonfiguration konnten eingeloggte Nutzer mit einem gültigen Token nicht nur auf ihre eigenen Rezepte, sondern auf sämtliche Datensätze zugreifen. Trotz mehrerer Meldeversuche an das Unternehmen blieb eine Reaktion zunächst aus, die Daten waren bis Anfang Januar weiterhin ungeschützt. Am Abend, nachdem heise online eine Anfrage an das Unternehmen gestellt hatte, wurde die Lücke geschlossen.

Zentrale Fragen von heise online lässt Dr. Ansay unbeantwortet und begründet den Fund mit dem Auflegen eines neu aufgelegten Bug-Bounty-Programms: „Wir gehen davon aus, dass die Lücke aufgrund eines von uns initiierten Bug-Bounty-Programm gefunden wurde“. Die Frage, ob eine Meldung an die Betroffenen gemäß Art. 34 der DSGVO erfolgt ist, lässt Dr. Ansay unbeantwortet.

Gegenüber dem Sicherheitsforscher, der die Lücke gefunden hat, hatte Dr. Ansay angegeben, eine DSGVO-Meldung an die zuständige Behörde initiiert zu haben. Anfragen von heise online an die Datenschutzbehörden in Malta und Hamburg, wo Dr. Ansay seinen deutschen Sitz hat, wurden noch nicht beantwortet.

Die Kontaktaufnahme des Sicherheitsforschers hatte sich über die Feiertage leider verzögert“, sagte eine Sprecherin. Inzwischen funktioniere die Kommunikation und das Problem habe sofort gelöst werden können. „Wir danken dem Sicherheitsforscher für die Arbeit und behandeln den Vorfall intern weiter“. Weitere Details wolle Dr. Ansay „aktuell nicht teilen, da in Zukunft Black-Hat-Hacker diese nutzen könnten und wir unsere Systeme schützen“.

Unklar bleibt, seit wann die Sicherheitslücke bestand und ab wann das Unternehmen davon wusste, ob und in welchem Umfang Daten tatsächlich abgeflossen sind, wie viele Personen konkret betroffen sind und ob diese bereits informiert wurden. Offen bleibt auch, welche konkreten Risiken für Betroffene bestehen, welche Schutzmaßnahmen geplant sind und warum die Lücke nicht durch eigene Sicherheitsprüfungen entdeckt wurde.

Weiterlesen nach der Anzeige

Viele heise-investigativ-Recherchen sind nur möglich dank anonymer Informationen von Hinweisgebern.

Wenn Sie Kenntnis von einem Missstand haben, von dem die Öffentlichkeit erfahren sollte, können Sie uns Hinweise und Material zukommen lassen. Nutzen Sie dafür bitte unseren anonymen und sicheren Briefkasten.

Gegenüber heise online und auf Reddit hatte Dr. Ansay noch im Dezember zugesichert, dass „interne Sicherheits- und Monitoringprozesse […] kontinuerlich“ laufen würden und es „keine Hinweise auf unautorisierten Zugriff oder einen Abfluss von Daten“ gebe. Zu dem Zeitpunkt wurden in einem Untergrundforum vermeintlich von Dr. Ansay stammende Datensätze zum Verkauf angeboten. Woher die Daten kommen, ist unklar. Denkbar ist auch ein Mix aus bereits veröffentlichten Leaks anderer oder ähnlicher Plattformen. Bisher konnte die Echtheit der Daten nicht bestätigt werden.


Dr. Ansays Antwort bei Reddit

Dr. Ansays Antwort bei Reddit

Dr. Ansay legt großen Wert auf die Sicherheit seiner Systeme.

(Bild: Reddit)

Datenschutz habe „oberste Priorität“, gibt Dr. Ansay an. „Die Systeme werden fortlaufend überprüft. Vor dem Hintergrund der aktuell vermehrt auftretenden Phishing- und Smishing-Versuche wurden die internen Kontrollen zusätzlich noch einmal intensiviert, ohne Befund“.

Bereits im Mai 2024 hatte es bei Dr. Ansay eine öffentlich bekannte Datenpanne gegeben, bei der Cannabis-Rezepte über Suchmaschinen abrufbar waren. Damals meldete das Unternehmen den Vorfall an die Datenschutzbehörde, sprach von einer behobenen Lücke und informierte Betroffene per E-Mail.


(mack)



Source link

Weiterlesen

Beliebt