Connect with us

Künstliche Intelligenz

Polizeiliche Datenanalyse: Kommt Palantir bald für uns alle?


Der Einsatz von Palantir als polizeiliche Analysesoftware ist stark umstritten, dennoch drängen verschiedene Bundesländer auf die Einführung der Software in ganz Deutschland. Hessen und Bayern gelten als Vorreiter, in NRW ist sie ebenfalls im Einsatz und das Innenministerium in Baden-Württemberg hat kürzlich erst einen Vertrag mit Palantir geschlossen, obwohl es die gesetzliche Grundlage bislang nicht gibt, wie verschiedene Medien berichten. Datenschützer sehen das höchst kritisch und warnen davor, dass neben Verdächtigen zu viele unschuldige Menschen überwacht werden.

Eine Alternative ist bislang nicht in Sicht, jedoch arbeitet das Bundesinnenministerium daran: „Aktuell wird im Programm P20 ein beschleunigtes Vorgehen für die Implementierung der Analysekompetenz im Programm geprüft. Die Prüfung dauert an. (Zwischen-)Ergebnisse können wir Ihnen momentan nicht mitteilen“, heißt es dazu von einem Sprecher des Bundesinnenministeriums auf Anfrage von heise online.

Das Bayerische Innenministerium betont unterdessen, dass die Sicherheit der Plattform VeRA höchste Priorität habe. „Das VeRA-System verfügt über keine Internetverbindung“, heißt es – ein Zugriff von außen sei damit „weder physisch noch technisch“ möglich. Zudem sei der Quellcode der Palantir-Software vom Fraunhofer SIT geprüft worden. Eine „Backdoor“-Funktionalität habe dabei ausgeschlossen werden können. Allerdings hatte das SIT eine inzwischen geschlossene Sicherheitslücke im Update-Prozess gefunden. Fragen dazu, wie die Lücke gefunden wurde, beantwortet das SIT jedoch auch auf Anfrage von heise online nicht.

Auch wenn eine unabhängige wissenschaftliche Evaluation bislang nicht vorgesehen ist, verweist das Bayerische Innenministerium auf Erfolge in der Praxis, etwa beim Anschlag am Münchner Karolinenplatz. Das Hessische Innenministerium hat sich gegenüber heise online noch nicht geäußert.


Jonas Botta

Jonas Botta

Der Rechtswissenschaftler Dr. Jonas Botta widmet sich in seiner Arbeit am Deutschen Forschungsinstitut für öffentliche Verwaltung vornehmlich Fragen des Verfassungs- und Digitalrechts.

(Bild: Botta)

Wir haben mit Dr. Jonas Botta über die Rechtslage und mögliche Gefahren rund um den Einsatz von Palantir gesprochen. Er wurde im April 2025 als Sachverständiger zur aktuellen Polizeirechtsreform in Sachsen-Anhalt angehört, die auch eine Rechtsgrundlage für die polizeiliche Datenanalyse vorsieht.

In mehreren Bundesländern wird derzeit darüber diskutiert, die Datenanalyse-Software „Gotham“ des US-Unternehmens Palantir in der Polizeiarbeit einzusetzen. Was sind aus Ihrer Sicht die größten Kritikpunkte an diesem Vorhaben?

Es gibt zwei zentrale Problembereiche. Erstens die Frage, ob die Rechtsgrundlagen für eine solche polizeiliche Datenanalyse überhaupt verfassungsgemäß sind. Denn selbst ohne Palantir ist es schon ein erheblicher Grundrechtseingriff, wenn Daten aus verschiedenen Quellen zusammengeführt werden. Dabei entsteht ein neuer Eingriff in die informationelle Selbstbestimmung – einfach durch die Verknüpfung.

Die Frage ist: Wie leicht oder schwer ist es für die Polizei, eine solche Analyse durchzuführen? Zum Beispiel in Sachsen-Anhalt, wo derzeit über eine Rechtsgrundlage für die polizeiliche Datenanalyse beraten wird, ist die Schwelle dafür aus meiner Sicht viel zu niedrig angesetzt. Zweitens geht es um die technische Umsetzung: Lässt es sich mit Datenschutz und digitaler Souveränität vereinbaren, im öffentlichen Sicherheitssektor auf die Software „Gotham“ von Palantir zu setzen? Meines Erachtens „nein“.

Das Bundesverfassungsgericht hat sich ja 2023 dazu geäußert…

Das Gericht hat klargestellt: Eine Datenanalyse durch die Polizei ist nicht per se verboten – aber es gelten hohe Anforderungen. Die Schwelle für den Einsatz liegt bei einer geheimen Überwachungsmaßnahme. Das heißt: Es muss für ein besonders gewichtiges Rechtsgut – wie den Schutz des Lebens – eine zumindest hinreichend konkretisierte Gefahr bestehen. Diese Hürde wird in aktuellen Polizeigesetzen bzw. Gesetzentwürfen nicht ausreichend berücksichtigt.

Gibt es denn Beispiele, bei denen die Software bisher erfolgreich war?

Das ist genau der Punkt: Es gibt keine belastbare wissenschaftliche Evaluation. In Hessen wird immer wieder darauf verwiesen, dass man 2018 mit der Software einen terroristischen Anschlag verhindert habe. Laut Recherchen von NDR, WDR und Süddeutscher Zeitung geht es in der Praxis zum Beispiel in Bayern häufiger um Delikte gegen Eigentums- und Vermögenswerte wie Bandenhehlerei, nicht um Terrorismus.

Welche Rolle spielt dabei die Kontrolle durch Datenschutzbehörden?

Eine sehr zentrale. Das Bundesverfassungsgericht verlangt mindestens alle zwei Jahre eine unabhängige Kontrolle durch die externen Aufsichtsbehörden und auch die internen Datenschutzbeauftragten sind in die Pflicht zu nehmen, etwa um Stichproben durchzuführen. In Sachsen-Anhalt fehlt ein solches Kontrollkonzept bislang völlig. Das ist für mich unverständlich und verfassungsrechtlich bedenklich.

Und wie sieht es mit der konkreten Nutzung von Palantir aus – gibt es da keine staatliche Kontrolle?

Der Staat müsste in der Lage sein, das System technisch und inhaltlich zu durchdringen – auch wenn Geschäftsgeheimnisse betroffen sind. Nur so kann er überwachen, ob die Grundrechte eingehalten werden. Aber genau das ist bei Palantir problematisch. Palantir schickt laut Medienberichten sogar eigene Mitarbeiter in die Behörden, um die Software zu betreuen. Das unterläuft die staatliche Souveränität.

Wird es denn auf Bundesebene bald eine einheitliche Regelung geben?

Ich halte es für sehr wahrscheinlich, dass auch auf Bundesebene eine Polizeirechtsreform ansteht, vielleicht schon nach der parlamentarischen Sommerpause. Nach der Schaffung einer gesetzlichen Grundlage für die Datenanalyse wäre dann der Einsatz von „Gotham“ wahrscheinlich. Aber schon der Ampel-Entwurf für eine Polizeirechtsreform aus dem letzten Jahr war in Teilen verfassungswidrig, insbesondere weil eine dauerhafte Datenzusammenführung geplant war – ohne eigene Ermächtigungsgrundlage.

Die Bundesdatenschutzbeauftragte Louisa Specht-Riemenschneider hatte von einer Superdatenbank gesprochen, was ist damit gemeint?

Es geht um die dauerhafte Zusammenführung wesentlicher Inhalte polizeilicher Datenbanken – also nicht nur anlassbezogen zur Analyse. Das ist ein besonders schwerwiegender Eingriff und müsste gesetzlich gesondert geregelt sein. Doch in bisherigen Entwürfen wurde diese Superdatenbank einfach „hineingemogelt“ ohne klare Verankerung im Normtext. Das ist grundrechtswidrig.

Würden Sie denn eine temporäre, anlassbezogene Datenanalyse für vertretbar halten?

Ja, wenn sie klar gesetzlich geregelt und gut kontrolliert ist. Aber es müssten hohe Hürden für die Analyse gelten. Eine flächendeckende Verknüpfung unterschiedlichster Daten – etwa zu Personengruppen, Delikten oder Gefährdungsstufen – ist nur in absoluten Ausnahmefällen gerechtfertigt.

Welche Rolle spielt die EU-KI-Verordnung in diesem Zusammenhang?

Die KI-Verordnung ist primär Produktsicherheitsrecht und richtet sich an Anbieter von KI-Systemen. Aber auch Behörden, die solche Systeme betreiben oder verändern, unterliegen bestimmten Pflichten – etwa zur Durchführung von Grundrechts-Folgenabschätzungen oder zur Registrierung in einer europäischen Datenbank. Diese Strukturen sind aber noch nicht vorhanden. Auch wer die Aufsicht führen soll, ist in Deutschland noch unklar.

Was ist mit der Frage nach Datensouveränität und dem Zugriff aus dem Ausland?

Das ist ein weiterer kritischer Punkt. Bei US-amerikanischen Anbietern besteht immer das Risiko, dass US-Behörden auf die Daten zugreifen könnten – etwa über den Cloud Act. Das gefährdet die digitale Souveränität und das Vertrauen der Bürger in den deutschen Staat und seine Institutionen. Deshalb wäre es aus meiner Sicht ein Gewinn, wenn man sich aus der faktischen Monopolstellung von Palantir befreite.

Was sollte man jetzt tun?

Erstens: Die digitalen Befugnisse der Polizeibehörden auf solide, verfassungskonforme Füße stellen. Zweitens: Eine echte wissenschaftliche Evaluation durchführen – was bringt die Software wirklich? Drittens: Unabhängige, kontrollierbare Alternativen entwickeln, idealerweise staatlich oder zumindest in Europa. Es geht nicht darum, Digitalisierung zu verhindern – sondern sie grundrechtskonform und souverän zu gestalten.


(mack)



Source link

Künstliche Intelligenz

Vision Pro: In dieser Nische verkauft sie sich gut


Gut 400.000 Stück soll Apple von der Vision Pro bislang verkauft haben – womöglich sogar weniger. Für ein Produkt des erfolgsverwöhnten iPhone-Konzerns ist das quasi nichts. Die Gründe sind schnell genannt: Das kombinierte VR- und AR-Headset ist mit mindestens 4000 Euro enorm teuer und hat noch keinen sonderlich bequemen Formfaktor. So drücken gut 650 Gramm auf den Kopf, auch wenn Apple (und Zubehöranbieter) dies mit Polstern und Kopfbändern abfedern wollen. Weiterhin sehr gelobt wird hingegen die technische Qualität der Vision Pro: enorm scharfes Bild, schnelles Augen- und Gestentracking, hoher Immersionsgrad und guter Mixed-Reality-Modus. Wie nun das Wall Street Journal schreibt, ist das Apple-Headset damit zumindest in einigen Bereichen ein Hit: Nischenanwendungen aus dem Business-Sektor.

Beispiele dafür sind das Training von Piloten, die Planung von Küchen, die Entwicklung neuer Medikamente oder das 3D-Design komplexer Produkte. So nutzt das kanadische Pilotentrainingsunternehmen CAE die Vision Pro für das Anlernen frischer Piloten, die dann für bestimmte Durchläufe nicht mehr in den (noch teureren) Simulator müssen. Das Apple-Headset habe neue Möglichkeiten eröffnet, obwohl CAE Augmented Reality seit Jahren verwendet. Das Display der Brille sei so scharf, dass alle Bereiche eines Cockpits zu lesen sind. Zudem ist ein Training mehrerer Personen an mehreren Orten gleichzeitig möglich.

Das französische Luft- und Raumfahrtunternehmen Dassault hat eine eigene 3DExperience-Plattform geschaffen, mit der Firmen über die 3DLive-App die Vision Pro zum Design neuer Produkte einsetzen können. Nutzer sind unter anderem Virgin Galactic und Hyundai.

Die Heimwerkerkette Lowe’s aus den USA setzt die Vision Pro an fünf Standorten ein, um Nutzern dabei zu helfen, ihre neue Küche einzurichten. Bis Ende des Jahres sollen die Geräte in 100 Märkten genutzt werden, künftig in bis zu 400. „Spatial Computing, insbesondere bei der Vision Pro, kann [die Lücke beim Verkaufsgespräch] schließen, indem es Kunden ermöglicht, sich ihre neuen Räume anschaulich vorzustellen und so sicherere Kaufentscheidungen zu treffen“, so ein Manager des Unternehmens.

Neu ist es allerdings nicht, dass Spezialgeräte aus dem Bereich Virtual und Augmented Reality in Industrieanwendungen genutzt werden: Das war auch bei Microsofts HoloLens und zuvor bei Google Glass so. Massenmarktprodukte wurden jedoch beide Geräte nicht.


(bsc)



Source link

Weiterlesen

Künstliche Intelligenz

FreeBSD-Policy: KI-generierter Quellcode ? Nein, Danke!


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die FreeBSD-Entwickler haben sich in dem aktuellen Status-Report klar dagegen ausgesprochen, LLM-generierten Code in das klassische Open-Source-Betriebssystem einfließen zu lassen. Man sehe zwar durchaus Vorteile von LLMs beim Generieren oder Überarbeiten der Dokumentation und anderer Texte. Übersetzungen beispielsweise lassen sich wesentlich schneller in ausreichender Qualität mit einer LLM erzeugen als durch rein manuelle Arbeit. Zur Erzeugung von Quellcode dürfen LLMs jedoch nicht eingesetzt werden. Im Report werden „Lizenzbedenken“ als primärer Hinderungsgrund genannt, was ja durchaus ein Problem ist, da die Ausgaben einer jeden LLM aus zuvor auch ohne Zustimmung kopierten Inhalten aus allen möglichen Quellen stammen.

Liest man regelmäßig die Mailinglisten der diversen BSD-Projekte mit, fällt aber vor allem ein anderes Problem auf: Es werden immer wieder fragwürdige Ideen, Verbesserungen von Problemen, die nicht existieren, und vermeintliche Patches, die überhaupt nicht funktionieren, von Leuten eingereicht, die zuvor nicht in den Listen aufgetaucht sind. Dieses Spamming mithilfe von ChatGPT und Co. ist zwar immer relativ schnell erkennbar, kostet die ohnehin nicht im Überfluss vorhandenen Entwickler aber grundsätzlich wertvolle Zeit. Kein Wunder also, dass man zumindest im Lager der BSD-Systeme dieser Art von Entwicklungsarbeit sehr kritisch und missmutig gegenübersteht.

Die offizielle Formulierung im aktuellen Status-Report für das zweite Quartal 2025 findet sich unter „Policy on generative AI created code and documentation“: „Core untersucht derzeit die Einrichtung einer Richtlinie für die Verwendung von LLM (einschließlich, aber nicht beschränkt auf die Generierung von Code). Das Ergebnis wird dem Contributors Guide im Dokumenten-Repository hinzugefügt. KI kann für Übersetzungen (die schneller zu sein scheinen als die manuelle Arbeit), die Erläuterung langer/unverständlicher Dokumente, die Suche nach Fehlern oder das Verständnis großer Codebasen nützlich sein. Derzeit tendieren wir aufgrund von Lizenzbedenken dazu, sie nicht zur Codegenerierung zu verwenden. Die Diskussion wird auf der Core-Sitzung des BSDCan 2025-Entwicklergipfels fortgesetzt, und Core sammelt weiterhin Feedback und arbeitet an der Richtlinie.“

Wenn andere Open-Source-Projekte den Einsatz von ChatGPT & Co als Quelle für unter anderem sicherheitskritischen Code begrüßen, so muss man das akzeptieren. Aber es ist vielleicht eine gute Idee, wenn zumindest ein Teil der Open-Source-Welt eher auf konservative Methoden beim Programmieren setzt und die menschliche Intelligenz bevorzugt. Das erzeugt methodische Diversität und ist grundsätzlich besser als eine alle Systeme umspannende LLM-generierte Monokultur beim Quellcode, die irgendwann niemand mehr durchdringt.

Konkrete Beispiele: NetBSD hat im Mai 2024 seine Commit-Richtlinien geändert. LLM-generierter Code gilt als „belastet“ („tainted“) und darf nicht ohne explizite Erlaubnis eingereicht werden. Gentoo verbietet ausdrücklich jegliche Code-Beiträge, die mit LLM‑Tools erstellt wurden. Der Gentoo Council begründete dies mit Bedenken hinsichtlich Copyright, Qualität und Ethik. Und auch das QEMU-Projekt hat eine klare Verpflichtung: Code, bei dem bekannt oder auch nur vermutet wird, dass er mit LLM erzeugt wurde, wird abgelehnt. Grund: Unklare Lizenzherkunft und mögliche Nichteinhaltung des DCO (Developer Certificate of Origin). Die Linux Foundation hingegen erlaubt grundsätzlich die Nutzung von AI-Tools, setzt aber auf Verantwortung der Entwickler.

Das FreeBSD-Projekt veröffentlicht üblicherweise immer im Monat nach einem Quartal (also im April für Q1) einen ausführlichen Statusbericht. In den Berichten wird über den aktuellen Stand der Entwicklung informiert, also über Fortschritte bei der Systementwicklung, über wichtige Updates bei den Ports und Paketen, über Änderungen in der Infrastruktur und über Beiträge aus der Community. Das FreeBSD-Projekt zeigt so ganz transparent, woran gearbeitet wurde, welche Pläne es gibt und wie sich das Projekt weiterentwickelt.

Der aktuelle Statusbericht für das zweite Quartal 2025 hätte im Juli kommen sollen, konnte aber erst verspätet veröffentlicht werden. Laut den Entwicklern sind kontinuierlich immer weitere wichtige Meldungen eingetroffen, die noch in den Report aufgenommen werden mussten. Immerhin zeigt das, dass die Entwicklung von FreeBSD mittlerweile wieder Fahrt aufnimmt.

FreeBSD-Admins oder -Anwender finden interessante Hinweise in den Reports und überfliegen diese gerne. Der aktuelle Report weist beispielsweise auf nun vorhandene zeitgesteuerte ZFS-Snapshots oder das CPU-Pinning für Bhyve-VMs hin. Amüsant auch die Ankündigung, dass die Portierung von FreeBSD auf das PinePhone Pro Fortschritte macht und es dort einen Netzwerktreiber für „Headphone-to-USB-serial“-Adapter gibt – das funktioniert über PPP und erinnert etwas romantisch an Computer-Kommunikation im letzten Jahrhundert.


(axk)



Source link

Weiterlesen

Künstliche Intelligenz

SAP: 20 Milliarden Euro für die Souveränität


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Über 20 Milliarden Euro will SAP bis 2025 in den Ausbau des Sovereign-Cloud-Angebots investieren. Mit den Geldern soll die regionale Abdeckung mit sicheren, regulatorisch konformen Cloud-Angeboten erweitert werden, um Europas digitale Unabhängigkeit zu fördern. Unternehmen und Organisationen in stark regulierten Branchen sollen so Innovationen etwa auf dem Feld der künstlichen Intelligenz ohne Kompromisse innerhalb eines „souveränen Rahmens“ erhalten.




Auf dem IT Summit by heise 2025 am 11. und 12. November im München erklären renommierte Experten, was europäische Cloud-Hoster im Vergleich zu US-Hyperscalern leisten und wie man KI-Lösungen lokal betreibt. Lernen Sie aus Fallstudien, wie andere Unternehmen ihre digitale Abhängigkeit vermindert haben. Erfahren Sie, wie Open Source Ihre Software-Landschaft unabhängiger macht und warum mehr digitale Souveränität die IT-Sicherheit verbessert.

Der IT Summit by heise 2025, die neue Konferenz für IT-Verantwortliche, findet am 11. und 12. November im Nemetschek Haus in München statt. Veranstalter ist heise conferences, das Programm kommt aus der iX-Redaktion.

Mit den erweiterten Angeboten des Sovereign-Cloud-Portfolios stehen mehrere Bereitstellungsoptionen für unterschiedliche Sicherheitsprofile zur Wahl. Zu diesen zählen die IaaS-Plattform SAP Cloud Infrastructure, die auf Open-Source-Komponenten basiert, in dem hauseigenen Rechenzentrumsnetzwerk läuft und Daten ausschließlich in der EU speichert. Im Rahmen der Cloud-On-Site-Variante wird eine von SAP betriebene Infrastruktur in dem vom Anwendungsunternehmen bestimmten Rechenzentrum – also mit eigener physischer Kontrolle vor Ort – bereitgestellt.

Zu den Sovereign-Cloud-Angeboten zählt SAP auch die Delos Cloud. Die von der gleichnamigen Tochterfirma betriebene Umgebung soll der öffentlichen Verwaltung unter anderem den souveränen Einsatz von Microsoft-Produkten ermöglichen. Die Infrastruktur basiert auf dem Azure-Stack, ist aber Eigentum der unter deutschem Recht firmierenden Delos. Der US-amerikanische Hersteller hat folglich keinen direkten Zugriff auf das System. Für die Hyperscaler-Option – die Sovereign Cloud ist auf den Plattformen der großen Provider prinzipiell gleichfalls möglich – gilt das nicht.

Die umfassendste Kontrolle und Souveränität versprechen fraglos die beiden neuen Bereitstellungsmodelle. Den erweiterten Schutz will und wird sich SAP bezahlen lassen. Schließlich müsse zusätzliches Personal zu deutschen Preisen für den Rund-um-den-Betrieb aus den hiesigen RZs angestellt werden. Konkrete Angaben zur Preisgestaltung und etwaige Aufschläge für mehr Souveränität wurden nicht gemacht.

Mehr Details zu SAPs souveränen Cloud-Angeboten finden sich in der Ankündigung.


(fo)



Source link

Weiterlesen

Beliebt