Connect with us

Datenschutz & Sicherheit

Was darf die Polizei mit einkassierten Handys machen?


Wenn die Polizei ein Handy einzieht, darf sie dann alle Daten darauf auslesen? Unter anderem um diese Frage geht es bei einer Verfassungsbeschwerde, die der Journalist Hendrik Torner mit seiner Anwältin Gül Pinar und der Gesellschaft für Freiheitsrechte (GFF) erhoben hat.

Anlass bietet das, was Torner im Jahr 2023 passiert ist: Am Rande einer Klima-Demo in Bamberg dokumentierte er eine polizeiliche Maßnahme. Dazu gehörten auch die Äußerungen der Polizist:innen. Torner nahm eine Sprachnachricht auf, die er sich selbst schickte. Die Polizist:innen sahen dadurch die Vertraulichkeit ihres Gesprächs verletzt. Sie beschlagnahmten sein Gerät und analysierten es mit einer Forensik-Software des Herstellers Cellebrite.

Dabei fanden sie jedoch mehr als die Sprachnachricht, an der sie ursprünglich Anstoß genommen hatten. Anhand von Fotos und Chatnachrichten auf dem Telefon erstellte die Polizei einen Bericht über Torners politische Aktivitäten. Das geht zu weit, findet der Journalist.

„Dass die Polizei meine Fotos gespeichert und ein Profil meiner politischen Aktivitäten erstellt hat, war ein massiver Eingriff in meine Privatsphäre und durch nichts gerechtfertigt,“ kritisiert er in einer Pressemitteilung. Als Journalist müsse er sich darauf verlassen können, dass vertrauliche Informationen dies auch blieben.

Grenzenlose Auswertung

Wann die Polizei Handys beschlagnahmen darf, ist genau geregelt. Beim Umgang mit den auf den Geräten befindlichen Daten fehlen laut der GFF jedoch Grenzen. „Wenn die Polizei bei einem beschlagnahmten Handy alle Daten auslesen darf, kann sie die gesamte Persönlichkeit und das Privatleben der Betroffenen erfassen – obwohl bislang nur ein strafrechtlicher Anfangsverdacht besteht“, sagt der Jurist Davy Wang, der das Verfahren bei der GFF koordiniert.

Im Jahr 2023 hatten Recherchen von netzpolitik.org ergeben, dass kaum etwas bekannt ist über polizeiliche Beschlagnahmen von Handys – verlässliche Statistiken fehlen in den meisten Bundesländern. Ebenso fehlt eine Übersicht dazu, wie lange die Gerät einkassiert werden. Betroffene müssen teils einige Tage bis zur Auswertung und Rückgabe warten oder auch mehrere Monate. Immer wieder kritisierten Jurist:innen unklare Regelungen zu der Maßnahme.

Torner selbst musste von September 2023 bis August 2024 auf sein Smartphone warten. Dass das zu lang war, wurde bereits gerichtlich bestätigt. Nach einer Beschwerde urteilte das Landgericht Bamberg, die Beschlagnahme sei nur in den ersten drei Monaten rechtmäßig gewesen.



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Datenschutz & Sicherheit

Künstliche Intelligenz: Die Hype-Tech-Agenda der Bundesregierung


Mehr Wettbewerbsfähigkeit, Wertschöpfung und Souveränität – das verspricht die „Hightech-Agenda Deutschland“, die das Bundeskabinett gestern verabschiedet hat.

Der Entwurf stammt aus dem Bundesministerium für ­Forschung, Technologie und Raumfahrt (BMFTR) von Dorothee Bär (CSU). Die gute Nachricht: Flugtaxis will die Ministerin offenbar nicht länger in die Luft bringen. Stattdessen liegt ihr Augenmerk nun auf sechs „Schlüsseltechnologien“: Quantentechnologien, Mikroelektronik, Biotechnologie, Fusion und klimaneutrale Energieerzeugung, Technologien für die klimaneutrale Mobilität – und Künstliche Intelligenz.

Vor allem bei dem „Megathema“ KI strebt Bär für Deutschland eine Spitzenposition an. Ihre Hightech-Agenda ist durchzogen von der Vorstellung, dass sich mit KI ökonomische und wissenschaftliche Wunder vollbringen lassen. Diese Glaubensfestigkeit überrascht. Denn anderswo werden die Verheißungen des KI-Hypes längst hinterfragt und Kehrtwenden eingeleitet.

Mehr Wirtschaftsleistung durch KI?

In ihrer Hightech-Agenda spart die Regierung selbst nicht mit vollmundigen Versprechungen. Gleich zu Beginn formuliert sie das Ziel, „mit einer KI-Offensive bis 2030 zehn Prozent unserer Wirtschaftsleistung KI-basiert [zu] erwirtschaften“.

An keiner Stelle verrät das knapp 50-seitige Papier, wie das Ministerium zu dieser Zielmarke gelangt ist – oder wie es herausfinden will, dass dieses Ziel erreicht wurde.

„Die Formulierung ist äußerst vage“, sagt Florian Butollo gegenüber netzpolitik.org. Er ist Professor für Soziologie der digitalen Transformation und Arbeit an der Goethe-Universität in Frankfurt am Main und leitet das Forschungsprojekt „Generative KI in der Arbeitswelt“ am Weizenbaum-Institut. Sollen in fünf Jahren zehn Prozent aller Unternehmen KI einsetzen? Das wäre sehr wenig, sagt Butollo. Oder soll tatsächlich zehn Prozent der Bruttowertschöpfung auf KI zurückgehen? Dann aber müsste die Regierung berücksichtigen, dass die Arbeit mit KI meist in einer dynamischen Interaktion zwischen Mensch und Technologie erfolgt. Hier den Beitrag von KI seriös zu messen, sei kaum möglich, so der Soziologe.

„Nicht vom KI-Hype treiben lassen“

Auch andere trauen den wirtschaftlichen Verheißungen der Hightech-Agenda nicht. Sie befürchten vielmehr, dass der KI-Einsatz zulasten von Arbeitnehmer:innen geht. Die Sorge ist begründet: Gut ein Viertel der Unternehmen geht davon aus, dass der KI-Einsatz in den kommenden fünf Jahren zu einem Stellenabbau führen wird.

„Es darf nicht darum gehen, die Personalkosten zu senken“, warnt die Vorsitzende des Deutschen Gewerkschaftsbunds, Yasmin Fahimi. Vielmehr müsse eine höhere Qualität der Arbeit und mehr Mitbestimmung der Mitarbeitenden im Fokus stehen.

Und der europäische Betriebsratschef von SAP, Andreas Hahn, fordert, sich nicht vom KI-Hype treiben zu lassen. Wer glaube, „dasselbe mit weniger Ressourcen liefern zu können“, drohe von Konkurrenten überholt zu werden, die mit einer nicht geschrumpften Belegschaft mehr und bessere Produkte liefern.

Hahn widerspricht damit auch SAP-Vorstandschef Christian Klein. Der hatte behauptet, die Entwickler:innen seines Softwarekonzerns seien dank KI um dreißig Prozent produktiver geworden. Bereits Anfang vergangenen Jahres hatte Klein eine KI-Offensive und Streichung mehrerer tausend Stellen angekündigt.

Erst investieren, dann verstehen?

Solche Effizienzversprechen ziehen erste Studien in Zweifel. So kommt eine aktuelle Untersuchung der Cornell University sogar zu dem Schluss, dass erfahrene Programmierer nicht weniger, sondern mehr Zeit benötigen, wenn sie mit Hilfe von KI Code entwickeln. Darüber hinaus räumen erste Unternehmen ein, das die Angebotsqualität durch den KI-Einsatz leidet. So setzt etwa das schwedische Fintech-Unternehmen Klarna in seinem Kundendienst inzwischen wieder auf Menschen statt auf KI.

Florian Butollo überrascht das nicht. „Nicht die KI macht etwas, sondern Menschen machen etwas mit KI. Unternehmen schaden sich also selbst, wenn sie am menschlichen Arbeitsvermögen sparen, ohne das die KI nicht sinnvoll eingesetzt werden kann.“

Gründe für das erratische Verhalten von Unternehmen hat eine internationale IBM-Studie gefunden. Demnach neigen etwa zwei Drittel der CEOs dazu, in Technologien zu investieren, noch bevor sie deren ökonomischen Wert vollständig verstanden hätten. Ihre große Sorge: Dass sie hinter der Konkurrenz zurückfallen könnten.

KI als Forschungstreiber?

Die Sorge, abgehängt zu werden, treibt auch Forschungsministerin Bär an. Bei der Präsentation der Hightech-Agenda zeigte sie sich überzeugt, dass die deutsche Wirtschaft international nur dann „wieder an die Wettbewerbsspitze“ gelangen könne, wenn die Rahmenbedingungen für die Forschung stimmen. Etliche Wissenschaftsbereiche sollen deshalb von Künstlicher Intelligenz profitieren – von der Gesundheits- und Materialforschung über die Klima- und Biodiversitätsforschung bis zur Energie- und Nachhaltigkeitsforschung.

Doch auch für die Wissenschaft wird die KI keine Wunder vollbringen können. Denn die Fähigkeiten selbst aktueller Spitzenmodelle sind offenkundig ziemlich beschränkt und damit nicht vertrauenswürdig.

Der neueste Schrei auf dem KI-Hype-Markt sind sogenannte Large Reasoning Models (LRMs). Das sind fortgeschrittene KI-Modelle, die auf der Architektur großer Sprachmodelle (Large Language Models, LLMs) basieren, aber speziell darauf trainiert sind, mehrschrittige und vermeintlich strukturierte Schlussfolgerungen zu ziehen. Sie sollen somit nicht nur Texte „verstehen“ und erzeugen, sondern auch menschenähnliches Denken imitieren können, was insbesondere auch der Forschung zugutekommen soll.

Dass die Ergebnisse der LRMs jedoch nur mit Vorsicht zu genießen sind, hat jüngst eine Forschungsgruppe des Konzerns Apple herausgefunden. Laut der Studie „The Illusion of Thinking“ arbeiten etwa die Sprachmodelle von OpenAI mit zunehmender Komplexität der Aufgaben immer ungenauer – bis zum „complete accuracy collapse“, einem kompletten Genauigkeitskollaps. Warum es dazu kommt, können die Forschenden nach eigenen Angaben nicht erklären, sie gehen aber von einem grundlegenden Problem der KI-Technologie aus.

Und auch eine Studie, an denen unter anderem KI-Forschende aus dem Hause Google beteiligt waren, bewertet die Begründungen von LRMs als „irreführend“ und deren Resultate als wenig vertrauenswürdig.

Im besten Fall könne KI Software-Code oder Texte schreiben, so das Fazit des KI-Forschers Gary Marcus. Aber selbst dann seien die Ergebnisse alles andere als zuverlässig. Vielmehr könnte die KI „dir vorgaukeln, dass sie eine richtige, verallgemeinerbare Lösung entwickelt habe, obwohl das nicht der Fall ist.“


2025-07-14
899.12
78


– für digitale Freiheitsrechte!



Euro für digitale Freiheitsrechte!

 

Bundesregierung will AI-Gigafactory bauen

Derlei Erkenntnisse halten die Bundesregierung nicht davon ab, KI auch baulich in übergroßen Dimensionen zu denken. „Wir holen mindestens eine der europäischen AI Gigafactories nach Deutschland“, heißt es in der Hightech-Agenda. Eine solche Ankündigung fand sich auch im Koalitionsvertrag.

Die gigantischen Rechenzentren dienen dem Training großer Sprachmodelle und verfügen über mindestens 100.000 spezielle Hochleistungsprozessoren, sogenannte GPU. Derzeit verfügen die größten Anlagen hierzulande über rund 25.000 GPU.

Insgesamt fünf dieser Rechenzentren will EU-Kommission europaweit bauen. Die Kommission schätzt, dass die Kosten pro Gigafabrik bei drei bis fünf Milliarden Euro liegen – die ökologischen Kosten mal außen vorgelassen. Ein europäischer Fonds soll deren Bau mit insgesamt 20 Milliarden Euro bezuschussen. Voraussichtlich 35 Prozent der Gesamtkosten werden die europäischen Steuerzahler:innen tragen, den Rest müssen die beteiligten Firmen und Investmentfonds aufbringen.

Das Interesse ist offenkundig groß: Bis Ende Juni haben Unternehmen und Forschungseinrichtungen bei der Kommission insgesamt 76 sogenannte Interessensbekundungen für den Bau einer Gigafactory eingereicht. Darunter sind einige deutsche Konzerne wie Telekom oder Ionos, auch wenn diese vom deutschen Staat noch mehr finanzielle Unterstützung wie zum Beispiel Steuererleichterungen fordern.

Der Hype ebbt ab

Die Bundesregierung zeigt sich optimistisch. Laut ihrer Hightech-Agenda soll die erste AI Gigafactory in Deutschland schon Mitte 2027 in Betrieb gehen.

Selbst wenn diese Frist gehalten wird, ist das mit Blick auf die KI-Forschung eine langer Zeitraum. Vor gut einem halben Jahr veröffentlichten chinesische Entwickler:innen das KI-Modell DeepSeek. Ihnen zufolge könne DeepSeek mit der Konkurrenz mithalten. Das Training der KI benötige im Vergleich aber nur ein Bruchteil der Rechenkraft und erheblich weniger Zeit.

Die Tech-Welt zeigte sich aufgeschreckt: „Wir sollten die Entwicklungen in China sehr, sehr ernst nehmen“, sagte Microsoft-CEO Satya Nadella damals auf dem Weltwirtschaftsforum in Davos. Trotzdem gab Microsoft im April bekannt, einige seiner Rechenzentrumsprojekte „zu verlangsamen oder zu pausieren“. Beobachter gehen davon aus, dass sich der Konzern „im Eifer des Gefechts um Künstliche Intelligenz höchstwahrscheinlich zu viel vorgenommen“ hatte. Auch Marktführer Amazon hat mehrere Bauprojekte für Rechenzentren auf Eis gelegt.

Selbst in China ebbt der KI-Hype offenkundig ab. In den Jahren 2023 und 2024 wurde landesweit der Bau von mehr als 500 Rechenzentren angekündigt. Bis Ende 2024 waren zwar 150 von ihnen gebaut. Doch 80 Prozent dieser Rechenzentren sind chinesischen Medien zufolge nicht in Gebrauch. „KI-Projekte scheitern, Energie wird verschwendet und Rechenzentren sind zu ’notleidenden Vermögenswerten‘ geworden, die Investoren gerne zu Preisen unter dem Marktwert loswerden möchten“, beschreibt die MIT Technology Review die Lage in China.

Dass die Frage der Wirtschaftlichkeit in der deutschen Debatte nur am Rande vorkommt, könnte auch mit dem schwarz-roten Koalitionsvertrag zusammenhängen. Darin steht, dass der Staat bei Vorhaben der Hightech-Agenda auch als „Ankerkunde“ tätig wird. Mit anderen Worten: Die Bundesregierung sichert zu, mit Steuergeldern für eine Mindestnachfrage bei den Gigafactories zu sorgen. Offenbar ist sie selbst also nicht allzu fest davon überzeugt, dass der KI-Hype aus sich heraus Früchte trägt.



Source link

Weiterlesen

Datenschutz & Sicherheit

Schnell installieren: Apple fixt Zero-Day-Angriff in WebKit


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Apples in der Nacht zum Mittwoch erschienene Updates für iOS, iPadOS und macOS sollten dringend schnell eingespielt werden: Wie nun erst bekannt wurde, wird damit auch ein WebKit-Bug gefixt, für den es bereits einen Exploit gibt. Dieser wird allerdings bislang nur verwendet, um Chrome-Nutzer anzugreifen, wie es in der zugehörigen NIST-Meldung heißt (CVE-2025-6558). Der Fehler wird mit „Severity: High“ bewertet. Verwirrend: Apple warnt in seinen Sicherheitsunterlagen nicht vor bekannten aktiven Angriffen – offenbar, weil es für den Apple-Browser Safari noch keine entsprechenden Berichte gibt.

Laut Google, dessen eigene Threat Analysis Group (TAG) den Fehler entdeckt hat, hat man in Chrome Versionen vor 138.0.7204.157 beobachtet, wie es einem entfernten Angreifer über eine manipulierte Website gelang, einen Sandbox-Ausbruch durchzuführen, der dann zu weiteren Problemen führt. Grund ist die Verarbeitung nicht verifizierter Inputs in den Modulen GPU und ANGLE.

Apple selbst schreibt nur, dass CVE-2025-6558 zu einem „unerwarteten Absturz“ in Safari führen könne, von einem Sandbox-Ausbruch ist dort nicht die Rede. Es könnte also sein, dass der Schweregrad auf Apple-Plattformen geringer ist – eine Bestätigung dazu gibt es bislang aber nicht. Apple schreibt weiter, es handele sich um eine Lücke „im Open-Source-Code“ und Apples eigene Software sei „unter den betroffenen Produkten“.

Der WebKit-Bug wird – zusammen mit zahlreichen weiteren Fehlern – sowohl in iOS 18.6 als auch in iPadOS 18.6 und macOS 15.6 behoben. Weiterhin erschien um einen Tag verzögert auch ein Update für macOS 13 (Ventura) und 14 (Sonoma): Safari 18.4 als Einzeldownload. Warum Apple den Browser für die älteren Systeme hier zunächst verzögert hatte, ist bislang unklar. Den Fix enthält weiterhin auch iPadOS 17.7.9, das Apple parallel zu iOS 18.6 und Co. veröffentlicht hatte. iOS 17 wird vom Hersteller hingegen nicht weiter gepflegt.

Der Vorgang zeigt, dass man bei Sicherheitsupdates genau hinschauen muss. Googles TAG hat bislang noch nicht verraten, wer die Angreifer waren und wie verbreitet der Exploit auf Chrome ist. Wer den Browser (oder darauf aufbauende mit Chromium) nutzt, sollte auch diesen dringend aktualisieren – gegen den Exploit hilft die Installation einer aktuellen Safari- oder macOS-Version nämlich nicht.


(bsc)



Source link

Weiterlesen

Datenschutz & Sicherheit

Microsofts Sharepoint-Lücken: Die Zero-Days, die vielleicht gar keine waren


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die als Zero-Day-Angriffe gemeldeten Angriffe auf Sharepoint waren vielleicht gar keine echten Zero-Days. Vielmehr richteten sie sich gegen bereits bekannte Schwachstellen, für die Microsoft zuvor am 8. Juli einen Patch veröffentlicht hatte. Ob deren Installation allerdings gegen die Angriffe geschützt hätte, bleibt weiter offen.

Doch der Reihe nach: Zum monatlichen Patchday, am 8. Juli, veröffentlichte Microsoft Patches zu zwei Lücken in on-premises-Installationen von MS Sharepoint, die die Lücken CVE-2025-49706 + CVE-2025-49704 schließen sollten. Am 19. Juli vermeldete Microsoft unter der Überschrift „Kundenhinweise zur SharePoint-Schwachstelle CVE-2025-53770“ aktive Angriffe auf Sharepoint, gegen die dann etwas später die neuen Patches gegen Lücken mit dem Bezeichner CVE-2025-53770 und CVE-2025-53771 veröffentlicht wurden. Fortan ging alle Welt und auch heise online davon aus, dass es Zero-Day-Angriffe gegen die neuen 53770*-Lücken gab.

Nun stellt sich heraus, dass die Angriffe ab dem 17. Juli sich gegen die Patchday-Lücken CVE-2025-49706 und CVE-2025-49704 richteten, wie etwa eye Security einräumt. Allerdings ergaben genauere Untersuchungen der Patchday-Updates, dass Microsofts Sicherheitsflicken sehr stümperhaft gemacht waren und sich trivial umgehen ließen. So demonstrierte Kaspersky, dass man den Patch gegen CVE-2025-49706 durch das einfache Einfügen eines / in eine URL umgehen konnte.



So einfach ließ sich Microsofts Patch umgehen: das zusätzliche „/“ löste den Fehler CVE-2025-49706 trotz Patch wieder aus

(Bild: Kaspersky)

Microsoft sagt auch an keiner Stelle, dass nur ungepatchte Systeme den Angriffen zum Opfer gefallen wären. Die Firma räumt sogar selbst ein: „Microsoft sind aktive Angriffe bekannt, die […] Sicherheitslücken ausnutzen, die teilweise durch das Sicherheitsupdate vom Juli behoben wurden.“ (Hervorhebung durch die Redaktion). Es ist also nach aktuellem Kenntnisstand möglich, dass die Angriffe sich zwar gegen die 4970*er-Lücken richteten, aber bereits etwas wie den zusätzlichen / enthielten, um die Patches wirkungslos zu machen.

Jedenfalls schob Microsoft ab dem 20. Juli verbesserte Updates nach, die die Lücken nachhaltiger schließen. Statt bösartige URLs zu filtern, was sich leicht umgehen lässt, arbeitet der Patch CVE-2025-53770 jetzt mit White-Lists erlaubter URLs. Damit schließt der Patch offenbar die Lücken CVE-2025-49706 und CVE-2025-53771. Was genau es mit diesem CVE-2025-53771 genau auf sich hat, ist allerdings nach wie vor unklar. Denn Microsoft liefert lediglich sehr vage Schwachstellenbeschreibungen. Ähnliches gilt analog auch für CVE-2025-53770.

Sollten die Angriffswellen ab dem 17. Juli auch gegen Systeme auf aktuellem Patch-Stand funktioniert haben, wären das nach wie vor Zero-Day-Attacken gewesen. Denn die betroffenen Microsoft-Kunden hatten keine Chance, sich effektiv zu schützen. Dieser Unterschied hat auch jenseits der Wortklauberei ganz praktische Bedeutung: Denn in diesem Fall müssten alle Microsoft-Kunden davon ausgehen, dass ihr Server möglicherweise kompromittiert wurde, auch wenn die verfügbaren Patches alle bereits eingespielt waren. Und das hat massive Konsequenzen für die damit anstehenden Maßnahmen.

Wer jetzt bei den vielen CVEs und Updates den Überblick verloren hat und nicht mehr weiß, was Sache ist, befindet sich in guter Gesellschaft. Das Ganze ist ein schrecklicher Verhau von Informationsbröckchen, aus denen auch wir in stundenlangen Diskussionen kein schlüssiges Gesamtbild zusammenbauen konnten. Deshalb hier noch einmal eine Zusammenfassung der für Verteidiger wichtigen Fakten und was zu tun ist:

Microsofts Sharepoint wies mehrere kritische Lücken auf, die es erlaubten, den on-premises-Server zu kompromittieren. Um sich dagegen abzusichern, sollten Admins die Patches gegen CVE-2025-53770 und CVE-2025-53771 installieren, die alle bekannten Lücken zuverlässig schließen. Außerdem sollten sie die von Microsoft beschriebenen, vorbeugenden Maßnahmen durchführen und insbesondere den IIS-MachineKey neu erstellen. Sonst könnten Angreifer nach wie vor Zugriff auf ihren Server erlangen, weil sie den alten bereits vor dem Einspielen des Patches gestohlen haben.

Darüber hinaus wäre es überaus hilfreich, wenn sich Microsoft dazu durchringen könnte, für mehr Klarheit zu sorgen. Dazu gehören unter anderem klare Aussagen zu folgenden offenen Punkten:

  • Gab es erfolgreiche Angriffe gegen Systeme, die die Updates vom Patchday zeitnah bekommen hatten?
  • Welche Schwachstellen stehen genau hinter den jeweiligen CVEs? Am besten mit konkreten Referenzen auf den verwundbaren Code.
  • Warum liefert Microsoft für kritische Lücken nach einer Vorlaufzeit von fast zwei Monaten Patches aus, die sich trivial umgehen lassen?


(ju)



Source link

Weiterlesen

Beliebt