Datenschutz & Sicherheit
Noch viele Baustellen bei Polizeirechtsnovelle
Fünf Stunden lang besprachen Fachleute vor dem Innenausschuss des sächsischen Landtags (Aufzeichnung) eine geplante Verschärfung des sächsischen Polizeigesetzes. In der Sachverständigenanhörung wurde deutlich: Es gibt noch viele Baustellen und Jurist:innen sehen Widersprüche zur KI-Verordnung der EU. Bedenken äußerte auch ein Vertreter der Gewerkschaft der Polizei.
In dem Gesetz geht es unter anderem um Gesichtserkennung für Überwachungskamera-Bilder, Gesichtersuche im Internet und automatisierte Datenanalysen bei der Polizei.
„Weitgehend, aber nicht vollständig gelungen“
Gleich fünf Jurist:innen versuchten dem Ausschuss zu erklären, ob der Gesetzentwurf der sächsischen Regierung verfassungswidrig ist oder nicht. Umso mehr dürfte der anwesende Innenminister Armin Schuster (CDU) aufgeatmet haben, dass das überwiegende juristische Votum positiv ausfiel. Allerdings waren nur zwei der fünf Rechtswissenschaftler:innen von der Opposition nominiert worden.
Einer von ihnen war Professor Matthias Bäcker von der Universität Mainz. Bäcker lehrt dort nicht nur Öffentliches Recht und Datenschutzrecht, er erstritt als Anwalt auch den Teil-Sieg gegen das aktuelle Sächsische Polizeivollzugsdienstgesetz (SächsPVDG). Grüne und Linke hatten die 2019 verabschiedete Version des Polizeigesetzes vom sächsischen Verfassungsgerichtshof prüfen lassen und im Jahr 2024 mit ihren Zweifeln teilweise Recht bekommen. Aufgrund dieses Urteils laufen in etwa drei Monaten einige Befugnisse der Polizei aus – sofern sie nicht bis dahin eine neue rechtliche Grundlage bekommen.
Bäcker, der von den Grünen als Experte benannt wurde, bescheinigte der sächsischen Regierung, die gerichtlich beanstandeten Regelungen „weitgehend, aber nicht vollständig“ repariert zu haben. So seien etwa die Befugnisse zur hypothetischen Datenneuerhebung nicht klar genug geregelt. Hypothetische Datenneuerhebung heißt: Die Polizei darf einmal erhobene Daten (etwa durch eine Funkzellenabfrage) für andere Zwecke neu verwenden. So als hätte sie die Informationen neu erhoben.
Zu den neuen Befugnisse aus dem Gesetzentwurf zog Bäcker ebenfalls ein ambivalentes Fazit: „Alles, was der Entwurf macht, kann man im Prinzip machen. Die Probleme stecken mehr im Detail.“ Der Entwurf könnte aber verfassungsrechtlich „überwiegend halten“.
KI-Verordnung als Stolperstein?
Pessimistischer klang das bei dem von der Linken nominierten Experten, Professor Harmut Aden. Der stellvertretende Direktor des Forschungsinstituts für Öffentliche und Private Sicherheit (FÖPS Berlin) weckte Zweifel, ob der Entwurf mit dem Grundgesetz und insbesondere der KI-Verordnung vereinbar sei.
Der Gesetzentwurf sieht etwa Gesichtserkennung vor. Damit dürfte die Polizei unter bestimmten Voraussetzungen Bildmaterial aus Überwachungskameras mit eigenen Datenbanken abgleichen, zum Teil auch in Echtzeit. Der Fachbegriff dafür lautet „Biometrische Fernidentifizierung“.
„Bei der biometrischen Fernidentifizierung handelt es sich um eine verbotene Praxis der KI-Verordnung“, stellte Aden klar. Diese lasse nur wenige Ausnahmen zu, was im Gesetzentwurf nicht gewürdigt werde. „Es ist damit zu rechnen, dass solche Vorschriften einer rechtlichen Überprüfung nicht standhalten“, sagte Aden auch mit Blick auf europäisches Recht.
Kein Vorrat von Internet-Gesichtern anlegen
Aden sieht auch eine geplante Befugnis zur Gesichtersuche im Internet in Konflikt mit der KI-Verordnung. Wolle man den KI-Abgleich, müsse man laut Aden präzise Regelungen schaffen, welche Datenbestände wie herangezogen würden. „Ich lese den Entwurf so, dass man die schon irgendwo bereithält.“ Seines Erachtens sei das nur schwer möglich, „weil man diese Daten dann schon vorher irgendwie haben muss und die kann man ja dann quasi nur ungezielt ausgelesen haben.“
Laut Aden müsse man diese Regelung so umformulieren, dass man in einer Gefahrensituation „die Daten ganz gezielt erst in dem Moment online sucht. Das wäre vermutlich gerade so zulässig.“ Tatsächlich ist fraglich, wie groß die Schlupflöcher der KI-Verordnung sind.
Streit über automatisierte Datenanalyse
Besonderes Augenmerk lag im Ausschuss auf der automatisierten Datenanalyse. Der entsprechende Paragraf soll auch Systeme wie Palantirs Software Gotham ermöglichen, auch wenn der US-Anbieter Palantir – im Unterschied zu Baden-Württemberg, Bayern, Hessen und NRW – in Sachsen nicht zum Zuge kommen soll. Einer der Streitpunkte im Sächsischen Landtag: Wie ein solches Datenanalyse-System beschränkt werden soll.
Laut Matthias Friehe, Professor für Staats- und Verwaltungsrecht an der EBS Universität für Wirtschaft und Recht Oestrich-Winkel, könnte der Gesetzentwurf noch viel weiter gehen. „Der Spielraum, den das BVerfG für verfassungsrechtlich möglich hält, ist nicht voll ausgeschöpft“. Aus Friehes Sicht könnte man Beschränkungen abbauen, also mehr Daten miteinbeziehen oder mehr Polizeibediensteten den Zugriff ermöglichen. Alternativ könnte man Eingriffsschwellen herabsetzen und den Katalog der Straftaten erweitern, zu deren Verhinderung die Datenanalyse beitragen soll.
Zu viele Daten für Palantir-artige Programme
Dieser Position widersprachen andere Jurist:innen. Matthias Bäcker sagte, „der Entwurf ermöglicht eher zu viel Einsatz der Datenanalyse als zu wenig.“ Kristin Pfeffer, Professorin für öffentliches Recht an der Hochschule der Polizei Hamburg, kritisierte, dass schon im jetzigen Entwurf zu viele Daten miteinander verknüpft werden sollen: „Ich habe Zweifel, dass das verfassungskonform ist.“
Eigentlich ermögliche der Entwurf die Einbeziehung aller verfügbaren Daten, führte Pfeffer aus. Diese Datenmenge würde sogar noch dadurch erweitert, dass etwa Europol künftig mehr Daten teile, zudem könne die sächsische Polizei über Umwege auch Internetdaten in das Analysetool einspeisen. „Die Eingrenzung des Umfangs der Daten ist nicht gelungen, es passiert einfach keine Eingrenzung“, resümierte die Juristin, die von der SPD für den Ausschuss nominiert wurde.
Gegen eine Eingrenzung der Daten argumentierte wenig überraschend ein Vertreter der Polizei. Torsten Schmortte vom Bund Deutscher Kriminialbeamter (BdK) sagte dem Ausschuss: „Wenn die Polizei erst dann sinnvoll Information verarbeiten oder zusammenführen darf, wenn deren Bedeutung bereits vollständig feststeht, dann kommt sie zu spät.“ Sicherheit scheitere oft nicht daran, dass Informationen nicht vorliegen, sondern dass sie nicht zusammengeführt werden, behauptete Schmortte. Dabei verwies er auf Terror-Fälle wie den Anschlag am Breitscheidplatz oder den „Nationalsozialistischen Untergrund“ (NSU).
Polizeiliche Daten bergen Diskriminierungsgefahr, sagt ein Polizist
Eine völlig andere Schlussfolgerung aus dem jahrelangen NSU-Versagen der Sicherheitsbehörden zog Professor Aden. Für ihn ist der NSU ein Beispiel für Leerstellen in der polizeilichen Praxis. Die würden sich auch in einer KI niederschlagen, wenn man diese mit den verzerrten Polizeidaten trainiere. Aus seiner Sicht braucht es völlig neu zusammengestellte, synthetische Datensätze für das polizeliche KI-Training – ohne Echtdaten, da sonst „begrenzte Sichtweisen“ der Polizei reproduziert werden.
In diese Warnung stimmte ausgerechnet ein Polizeigewerkschafter mit ein. Manuel Barthelmes, Fachverantwortlicher für Digitalisierung bei der GdP, warnte den Ausschuss vor der „Gefahr der Diskriminierung“ durch KI-Systeme. „Es ist fraglich, ob polizeiliche Daten als Trainingsdaten für ein KI-System überhaupt geeignet sind.“ Bei externen Anbietern seien interne Prozesse oft Betriebsgeheimnisse, eine genauere Prüfung sei schwer umzusetzen.
Mit wem darf die Polizei Daten teilen?
Der Gesetzesentwurf enthält zudem die Möglichkeit, dass die Polizei für Test und Training von KI-Modellen Daten an Dritte weitergibt. Der vom BSW eingeladene Barthelmes kritisierte hier, dass der Entwurf auch die Weitergabe von Klardaten nicht ausschließt. Sitzen externe Anbieter:innen im Ausland, könne man eine Löschung der Daten nicht überprüfen und entsprechende Vorschriften nicht umsetzen.
Kriminalpolizist Schmortte warnte die Abgeordneten hingegen, externe Partner:innen pauschal auszuschließen. Er verwies auf Kooperationen mit dem Fraunhofer-Institut und der Technischen Universität Dresden und bilanzierte: „Wir sind gut aufgestellt, aber wir sind nicht NVIDIA“.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Scheitert der Entwurf an der Realität?
Die Anhörung machte deutlich, dass manche Passagen des Gesetzes die Grundrechte eher auf dem Papier schützen als in der Realität.
So schreibt die geplante Novelle an gleich mehreren Stellen in Bezug auf KI vor: „Die Nachvollziehbarkeit des eingesetzten automatisierten Systems muss sichergestellt sein und es muss ausgeschlossen werden, dass diskriminierende Algorithmen herausgebildet oder verwendet werden.“ Auf eine Frage des Abgeordneten Valentin Lippmann (Grüne), ob die Polizei das wirklich überprüfen könne, antwortete der GdP-Landesvorsitzende Jan Krumlovsky darauf, dass man das nicht im Einzelfall prüfe, sondern auf beschaffende Institutionen wie das Bundesverwaltungsamt oder LKA vertraue. Professor Bäcker bewertete die Vorschrift juristisch als „schon in Ordnung“, sie könne aber dazu führen, dass viele Systeme auf dem Markt nicht verwendet werden können.
Sächsische Polizist:innen argumentieren mit Vertrauen
Abgeordnete, die von den vielen neuen Befugnissen noch nicht so überzeugt sind, versuchten die geladenen Polizeigewerkschafter:innen vor allem mit einem Zauberwort zu gewinnen: „Vertrauen“. DPolG-Landesvorsitzende Cathleen Martin appellierte: „Haben Sie Vertrauen in die Polizei“.
Auch ihr Kollege von der GdP, Jan Krumlovsky sieht Vertrauen als wichtigen Gradmesser, wenn Freiheitsrechte des Einzelnen und Sicherheitsbedürfnisse der Allgemeinheit abgewogen werden müssten. „Das größte Vertrauen hat die sächsische Bevölkerung im Vergleich mit anderen demokratischen Institutionen in ihre Polizei. Damit steht sie indirekt unterstützend hinter ihren Polizistinnen und Polizisten, weil diese verantwortungsbewusst und vertrauensvoll mit den ihnen zur Verfügung gestellten Befugnissen umgehen“, sagte Jan Krumlovsky.
Dass die sächsische Polizei in der jüngeren Vergangenheit eine richterliche Anordnung erfunden und in einem anderen Fall eine genehmigte Demo rechtswidrig gewaltsam geräumt haben soll, kam im Innenausschuss nicht zur Sprache.
BSW: „Es braucht noch einige Verhandlungen“
Ob Vertrauen reicht, um die Oppositionsfraktionen von dem Gesetz zu überzeugen, ist nach der Sitzung mehr als fraglich. Zu Erinnerung: In Sachsen regiert eine schwarz-rote Minderheitskoalition, ihr fehlen 13 Stimmen zur Mehrheit. Mit der AfD will die Regierung nicht kooperieren.
Der innenpolitische Sprecher des BSW, Bernd Rudolph, zog auf Anfrage von netzpolitik.org ein gemischtes Fazit. Teilweise hätten sich Sachverständige widersprochen, teilweise gebe es nun mehr Klarheit. „Wir haben festgestellt, dass wir mit unserer eher zurückhaltenden Position vor allem zu den Punkten Vorfeldstraftat, automatische Datenanalyse und KI-Training richtig liegen. Hier bedarf es sicher noch einiger Verhandlungen, um eine trag- und zustimmungsfähige Fassung zu bekommen. So, wie das jetzt im Entwurf steht, können wir jedenfalls nicht zustimmen.“
Grüne und Linke beklagen Zeitdruck
Für Rico Gebhardt von der Linksfraktion bleibt vor allem hängen, dass Sachverständige Zweifel an der Verfassungskonformität bestimmter KI-Regelungen äußerten. „Auch aus Praxis-Sicht wird nicht deutlich, wie genau diese Befugnisse später technisch umgesetzt werden können, ohne dass sie in rechtliche Grauzonen kippen, technisch unmachbar sind oder einfach ins Leere laufen. Das kommt raus, wenn man alles auf einmal erreichen will, statt das Polizeirecht maßvoll zu entwickeln, nämlich am Maßstab der Grund- und Freiheitsrechte“, sagte Gebhardt auf netzpolitik.org-Anfrage.
Valentin Lippmann von den Grünen sieht in dem Entwurf einen „Frontalangriff auf unsere Freiheit“, der in Teilen nicht mal praxistauglich sei. Es sei deutlich geworden, dass die geplanten Befugnisse zur KI „deutlich über das Ziel hinaus schießen und den Boden unserer freiheitlichen Verfassung verlassen“. Um rechtssichere KI-Regeln zu schaffen, brauche der Landtag Zeit. Diese haben man angesichts der Frist des Verfassungsgerichtshofs und des Agieren des Ministeriums nicht. Lippmann warnt: „Wenn die Minderheitskoalition an ihrem Hauruck-Verfahren festhält, droht dem Freistaat ein weiteres verfassungswidriges Polizeigesetz und der Polizei fehlen weiterhin die Grundlagen, um auf die modernen Bedrohungen wie Drohnen zu reagieren.“
Diese Verfassungsmäßigkeit gerichtlich zu prüfen, ist mittlerweile nicht mehr so leicht möglich wie noch 2019. Für eine erneute Normenkontrollklage haben Grüne und Linke inzwischen zu wenig Abgeordnete. Das heißt: Es müssten sich vom Gesetz Betroffene finden, die einzelne Befugnisse gerichtlich überprüfen lassen.
Datenschutz & Sicherheit
Foxconn-Werke in Nordamerika von Ransomware-Gruppe Nitrogen angegriffen
Der taiwanische Elektronikfertiger Foxconn hat am Dienstag einen Cyberangriff auf seine nordamerikanischen Werke bestätigt. Zuvor hatte die Ransomware-Bande Nitrogen den Konzern auf ihrer Leak-Seite gelistet und behauptet, umfangreiche Datenmengen erbeutet zu haben. Foxconn zählt zu den wichtigsten Zulieferern großer Hardwarehersteller wie Apple und Nvidia.
Weiterlesen nach der Anzeige
„Einige Werke von Foxconn in Nordamerika wurden Ziel eines Cyberangriffs“, teilte ein Sprecher des Unternehmens dem Magazin The Register mit. Das Cybersecurity-Team habe sofort die Notfallmechanismen aktiviert und mehrere Maßnahmen ergriffen, um Produktion und Lieferung aufrechtzuerhalten. Inzwischen nähmen die betroffenen Fabriken den Normalbetrieb wieder auf.
Angeblich 8 TByte Daten erbeutet
Die kriminellen Mitglieder von Nitrogen behaupten, sie hätten 8 TByte an Daten mit mehr als 11 Millionen Dateien aus dem Unternehmen abgezogen. Darunter befänden sich vertrauliche Anweisungen, interne Projektdokumente und technische Zeichnungen zu Vorhaben von Intel, Apple, Google, Dell und Nvidia. Foxconn wollte nicht bestätigen, ob tatsächlich Kundendaten in die Hände der Angreifer gelangten.
Nicht der erste Vorfall bei Foxconn
Für Foxconn ist es nicht die erste Begegnung mit Ransomware-Banden. 2024 meldete LockBit einen erfolgreichen Angriff auf Foxsemicon Integrated Technology, einen Hersteller von Halbleiteranlagen innerhalb der Foxconn Technology Group. Dieselbe Gruppe traf 2022 bereits eine Foxconn-Tochter in Mexiko.
Nitrogen treibt seit 2023 sein Unwesen. 2024 gelang es der Bande, Administratoren über täuschend echte Fake‑Webseiten zur Installation ihrer Malware zu verleiten. The Register vermutet, dass das Zahlen von Lösegeld wenig bringen könnte, denn Coveware-Forscher warnten bereits im Februar, dass ein Programmierfehler im Decryptor der Gruppe die Wiederherstellung verschlüsselter Dateien verhindert.
(ims)
Datenschutz & Sicherheit
re:publica 26: Dagegenhalten für ein besseres Morgen
In der kommenden Woche werden viele von uns einen Rick-Astley-Ohrwurm haben. Denn das Motto der diesjährigen re:publica lautet „Never gonna give you up“. Im Fokus der Konferenz steht aber nicht (nur) der Titelsong des Internets, sondern das Dagegenhalten: Wie können wir solidarisch und zuversichtlich bleiben in Zeiten, in denen die Demokratie und das offene Netz unter immensem Druck steht? Und was ist unsere „Kampfansage für Morgen“?
Diesen Fragen gehen vom 18. bis 20. Mai zahlreiche Vorträge, Diskussionen und Workshops in der Station Berlin nach. Auch Redakteur:innen und Autor:innen von netzpolitik.org werden vor Ort sein und über aktuelle netzpolitische Themen sprechen.
Tag 1: Weiterkämpfen, digitale Befreiungsschläge und die Databroker Files
Gleich zu Beginn der re:publica diskutieren Constanze Kurz, Alice Hasters, Luisa Neubauer und Carolin Emcke am Montag um 11.15 Uhr auf Stage 2 über das Weitermachen in düsteren Zeiten. Aufgeben ist keine Option, so viel steht fest. Wie aber können wir optimistisch bleiben und uns gemeinsam für eine solidarische Gesellschaft einsetzen?
Im Anschluss geht es mit dem Thema digitale Souveränität weiter, das spätestens mit der zweiten Amtszeit von US-Präsident Trump intensiv debattiert wird. Wie kann der „digitale Befreiungsschlag“ der EU gelingen? Und was bringt er für Verbraucher:innen, Unternehmen und das Netz? Darüber sprechen Axel Voss, Alexandra Geese, Julia Pohle und Frank Karlitschek um 12.30 Uhr auf Stage 7, moderiert von Daniel Leisegang.
Seit zwei Jahren recherchieren netzpolitik.org und Bayerischer Rundfunk zum Handel mit Handy-Standortdaten. Er bedroht nicht nur unser aller Privatsphäre, sondern auch die nationale Sicherheit. Rebecca Ciesielski und Ingo Dachwitz zeigen Montagabend um 18.45 Uhr auf Stage 4 das ganze Ausmaß der Spionagegefahr und was passieren muss, um uns davor effektiv zu schützen.
Tag 2: Ein Jahr Überwachungs-GroKo, KI im Journalismus und Kontrolle bei den Öffentlich-Rechtlichen
Unsere Kolumnist:innen Erik Tuchtfeld und Svea Windwehr lassen am Dienstag um 10 Uhr auf Stage 7 das erste Jahr der Großen Koalition Revue passieren. Sie ordnen deren zahlreiche Überwachungsvorhaben ein, blicken nach Brüssel, wo die allwissenden Polizeibehörden der Zukunft geschaffen werden, und sie bringen Ideen mit, was wir gegen diese Massenüberwachung tun können.
Wir sind ein spendenfinanziertes Medium.
Unterstütze auch Du unsere Arbeit mit einer Spende.
Um 12.30 Uhr gehts dann auf der ARD ZDF Media Stage um die Frage, ob und wie die sogenannte KI im öffentlich-rechtlichen Journalismus mehr Vielfalt schaffen kann und was das für unsere Demokratie bedeutet. Mit dabei sind Anna-Verena Nosthoff, Andreas Grün, Gregor Schmalzried, Zamina Ahmad und Daniel Leisegang. Die Moderation übernimmt Alena Buyx.
Daran knüpft ebenfalls auf der ARD ZDF Media Stage um 16.15 Uhr eine weitere Veranstaltung an. Der öffentlich-rechtliche Rundfunk gehört uns allen. Doch wie funktioniert die Kontrolle in den Aufsichtsgremien? Und wie wird sichergestellt, dass die Interessen der Allgemeinheit berücksichtigt werden? Beate Bäumer, Claudia Schare und Erik Tuchtfeld stellen sich den Fragen des Publikums und geben Einblicke in ihre Arbeit; Konrad Spremberg moderiert.
Tag 3: Palantir, IT-Sicherheit und der Buckelwal als Hauptfigur
Am dritten und letzten Tag der re:publica erklären Constanze Kurz und Franziska Görlitz um 13:45 Uhr auf Stage 1, warum Palantir-Software ein grundrechtliches und grundsätzliches Problem darstellt, unabhängig vom US-Konzern dahinter. Sie legen dar, wie die Polizei Big-Data-Analysen nutzt, was das Bundesverfassungsgericht davon hält und wie wir uns gegen den gefährlichen Trend wehren können.
Um 15 Uhr cybert es im Atrium: Marcel Roth, Anke Domscheit-Berg, Caroline Krohn, Falk Steiner und unsere Kolumnistin Bianca Kastl diskutieren dann darüber, unter welchen Vorzeichen IT-Sicherheitsvorfälle in den Medien verhandelt werden. Denn oft stellt tagesaktueller Journalismus falsche Fragen und übersieht Gesamtzusammenhänge. Wie lässt sich das ändern?
Ebenfalls um 15 Uhr geht es auf Stage 6 dann noch einmal um Hoffnung und Aufmerksamkeit: In den vergangenen Wochen stand ein verirrter Buckelwal im Zentrum des Mediengeschehens. Warum aber werden Tiere zu medialen Hauptfiguren? Und was sagt das aus über unseren Umgang mit der ökologischen Krise? Darüber sprechen Patrick Stegemann und Janne Knödler gemeinsam mit den Moderator:innen Marlen Klaws und Serafin Dinges.
Datenschutz & Sicherheit
Angeblich Malware: macOS wirft ChatGPT mitunter in den Papierkorb
Mac-Nutzer, die ChatGPT installiert haben, erhalten aktuell unter Umständen eine irritierende Warnmeldung des Betriebssystems: Die App „wurde nicht geöffnet, da Malware darin enthalten ist“, heißt es in einem aufpoppenden Dialogfenster. macOS verschiebt das Programm währenddessen automatisch in den Papierkorb. Die Malware sei damit entfernt. „Durch diese Aktion hat dein Mac keinen Schaden genommen“, merkt der Hersteller an.
Weiterlesen nach der Anzeige
Diese Malware-Warnung tritt Nutzerberichten zufolge sowohl bei ChatGPT als auch Codex sowie beim Browser Atlas auf, bei letzterem konnte auch die Mac & i-Redaktion das Verhalten beobachten. Teils erscheinen die Malware-Warnungen sogar von alleine, etwa unmittelbar nach einem Neustart.
Ältere Versionen von ChatGPT & Co. betroffen
Der Malware-Hinweis erscheint allerdings nur, falls noch eine ältere Version der jeweiligen OpenAI-App installiert ist. Aktuelle Originalversionen von ChatGPT, Codex und Atlas führt macOS weiterhin problemlos aus. Nutzer, die diese Apps kontinuierlich verwenden und aktualisieren, rennen also nicht in das Problem.
Der Grund für die Malware-Warnung liegt offenbar darin, dass OpenAI sein Apple-Entwickler-Zertifikat zur Signierung und Notarisierung der macOS-Apps nach einem Sicherheitsvorfall ausgetauscht und das zuvor dafür verwendete Zertifikat daraufhin widerrufen hat. Dem ging voraus, dass die KI-Firma Ende März von einem gravierenden Supply-Chain-Angriff betroffen war: „Der GitHub-Actions-Workflow, den wir im macOS-App-Signierungsprozess verwenden, hat eine schädliche Version von Axios (Version 1.14.1) heruntergeladen und ausgeführt“, räumte OpenAI im Anschluss ein – dieser Workflow habe Zugriff auf „ein Zertifikat und Notarisierungsmaterial“ gehabt, das zum Signieren der macOS-App eingesetzt wurde. Daraufhin wurde das Zertifikat ausgetauscht und Nutzer auf Updates der Desktop-Apps hingewiesen, das dürfte aber längst nicht jeder gesehen haben.
Nutzer müssen neue ChatGPT-Version frisch herunterladen
Weiterlesen nach der Anzeige
Funktionsfähig bleiben alle Varianten, die mit dem neueren Zertifikat signiert sind. Konkret sind das ChatGPT Desktop ab Version 1.2026.051, Codex ab 26.406.40811, Codex CLI ab 0.119.0 und Atlas: ab Version 1.2026.84.2. Betroffen war demnach ausschließlich macOS. Gemeinsam mit Apple habe OpenAI sichergestellt, dass die mit dem alten Zertifikat signierten Apps nicht erneut beim Mac-Hersteller notarisiert werden können. Der Entwickler konnte nach eigener Angabe auch keine Anzeichen für eine erfolgreiche Kompromittierung oder „ein Risiko für bestehende Software-Installationen“ feststellen.
Nutzer, bei denen die Malware-Warnung erscheint, müssen die Apps erneut herunterladen und frisch installieren, falls diese weiterhin zum Einsatz kommen sollen. Der Download sollte ausschließlich direkt von der OpenAI-Webseite erfolgen.
(lbe)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
