Künstliche Intelligenz
Meike Kamp: „DSGVO-Änderungen rütteln an den Grundpfeilern des Datenschutzes“
Die Berliner Datenschutzbeauftragte Meike Kamp hat die Reformvorschläge der EU-Kommission zur Datenschutz‑Grundverordnung (DSGVO) scharf kritisiert. Die geplanten Änderungen an der Definition personenbezogener Daten griffen den Kern des europäischen Datenschutzrechts an. Zudem gingen sie über die bisherige Rechtsprechung des Europäischen Gerichtshofs hinaus, sagte Kamp, die am Mittwoch zu einer Veranstaltung anlässlich des EU-Datenschutztags nach Berlin einlud.
Weiterlesen nach der Anzeige
„Über allem hängt die Frage, wann sind Daten noch personenbezogen und ist die Datenschutz-Grundverordnung anwendbar oder nicht mehr“, so Kamp. Über viele Jahre habe sich die Diskussion „vom absoluten Personenbezug und hin zu den Fragen, wer über Mittel zur Identifizierung verfügt, welche Perspektive für die Beurteilung des Personenbezugs relevant ist und wie hoch das Risiko der Re-Identifizierung sein darf“.
Unternehmen müssen Verantwortung bei Datenhaltung tragen
Dabei verwies Kamp auch auf das SRB-Urteil des Europäischen Gerichtshofs. Dieses werde aus ihrer Sicht häufig verkürzt gelesen. „Dieser Befürchtung tritt der EuGH im SRB‑Urteil entgegen und sagt, dass diese Übermittlung an den ,unwissenden‘ Empfänger sich insbesondere im Zusammenhang mit einer etwaigen späteren Übermittlung an Dritte nicht auf die Beurteilung der Personenbezogenheit der Daten auswirkt“, sagte Kamp.
Die EU‑Kommission ziehe daraus jedoch andere Schlüsse: „Die Kommission formuliert, vereinfacht gesprochen, dass Informationen nicht allein deshalb personenbezogen werden, weil ein potenzieller nachfolgender Empfänger über Mittel verfügt, die betroffene Person zu identifizieren“, so Kamp. Mit dem Entwurf eines neuen Erwägungsgrundes werde erläutert, „dass eine mögliche Weitergabe an ,wissende‘ Dritte die Informationen nur für diejenigen Dritten zu personenbezogenen Daten machen“.
Nach dieser Lesart wären die Daten beim Empfänger nicht mehr als personenbezogen einzustufen und würden aus dem Datenschutzrecht herausfallen. „Das hätte gravierende Folgen“, sagte Kamp mit Blick auf datengetriebene Geschäftsmodelle wie die Online‑Werbung.
Kritik an geplanten Änderungen beim Personenbezug
Weiterlesen nach der Anzeige
Am Beispiel von Real‑Time‑Bidding bei Werbeplätzen auf Websites verdeutlichte Kamp das Dilemma. Grundlage seien „eine Vielzahl von Akteuren in einer verzweigten Datenverarbeitungskette“. Mithilfe von Cookies oder Werbe‑IDs sei es möglich, Daten einzelner Nutzer zusammenzuführen.
„Die geplanten Änderungen dürfen nicht dazu führen, dass künftig zahlreiche Datenverarbeitungen aus dem Anwendungsbereich des Datenschutzrechts herausfallen“, warnte Kamp. „Die EU‑Kommission rüttelt mit der Änderung der Definition personenbezogener Daten an den Grundpfeilern des Datenschutzes. Das halte ich nicht für den richtigen Weg.“
Diese Einschätzung teilte auch der neue Vorsitzende der Datenschutzkonferenz, Prof. Tobias Keber. Der Eindruck, der digitale Omnibus gieße lediglich die bestehende EuGH‑Rechtsprechung in Gesetzesform, sei aus seiner Sicht irreführend. „Wenn man nicht nur das SRB‑Urteil, sondern mehrere Entscheidungen des EuGH betrachtet, etwa auch zur Fahrzeugidentifikationsnummer, dann geht der Kommissionsvorschlag über die Rechtsprechung hinaus“, sagte Keber gegenüber heise online.
Digitale Omnibus‑Reform „nicht der richtige Rahmen“
Zudem kritisierte Keber das Verfahren. „Eine so weitreichende Änderung wie die Definition personenbezogener Daten ist keine kleine Stellschraube“, sagte er. „Für solche grundlegenden Eingriffe ist ein auf Geschwindigkeit angelegtes Omnibus‑Verfahren aus Sicht der Datenschutzkonferenz nicht der richtige Platz.“
Die DSGVO sei ein abstraktes Regelwerk, dessen Teile ineinandergreifen. „Wenn man an einer so zentralen Stelle etwas ändert, hat das in der Regel Auswirkungen an vielen anderen Stellen, das betrifft auch weitere Digital- und Rechtsakte der EU. Es bräuchte mehr Zeit, um genau zu analysieren, was diese Änderungen bewirken“, so Keber.
Forderung nach solider Pseudonymisierung
Statt einer Einschränkung des Anwendungsbereichs sprach sich Kamp für eine Stärkung von Pseudonymisierung und Anonymisierung aus. „Wir sollten den Anwendungsbereich der Datenschutz‑Grundverordnung erhalten“, sagte sie. Für Datenverarbeitungen mit guter Pseudonymisierung und geringen Auswirkungen für Betroffene solle es Erleichterungen geben. „Nicht nach dem Unerreichbaren streben oder Begrifflichkeiten aufweichen, sondern solide Pseudonymisierung wagen.“
Die Rolle von Anonymisierung und Pseudonymisierung steht im Mittelpunkt der Veranstaltung, mit der Kamp den Abschluss ihres Vorsitzes der Datenschutzkonferenz markiert. Vorgestellt wurde unter anderem ein Zwischenstand zu geplanten Anwendungshinweisen der Datenschutzkonferenz. Zudem präsentierten Forschungsprojekte aus Bereichen wie Gesundheitswesen, Mobilität und Webstatistiken praktische Ansätze zum datenschutzgerechten Umgang mit personenbezogenen Daten.
Metadaten und Sonderfälle
Darüber hinaus wurde deutlich, dass bereits Metadaten heikel sein können. Zeitstempel, Häufigkeiten, räumliche Muster oder technische Begleitinformationen können ausreichen, um Personen einzugrenzen oder erneut identifizierbar zu machen. Metadaten seien daher kein bloßer Beifang, sondern müssten bei der Bewertung von Anonymisierung und Pseudonymisierung ausdrücklich berücksichtigt werden.
Dr. Jan Daldrop von der Berliner Beauftragten für Datenschutz und Informationsfreiheit stellte den Arbeitsstand eines gemeinsamen Projekts der Datenschutzkonferenz vor, das Anwendungshinweise zur Anonymisierung und Pseudonymisierung erarbeiten soll. Anhand von Mobilitätsdaten zeigte er, dass selbst bei stark vergröberten Datensätzen Restrisiken verbleiben können – etwa bei besonderen Ereignissen wie einem Hochzeitskorso, der durch eine ungewöhnliche Kombination aus Route, Zeitpunkt und Fahrverhalten auch in anonymisierten Daten erkennbar sein könne.
Einig waren sich die Beteiligten darin, dass Anonymisierung kein Selbstläufer ist und eine fortlaufende Bewertung erfordert. Keber fasste zusammen: „Rechtssicherheit entsteht nicht durch pauschale Annahmen, sondern durch sorgfältige Einzelfallprüfung.“
(mack)
Künstliche Intelligenz
OpenAI plant angeblich soziales Netzwerk mit biometrischer Bot-Erkennung
Sie stiften Unruhe, sollen die Gesellschaft zersetzen und Panik schüren: Bots sind zu einem großen Problem in sozialen Netzwerken geworden. Für viele Menschen sind sie nur schwer oder gar nicht als solche erkennbar. Der KI-Entwickler OpenAI plant jetzt laut einem Bericht des US-Magazins Forbes angeblich ein eigenes soziales Netzwerk, das Bots gar nicht erst hineinlassen soll. Für diese Überprüfung sollen biometrische Verfahren zum Einsatz kommen.
Weiterlesen nach der Anzeige
Für dieses „Proof of Personhood“ wolle OpenAI wahlweise den Face-ID-Sensor des iPhones von Apple einsetzen oder den World Network Iris-Scanner, heißt es im Bericht. Das Gerät von Tools for Humanity ist allerdings umstritten – das Unternehmen ist auch als Herausgeber der Kryptowährung WLD-Token bekannt. Spanien und Portugal haben den Iris-Scan wegen Datenschutzbedenken zeitweise verboten.
Auch das Bayerische Landesamt für Datenschutzaufsicht identifizierte im Dezember 2024 „grundlegende Datenschutzrisiken“. Anders als ein Passwort können Augen nicht geändert werden, begründen Datenschützer ihre Vorbehalte. World Network beklagte umgekehrt, dass die EU keine klaren Anonymisierungs-Standards habe. Dass OpenAI auf den Iris-Scan verzichtet, ist allerdings unwahrscheinlich: OpenAI-Chef Sam Altman ist sowohl CEO von OpenAI als auch Vorsitzender von Tools for Humanity.
Warum OpenAI ein eigenes Netzwerk möchte
Im geplanten bot-freien sozialen Netzwerk sollen sich nach Vorstellung von OpenAI nur Menschen tummeln. Ob das freilich alle Probleme löst, darf bezweifelt werden. Im April 2025 wurde erstmals bekannt, dass OpenAI mit einem kleinen Team an einem Social-Network-Prototyp arbeitet.
Alleine X löschte im Jahr 2025 laut Medienberichten 1,7 Millionen Bot-Accounts. Das Interesse von OpenAI an einem eigenen sozialen Netzwerk erklärt sich indessen nicht nur aus dem Problem mit den Bots: Der ChatGPT-Entwickler sieht sich mit Mitbewerbern konfrontiert, die eigene soziale Netzwerke besitzen und diese einsetzen, um ihre Chatbots bekannter zu machen. Vor allem aber sind die Netzwerke ein Zugang zu Daten, die für das Echtzeit-Training der KI-Modelle verwendet werden können. X hat zum Beispiel Grok integriert. Auch Meta nutzt seine eigenen KI-Modelle in seinen Netzwerken Facebook und Instagram sowie im Messenger WhatsApp.
(mki)
Künstliche Intelligenz
Nach 30 Jahren Entwicklungszeit: GNU gettext 1.0 ist fertig
Das Internationalisierungs-Framework GNU gettext hat mit Version 1.0 einen Meilenstein erreicht. Das Release folgt auf Version 0.26 vom Juli 2025 und markiert damit nach über drei Jahrzehnten Entwicklungsarbeit einen Wendepunkt für das weitverbreitete Lokalisierungs-Tool.
Weiterlesen nach der Anzeige
Sun Microsystems hatte Anfang der 1990er-Jahre mit der Entwicklung von gettext begonnen. 1995 entwickelte Ulrich Drepper für das GNU-Projekt eine eigenständige Implementierung auf Basis von Suns Konzept. Seitdem hat sich das Framework zum Standard für die mehrsprachige Integration in Open-Source-Software etabliert. Projekte wie KDE, LibreOffice, Godot Engine oder Weblate verwalten mit gettext ihre Übersetzungen.
Neue Tools für maschinelle Übersetzung
Die wichtigste Neuerung in Version 1.0 ist die Integration von Large Language Models (LLMs) für maschinelle Vorabübersetzungen. Mit den beiden neuen Programmen msgpre und spit können Entwickler lokale LLMs nutzen, um PO-Dateien automatisch zu übersetzen. Während msgpre komplette PO-Dateien verarbeitet, wendet spit die maschinelle Übersetzung auf einzelne Nachrichten an.
Die Maintainer Bruno Haible und Daiki Ueno weisen in der Dokumentation allerdings ausdrücklich darauf hin, dass Anwender die Lizenzierung der verwendeten LLMs prüfen müssen. Die Modelle sollten GPL-kompatibel und im Sinne freier Software nutzbar sein. Durch die lokale Installation bleibt die Kontrolle über die zu übersetzenden Texte beziehungsweise die Daten beim Nutzer.
Verbesserte Workflows für Maintainer
Neben der LLM-Integration bringt gettext 1.0 Verbesserungen beim Handling von PO-Dateien. Das neue Programm po-fetch lädt übersetzte PO-Dateien automatisch von Übersetzungsprojekt-Websites herunter. Das vereinfacht den Synchronisations-Workflow, da Maintainer nicht mehr manuell nach aktualisierten Übersetzungen suchen müssen.
Weiterlesen nach der Anzeige
Die Parser für PO-Dateien wurden robuster und behandeln jetzt Sonderfälle wie Zeilenumbrüche in msgstr, Plural-Forms und Header-Einträge zuverlässiger. Für die Programmiersprachen Rust und OCaml gibt es eine erweiterte Unterstützung. Details finden sich in der Ankündigung der Version 1.0.
30 Jahre konservative Entwicklung
Dass gettext so lange im 0.x-Status verblieb, liegt an der konservativen Entwicklungsphilosophie des GNU-Projekts. Das Framework basiert auf dem Uniforum-Standard von 1988, GNU wählte dabei einen message-as-key-Ansatz aufgrund der größeren Einfachheit. Über die Jahre stand die Stabilität der API im Vordergrund, wie es bei kritischer Infrastruktur-Software typisch ist.
Die neuen Features in Version 1.0 sind optional und beeinträchtigen die Rückwärtskompatibilität nicht. Bestehende Workflows mit xgettext, msgmerge und msgfmt funktionieren unverändert weiter. Für Maintainer wichtig: PO-Dateien bleiben nun unverändert wie von Übersetzern eingereicht, statt automatisch mit dem POT-File synchronisiert zu werden – das vermeidet Merge-Konflikte und reduziert die Commits. Linux-Distributionen können problemlos auf die neue Version aktualisieren, da die Kernfunktionalität stabil bleibt.
Der Quellcode von gettext 1.0 steht auf den GNU-FTP-Servern zum Download bereit. Die LLM-Tools erfordern eine lokale Installation eines kompatiblen Sprachmodells.
(fo)
Künstliche Intelligenz
Fauna Robotics bringt humanoiden Roboter Sprout für Forschung und Entwicklung
Das US-amerikanische Robotikunternehmen Fauna Robotics hat die humanoide Roboter-Plattform Sprout entwickelt, die als Basis für Forschung und Entwicklung eingesetzt werden kann. Die Ausrichtung des Roboters liegt allerdings nicht auf industrieller Arbeit, sondern eher auf Anwendungen im Haushalt, sozialer Interaktion und Freizeitvergnügen.
Weiterlesen nach der Anzeige
Sprout ist 107 cm groß und wiegt lediglich 22,7 kg. Durch sein relativ geringes Gewicht kann er auch mal von einem Ort zum anderen getragen werden. Das muss allerdings nicht sein, denn der humanoide Roboter kann out-of-the-box selbst laufen und auch Treppen steigen.
Insgesamt besitzt Sprout 29 Freiheitsgrade: jeweils 5 an den Beinen und Füßen und je 6 an den 48 cm langen Armen. Die Hände sind als 3-Finger-Greifer ausgelegt. Zusätzlich kann er den Kopf und Oberkörper drehen und neigen. Zwei bewegliche, antennenförmige Augenbrauen verleihen dem Roboter eine individuelle Note.
Der Körper aus Aluminium und Komposit-Materialien ist vollständig mit einem weichen, gummiartigen Material überzogen. Sollte es trotz der integrierten Sicherheitsmaßnahmen doch mal zum physischen Kontakt mit einem Menschen kommen, dann dürfte der weniger schmerzhaft ausfallen.
Sprout soll Gewichte bis zu 11,2 kg stemmen können, das jedoch nur kurzzeitig, weniger als 10 Sekunden, und nur in einer bestimmten Armstellung. Der Umgang mit Objekten bis zu rund einem Kilogramm soll dagegen dauerhaft möglich sein. Zu den verwendeten Aktuatoren macht Fauna Robotics keine Angaben.
Das Hirn der Robotersteuerung bildet die CPU Nvidia Jetson AGX Orin 64 GB. Als Speicher dient eine 1 TByte NVMe SSD. An Kameras und Sensoren hat Sprout eine ZED 2i RGB-D-Stereo-Kamera, 4 VL53L8CX-8×8-Zonen-Distanz-Sensoren, eine 9-Achsen-IMU (Inertial Measurement Unit) und ein Mikrofon-Array zur akustischen Raumerfassung an Bord.
Programmierung und Training
Weiterlesen nach der Anzeige
Eine Verbindung zum Roboter kann über Wi-Fi 5.2 oder per Ethernet hergestellt werden. Der Roboter arbeitet zwar autark, kann über die Datenanbindung aber auch ferngesteuert und trainiert werden. Für die Entwicklung von Roboteranwendungen stellt Fauna Robotics ein SDK zur Verfügung. Die Programmierung erfolgt in Python und über C++ APIs. Bei der Visualisierung hilft das Visualisierungs- und Management-Tool Foxglove für Roboter. Die Roboterarchitektur ist kompatibel mit Nvidia Isaac Sim, Gazebo und MuJoCo, um Simulationen durchzuführen und den Roboter trainieren zu können.
Angetrieben wird Sprout von einer Lithium-Ionen-Batterie mit 5000 mAh oder 10.000 mAh. Die Laufzeit des Roboters beträgt mit der stärkeren Batterievariante zwischen 3 und 3,5 Stunden.
Fauna Robotics sieht den Roboter als Entwicklungsplattform und zum Einsatz in Haushalten. Als Plattform zur Entwicklung industrieller Anwendungen ist er allerdings aufgrund seiner physischen Einschränkungen nicht geeignet. Vielmehr soll Sprout als sozialer Roboter und für leichte Tätigkeiten zu Hause einsetzbar sein. Der Preis von Sprout dürfte für durchschnittliche Haushalte allerdings zu hoch sein: Er liegt bei rund 50.000 US-Dollar.
(olb)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
