Künstliche Intelligenz
Berlin: Polizei darf Wohnungen zur Staatstrojaner-Installation heimlich betreten
Mit der Mehrheit der Koalition aus CDU und SPD sowie den Stimmen der oppositionellen AfD hat das Berliner Abgeordnetenhaus am Donnerstag eine weitgehende Novelle des Allgemeinen Sicherheits- und Ordnungsgesetzes (ASOG) beschlossen. Die Reform stattet die Polizei mit Befugnissen aus, die tief in die Grundrechte eingreifen und bisherige rote Linien der Hauptstadt-Sicherheitspolitik überschreiten. Während Innensenatorin Iris Spranger (SPD) das Gesetz als notwendiges Update für das digitale Zeitalter und den Kampf gegen Terrorismus verteidigt, sehen Kritiker darin einen unverhältnismäßigen Angriff auf die Privatsphäre.
Weiterlesen nach der Anzeige
Gesetz sieht massive Verschärfungen vor
Ein Stein des Anstoßes ist die Kombination aus digitaler Überwachung und physischem Einbruch: Um verschlüsselte Kommunikation zu überwachen, dürfen die Ermittler künftig laut dem Senatsentwurf und den Änderungen der Abgeordneten nicht nur IT-Systeme hacken, sondern auch verdeckt die Wohnungen von Verdächtigen betreten. Die brisante Neuerung verbirgt sich in den Paragrafen 26a und 26b. Diese regeln die sogenannte Quellen-Telekommunikationsüberwachung (Quellen-TKÜ) und die heimliche Online-Durchsuchung. Um Kommunikation noch vor der Ver- oder nach der Entschlüsselung auf Geräten wie Smartphones oder Laptops abzugreifen, darf die Polizei Schadsoftware wie Staatstrojaner einsetzen.
Doch das neue Polizeigesetz geht einen Schritt weiter: Sollte eine Ferninstallation der Spionagesoftware technisch nicht möglich sein, erlaubt Paragraf 26 den Ermittlern explizit das „verdeckte Betreten und Durchsuchen von Räumlichkeiten“, um Zugriff auf die IT-Systeme zu erlangen. Faktisch legalisiert Berlin damit – wie zuvor Mecklenburg-Vorpommern – den staatlichen Einbruch in Privatwohnungen, um Trojaner physisch etwa via USB-Stick aufzuspielen. IT-Sicherheitsexperten warnen nicht nur vor dem Offenhalten von Schwachstellen. Sie sehen in der Verknüpfung von Wohnraumverletzung und digitaler Ausforschung auch einen Verfassungsbruch.
Bodycams, Handy-Fahndung und Kennzeichen-Scanning
Flankiert wird dieser Eingriff in die Unverletzlichkeit der Wohnung durch den Paragrafen 24c, der den Einsatz von Bodycams neu regelt. War deren Nutzung bisher auf den öffentlichen Raum fokussiert, dürfen Polizeikräfte die Kameras nun auch in privaten Wohnungen und anderen nicht öffentlich zugänglichen Räumen aktivieren, sofern tatsächliche Anhaltspunkte für eine Gefahr für Leib oder Leben bestehen. Zwar betont der Gesetzgeber den Aspekt der Eigensicherung. Doch Gegner befürchten, dass dies in der Praxis zu einer audiovisuellen Überwachung im intimsten Rückzugsort der Bürger führt.
Auch im öffentlichen Raum rüstet Berlin technisch auf. Mit Paragraf 26e wird die Funkzellenabfrage ausgeweitet. Die Polizei kann künftig von Netzbetreibern Verkehrsdaten aller Mobiltelefone anfordern, die sich zu einem bestimmten Zeitpunkt in einer definierten Funkzelle befunden haben. Dies ermöglicht die Erstellung von Bewegungsbildern Tausender unbescholtener Bürger per Rasterfahndung, die etwa zufällig an einem Demonstrationsort waren.
Weiterlesen nach der Anzeige
Parallel schafft Paragraf 24d die rechtliche Basis für den Einsatz automatischer Kennzeichenlesesysteme. Diese Scanner erfassen Nummernschilder im fließenden Verkehr und gleichen sie mit Fahndungsdatenbanken ab. Paragraf 24h erlaubt zudem den Einsatz technischer Mittel gegen unbemannte Systeme wie Drohnen, inklusive der Übernahme der Steuerung.
Gesichtserkennung und KI-Training
Ein weiterer Aspekt, der in der Fachwelt für Tadel sorgt, ist die Einführung des Paragrafen 28a. Dieser erlaubt der Polizei den biometrischen Abgleich von Gesichtern und Stimmen mit öffentlich zugänglichen Daten aus dem Internet. Damit kann die Polizei etwa mit Material aus der Videoüberwachung automatisierte Suchen in sozialen Netzwerken oder auf Fotoplattformen beispielsweise mit automatisierter Gesichtserkennung durchführen, um Personen zu identifizieren.
Ergänzend ermöglicht der neue Paragraf 42d die Weiterverarbeitung von personenbezogenen Daten zum „Training und zur Testung von Systemen der Künstlichen Intelligenz“. Damit schaffen die Volksvertreter eine Rechtsgrundlage, um echte Polizeidaten – etwa Bilder, Videos oder Textnachrichten aus Ermittlungsverfahren – für das Anlernen von KI-Algorithmen zu nutzen. Datenschützer kritisieren dies scharf, da KI-Modelle oft Rückschlüsse auf die Trainingsdaten zulassen und die Zweckbindung der ursprünglich erhobenen Daten hier weit gedehnt wird.
Auch die Optionen zum Freiheitsentzug wachsen. Mit dem überarbeiteten Paragrafen 33 wird die Höchstdauer des sogenannten Präventivgewahrsams von 48 Stunden auf bis zu fünf Tage verlängert. Im Falle drohender terroristischer Straftaten sind sogar bis zu sieben Tage drin. Politisch wurde diese Verschärfung insbesondere im Kontext der Aktionen der „Letzten Generation“ diskutiert.
Proteste von vielen Seiten
Die Opposition reagierte mit scharfer Ablehnung. Sie wirft Schwarz-Rot vor, Grundrechte leichtfertig zu opfern. Niklas Schrader (Die Linke) sprach in der Debatte von einem „schwarzen Tag für die Bürgerrechte“. Vasili Franco (Grüne) hält die Novelle für verfassungsrechtlich hochriskant. Das Bündnis NoASOG wertet die Reform als Angriff auf die Zivilgesellschaft. Die Gesellschaft für Freiheitsrechte (GFF) hat angekündigt, eine Verfassungsbeschwerde zu prüfen.
Mit dem Beschluss reiht sich Berlin in die Liste der Bundesländer ein, die ihre Polizeigesetze massiv verschärft haben. Die Kombination der neuen Instrumente macht das Berliner Paket aber besonders weitreichend. Die Hürden für den staatlichen Zugriff auf die digitale und physische Privatsphäre hat der Gesetzgeber damit deutlich gesenkt. Die Berliner Datenschutzbeauftragte Meike Kamp bezeichnete im Vorfeld die Legalisierung des Staatstrojaners als Frontalangriff auf die IT-Sicherheit aller Bürger und sah in der Summe der Maßnahmen eine verfassungsrechtlich höchst bedenkliche Überwachungsdichte erreicht.
(kbe)
Künstliche Intelligenz
Gibt es Apple künftig nur noch im Abo? | Mac & i-Podcast
Apple One, iCloud+, AppleCare One und nun das Creator Studio: Mit einer wachsenden Liste an eigenen Abo-Angeboten stärkt Apple das große Geschäft mit Diensten – und lockt mehr Geld aus Kunden heraus, die bereits die teure Hardware gekauft haben. Dafür wandern jetzt neue KI-Funktionen für die lange kostenlos beigelegten Office-Apps Pages, Numbers und Keynote hinter die Abo-Schranke. Weitere Apple-Abos sind bereits am Horizont zu erahnen: Beobachter erwarten einen KI-basierten Health-Coach und Apple selbst will eines Tages für Satellitendienste abrechnen.
Weiterlesen nach der Anzeige
In Episode 113 nehmen Malte Kirchner und Leo Becker das Apple Creator Studio unter die Lupe und diskutieren, was das auf längere Sicht für die parallel weiterhin als Einmalkauf erhältlichen Profi-Anwendungen Final Cut und Logic Pro bedeutet. Wir wundern uns, was die iWork-Apps in dem Bundle eigentlich verloren haben und werfen einen Blick darauf, wie Apple Abonnements als primäres Geschäftsmodell für Software breit in den Markt gedrückt hat. Nicht zuletzt geht es um die Frage, wie sich Abonnements auf die Betriebssysteme und letztlich das Nutzererlebnis auswirken.
Apple-Themen – immer ausführlich
Der Apple-Podcast von Mac & i erscheint mit dem Moderatoren-Duo Malte Kirchner und Leo Becker im Zweiwochenrhythmus und lässt sich per RSS-Feed (Audio) mit jeder Podcast-App der Wahl abonnieren – von Apple Podcasts über Overcast bis Pocket Casts.
Zum Anhören findet man ihn auch in Apples Podcast-Verzeichnis (Audio) und bei Spotify. Wir freuen uns über Feedback, Kritik und Fragen an podcast@mac-and-i.de.
(lbe)
Künstliche Intelligenz
Neues XR-Headset Lynx-R2 setzt auf großes Sichtfeld, Datenschutz und Offenheit
Weiterlesen nach der Anzeige
Der französische Hersteller Lynx hat mit der Lynx-R2 ein neues Standalone-Mixed-Reality-Headset angekündigt, das sich deutlich von der internationalen Konkurrenz um Apple Vision Pro, Samsung Galaxy XR und Meta Quest 3 absetzen will. Die R2 soll durch ein offenes Betriebssystem, hohe Bildqualität und umfassende Kontrolle über die Sensorik punkten und richtet sich primär an Industrie, Forschung und professionelle Nutzer.
Breites Sichtfeld und neue Linsentechnologie
Kernstück der R2 ist ein besonders breites Sichtfeld: Mit 126 Grad horizontal bietet Lynx deutlich mehr als bei vergleichbaren Standalone-Headsets. Die Vision Pro bietet etwa 100 Grad, während Samsung für die Galaxy XR 109 Grad angibt und die Quest 3 bei 110 Grad horizontal rangiert. Möglich wird das durch eine neue Linsentechnologie, die aus einer Zusammenarbeit mit den Linsenexperten von Hypervision hervorgegangen ist. Diese asphärischen Pancake-Linsen sollen zudem für verzerrungsfreies Sehen in der Peripherie sorgen.

Asphärische Pancake-Linsen von Hypervision sollen ein besonders breites Sichtfeld ermöglichen.
(Bild: Lynx)
Laut Hersteller liegt die Pixeldichte im Zentrum bei über 24 Pixeln pro Grad. Dieser Wert ist vor allem für medizinische und industrielle Anwendungen relevant, da er den sogenannten „Fliegengitter-Effekt“ minimiert und Details somit klarer dargestellt werden. Wie sich diese Werte tatsächlich auf die Bildqualität auswirken, müssen Tests zeigen. Auf dem Papier liegt die Lynx-R2 damit hinter Galaxy XR (etwa 40 PPD) und Vision Pro (34 PPD), aber etwa gleichauf mit Metas Quest 3 (25 PPD). Die Darstellung erfolgt über zwei 2,3K-LCDs.
Snapdragon XR2 Gen 2 und einfache Reparaturen
Im Inneren der R2 arbeitet Qualcomms Snapdragon XR2 Gen 2, der laut Lynx eine 2,5-fache Grafikleistung und achtmal schnellere KI-Verarbeitung im Vergleich zum Vorgängermodell R1 ermöglichen soll. Zwei leise Lüfter sollen für konstante Kühlung sorgen. Für die Umgebungserfassung kommen vier Weitwinkelkameras, eine Tiefenkamera und Infrarot-LEDs zum Einsatz. Diese ermöglichen neben Raumvermessung und Handtracking auch Anwendungen wie 3D-Scans, Gaussian Splatting und objektbasiertes Tracking. Alle Funktionen sind über die OpenXR-Schnittstelle in Engines wie Unity, Unreal oder StereoKit nutzbar.
Weiterlesen nach der Anzeige
Das bekannte Flip-Up-Design des Vorgängers bleibt erhalten: Nutzer können das Visier nach oben klappen und so schnell zwischen realer und digitaler Umgebung wechseln. Der Akku ist im hinteren Teil des Kopfbands untergebracht und dient als Gegengewicht. Zusätzlich lassen sich Augenabstand und Linsenabstand individuell justieren – auch mit Brille. Reparaturen sollen ebenfalls einfacher werden: Schraubverbindungen statt Klebstoff, ein wechselbarer Akku und offizielle Wartungsanleitungen sind vorgesehen.
Lesen Sie auch
Kein Android XR – sondern Open Source und Datenschutz
Ursprünglich sollte das Headset mit Googles Android-XR-Plattform ausgeliefert werden. Google beendete die Kooperation jedoch überraschend, wie Lynx-Gründer Stan Larroque Ende letzten Jahres gegenüber UploadVR erklärte. Stattdessen setzt Lynx nun auf ein eigenes Betriebssystem namens Lynx OS – eine quelloffene Variante von Android 14 mit vollständiger Unterstützung für OpenXR 1.1.
Der Quellcode sowie elektronische Schaltpläne und Baupläne sollen öffentlich zugänglich gemacht werden. Entwickler erhalten darüber hinaus direkten Zugriff auf Kamera- und Sensordaten, was bei den Plattformen von Meta oder Apple nicht ohne Weiteres möglich ist. Auch in Sachen Datenschutz will Lynx eigene Wege gehen: Das Gerät funktioniert vollständig offline und es besteht keine Abhängigkeit von Cloud-Diensten oder Social-Media-Konten. Besonders in Bereichen wie Verteidigung, Gesundheitswesen oder Industrie könnte dies ein nicht zu unterschätzender Vorteil sein.
Im Gegensatz zur R1 verzichtet Lynx bei der R2 auf Vorbestellungen oder Crowdfunding. Das Gerät soll erst dann erhältlich sein, wenn es auch tatsächlich ausgeliefert werden kann. Für den Bestellstart peilt Lynx die diesjährigen Sommermonate an. Noch ist der Preis nicht bekannt, soll laut Firmengründer Stan Larroque aber im mittleren Segment zwischen Meta Quest 3 (ca. 550 Euro) und Samsungs Galaxy XR (ca. 1.800 Euro) angesiedelt sein.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
(joe)
Künstliche Intelligenz
BOE: Produktionsprobleme bei iPhone-OLEDs seit zwei Monaten
Der chinesische Display-Hersteller BOE soll seit November 2025 nicht mehr wie geplant OLED-Panels für verschiedene iPhone-Modelle liefern können. Wie die koreanische Branchenzeitung The Elec berichtet, halten die Produktionsprobleme mittlerweile seit zwei Monaten an. Im Dezember 2025 und Januar 2026 mussten daraufhin mehrere Millionen Einheiten an den südkoreanischen Konkurrenten Samsung Display übertragen werden.
Weiterlesen nach der Anzeige
Betroffen sind primär Displays für ältere iPhone-Generationen wie das iPhone 15 und iPhone 16, die noch auf LTPS-OLED-Technologie setzen. Überraschend ist, dass BOE ausgerechnet bei dieser technisch weniger anspruchsvollen Variante Schwierigkeiten hat – das Unternehmen hatte diese Panels bislang stabil geliefert. Auch bei den neueren LTPO-OLED-Displays für das iPhone 17 gibt es Engpässe. Diese Technologie ermöglicht variable Bildwiederholraten zwischen 1 und 120 Hertz und kommt in den Premium-Modellen zum Einsatz.
Samsung profitiert vom BOE-Ausfall
Samsung konnte durch die Übernahme der ausgefallenen Produktionsvolumina seine Marktposition stärken. Das südkoreanische Unternehmen verfüge über deutlich größere Fertigungskapazitäten als LG Display und könne verschiedene iPhone-Modelle parallel bedienen, heißt es in dem Bericht. Branchenexperten schätzen, dass BOE 2024 weniger als 40 Millionen iPhone-OLED-Einheiten ausgeliefert hat – bei einem ursprünglichen Monatsvolumen von rund 3 Millionen Stück.
Besonders problematisch könnten die Ausfälle für das bereits erhältliche iPhone 16e und das für Frühjahr 2026 geplante iPhone 17e sein, die auf der Displaytechnologie des iPhone 14 basieren. BOE hatte für das iPhone 17e, das in der ersten Jahreshälfte 2026 erscheinen soll, den größten Zuschlag unter allen Zulieferern erhalten. Die anhaltenden Fertigungsprobleme gefährden nun diese Pläne.
Apples Lieferkette unter Druck
Für Apple bedeuten die Produktionsausfälle bei BOE eine Belastung der Lieferkette für die 2026er-Modelle. Das Unternehmen hatte BOE seit dem Jahr 2021 zunehmend in seine OLED-Versorgung eingebunden, um die Abhängigkeit von den etablierten südkoreanischen Herstellern Samsung und LG zu verringern. Die Hardware-Pläne für 2026 sehen neben den Standard-iPhones auch ein faltbares Modell vor, bei dem OLED-Displays eine zentrale Rolle spielen.
Weiterlesen nach der Anzeige
Die technischen Hintergründe der Produktionsprobleme bei BOE sind unklar. Weder Apple noch BOE haben sich offiziell zu den Ausfällen geäußert. Branchenbeobachter vermuten Schwierigkeiten in spezifischen Fertigungsprozessen, die zu Stillständen in den Produktionslinien führen. Analysten gehen davon aus, dass Apple mittelfristig wieder stärker auf Samsung setzen wird, um die Versorgung mit hochwertigen OLED-Panels sicherzustellen.
(mki)
-
Entwicklung & Codevor 2 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
UX/UI & Webdesignvor 3 MonatenArndt Benedikt rebranded GreatVita › PAGE online
-
Künstliche Intelligenzvor 3 WochenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Entwicklung & Codevor 1 MonatKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Künstliche Intelligenzvor 3 MonatenGoogle „Broadwing“: 400-MW-Gaskraftwerk speichert CO₂ tief unter der Erde
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Social Mediavor 1 MonatDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
