Datenschutz & Sicherheit
PerfektBlue: Bluetooth-Lücke in Entertainment-Systemen von Mercedes, Skoda & VW
„PerfektBlue“ haben IT-Sicherheitsforscher eine Kombination aus Bluetooth-Sicherheitslücken in einem Bluetooth-Stack genannt, der in mehreren Auto-Entertainment-Systemen zum Einsatz kommt. Die Entdecker schreiben von „kritischen Lücken, die Over-the-Air-Angriffe auf Millionen Geräten in Autos und anderen Branchen“ ermöglichen. Die Gefahr ist jedoch im Regelfall deutlich geringer als angedeutet.
Ein IT-Forscher-Team von PCA Cybersecurity hat die Schwachstellen in dem OpenSynergy Bluetooth Protocol Stack (BlueSDK) aufgespürt und analysiert. Dieser Stack kommt etwa in der Autobranche zum Einsatz, aber auch für andere – nicht erforschte – Geräte, etwa im IoT-Bereich. Darin klafften bis in den September 2024 die vier Sicherheitslücken, die OpenSynergy mit Patches korrigiert und an die betroffenen Hersteller verteilt hat.
PerfektBlue: Vier Sicherheitslücken in Kombination
Die IT-Sicherheitsforscher haben vier Schwachstellen ausgemacht. Die gravierendste stammt daher, dass das BlueSDK die Existenz eines Objekts nicht prüft, bevor es darauf Operationen vornimmt – eine Use-after-free-Lücke. Das mündet darin, dass eingeschleuster Schadcode ausführbar ist (CVE-2024-45434 / noch kein EUVD, CVSS 8.0, Risiko „hoch„). Hier weicht PAC Security von der CVSS-Einstufung ab und behauptet, die Lücke sei gar kritisch. Eine weitere Lücke lässt sich zur Umgehung einer Sicherheitsprüfung in RFCOMM und der Verarbeitung eingehender Daten missbrauchen (CVE-2024-45433 / noch kein EUVD, CVSS 5.7, Risiko „mittel„).
Zudem nutzt das BlueSDK in der RFCOMM-Komponente eine falsche Variable als Funktionsargument, was unerwartetes Verhalten oder ein Informationsleck erzeugt (CVE-2024-45432 / noch kein EUVD; CVSS 5.7, Risiko „mittel„). Die L2CAP-Channel-ID (CID) prüft das BlueSDK nicht korrekt, wodurch Angreifer einen L2CAP-Kanal mit Null-Identifier als Remote CID anlegen können – die IT-Forscher erklären jedoch nicht, inwiefern das problematisch ist (CVE-2024-45431 / noch kein EUVD, CVSS 3.5, Risiko „niedrig„).
Die IT-Sicherheitsforscher haben die Schwachstellenkombination auf Infotainment-Systemen von Mercedes Benz (NTG6 Head Unit), Volkswagen (MEB ICAS3 Head Unit) und Skoda (MIB3 Head Unit) getestet und verifiziert. Nicht genannte OEMs sollen ebenfalls anfällig sein. Auffällig ist, dass recht alte Firmware-Stände und Geräte getestet wurden. Es seien aber auch neuere Modelle anfällig, erklären die PAC-Mitarbeiter. Laut Timeline sollten etwa ab September 2024 fehlerkorrigierende Updates von den Autoherstellern verteilt werden.
Die Sicherheitslücken erlauben den Einbruch in verwundbare Infotainment-Systeme. Die Hersteller verteilen in der Regel Aktualisierungen Over-the-Air (OTA), sofern die PKW-Besitzer entsprechende, üblicherweise mit beschränkter Laufzeit versehene Verträge unterschrieben haben. Diese Updates müssen Nutzer in der Regel aber auch aktiv akzeptieren und installieren lassen. Das sollten Betroffene jetzt gegebenenfalls nachholen. Wer keine OTA-Update-Möglichkeit hat, muss für die Aktualisierung einen Termin in der Werkstatt machen oder eine Aktualisierung über USB vornehmen.
Gefährdungseinschätzung von PerfektBlue
Sofern Firmen, die das BlueSDK nutzen und ein sehr niedriges Sicherheitsprofil oder „Just Works“-SSP-Modus dafür konfigurieren, ließen sich die Lücken ohne vorheriges Pairing missbrauchen. Das machen aber zumindest die PKW-Hersteller nicht. Dort ist Bedingung, dass ein Angreifer-Gerät mit dem Infotainment-System gekoppelt wird.
In einer Stellungnahme gegenüber heise online nennt VW das auch als eine der großen Hürden, die ein Ausnutzen der Schwachstellen unwahrscheinlich macht. Das Infotainment-System muss zunächst in den Pairing-Modus versetzt werden. Das passiert in der Regel lediglich einmalig. VW unterstellt zudem, dass Angreifer maximal fünf bis sieben Meter vom angegriffenen Wagen entfernt sein dürften. Diese Zahl lässt sich jedoch mit diversen Ansätzen weiter dehnen. Ein Start-up aus den USA will angeblich Bluetooth-Verbindungen zu Satelliten hergestellt haben.
Dann müssen potenzielle Opfer außerdem der Kopplung des Angreifer-Geräts zustimmen. In der Regel findet eine Kopplungsanfrage unter Anzeige einer Nummer an, die dann mit dem eigentlich in dem Moment zum Koppeln vorgesehenen Gerät nicht übereinstimmt.
Hürdenlauf
Wenn diese Hürden genommen sind, ist der Einbruch in die verwundbaren Infotainment-Systeme möglich. Angreifer können eigenen Code darauf ausführen. Volkswagen schreibt dazu: „Die Untersuchungen haben außerdem ergeben, dass die Fahrzeugsicherheit zu keinem Zeitpunkt betroffen ist, ebenfalls hat es keine Auswirkungen auf die Integrität des Autos. Eingriffe auf Fahrzeugfunktionen, die über das Infotainment hinausgehen, sind nicht möglich, z.B. also keine Lenkeingriffe, keine Eingriffe in Fahrerassistenzsysteme oder Motor- oder Bremsfunktionen. Diese liegen im Fahrzeug auf einem anderen Steuergerät, welches über seine eigenen Sicherheitsfunktionen ggü. Eingriffen von außen geschützt ist“. Es gebe zudem keine Hinweise, dass die Lücken in freier Wildbahn missbraucht würden.
Der Teil der Einschätzung ist zumindest fragwürdig. Bislang bekannt gewordene Angriffe auf Fahrzeugtechnik gelangen oftmals etwa über einen initialen Einbruch in das Infotainment-System, das mit CAN-Bus/RS485 an weitere Kfz-Elektronik und Steuergeräte angebunden ist. Über den CAN-Bus lassen sich etwa auch Autos starten.
In dem Kontext mit „PerfektBlue“ ist es jedoch weitgehend müßig, über solche Auswirkungen zu sinnieren. Es ist ziemlich unwahrscheinlich, dass die Bedingungen für einen erfolgreichen Angriff vorherrschen. Dennoch sollten PKW-Besitzer sicherstellen, dass sie die Firmware ihrer Head-Units auf den aktuellen Stand bringen.
(dmk)
Datenschutz & Sicherheit
EU unterstützt Initiative für Unabhängigkeit von Big Tech
Ob Rechenzentren, Websuche, soziale Medien oder Betriebssysteme – digitale Infrastruktur ist so wichtig für das Funktionieren von Alltag und Demokratie, ähnlich wie Straßen, Brücken oder Stromnetze. Menschen verlassen sich jeden Tag darauf. Doch was ist, wenn die Infrastruktur sich dem Einfluss der Öffentlichkeit entzieht?
Spätestens mit Beginn der zweiten Amtszeit von US-Präsident Donald Trump ist die Frage nach Europas Abhängigkeit in Sachen digitale Infrastruktur drängender denn je. Die Gesellschaft für Informatik spricht gar von der Gefahr eines Killswitchs, wonach Trump die Macht besäße, Big-Tech-Unternehmen wie Microsoft dazu zu bringen, ihren Support für Software in Deutschland einzustellen – und damit ganze Behörden lahmzulegen.
Doch auch, wenn dieses Szenario nicht eintritt, birgt der Einfluss von Tech-Riesen wie Microsoft und Oracle in EU-Staaten wie Deutschland zunehmend Risiken. Gut 96 Prozent der Behörden auf Bundesebene nutzen in Deutschland etwa die Bürosoftware von Microsoft und sind damit auch der Preispolitik des Konzerns ausgeliefert. Zudem sind viele Datenbanken des Bundes auf Software von Oracle angewiesen.
Vier EU-Staaten wollen Kräfte bündeln
Gegen diese Übermacht regt sich Widerstand, etwa in Schleswig-Holstein. Das Bundesland hat mit seiner Open-Source-Strategie Microsoft abgeschworen. Und auch die Region Lyon in Frankreich hat den Wechsel zu Linux gewagt.
Um gemeinsam eine digitale Infrastruktur aufzubauen, die sich von US-Herstellern unabhängig macht, wollen die EU-Mitgliedstaaten Deutschland, die Niederlande, Frankreich und Italien Kräfte bündeln. Diese Woche haben sie das Papier zur Gründung eines neuen europäischen Konsortiums unterschrieben. Es geht um Digitale Infrastrukturen für digitale Gemeingüter, auf Englisch: „European Digital Infrastructure Consortium for Digital Commons“ (DC-EDIC).
Die Initiative wird vom Europäischen Konsortium für digitale Infrastruktur (EDIC) unterstützt und hat zuvor von der EU-Kommission grünes Licht bekommen. Das DC-EDIC finanziert sich aus den Beiträgen der Mitglieder und soll digitale Gemeingüter entwickeln, pflegen und nachhaltig finanzieren. Zudem soll es die Community rund um digitale Gemeingüter zu stärken.
Alternativen zu Microsoft
Konkrete Projekte sind beispielsweise Microsoft-Alternativen wie La Suite Numerique aus Frankreich oder die Kollaborationssoftware openDesk, ein Projekt des öffentlich finanzierten Zentrums für digitale Souveränität (ZenDiS). Das ZenDiS hat die Initiative für das neue DC-EDIC selbst mitangestoßen, zusammen mit der ebenso vom Bund finanzierten Sovereign Tech Agency (STA).
Die gemeinnützige europäische Organisation Open Future setzt sich für digitale Gemeingüter ein und begrüßt die Initiative. Europa mangele es derzeit unter anderem an einer interoperablen Cloud-Infrastruktur, Tools zur Wahrung der Privatsphäre und offenen Protokollen für soziale Netzwerke. Nur auf dieser technologischen Basis könne man „das öffentliche Interesse schützen und Konzentration von Macht verhindern“. Das Konsortium könne künftig eine entscheidende Rolle spielen.
Gemeinsam mit den Partnern wolle man nun das DC-EDIC zügig errichten, heißt es von der STA auf Anfrage. In Deutschland werde die STA diesen Prozess zusammen mit dem Bundesministerium für Digitales und Staatsmodernisierung und dem ZenDiS voranbringen.
Datenschutz & Sicherheit
Kritische Codeschmuggel-Lücke in Wing FTP wird angegriffen
In der Datentransfersoftware Wing FTP klafft eine Sicherheitslücke, die Angreifern aus dem Netz das Einschleusen und Ausführen von Schadcode ermöglicht. Sie erhält die höchstmögliche Risikobewertung „kritisch“. IT-Forensiker haben den Missbrauch der Schwachstelle bereits am 1. Juli beobachtet.
Laut Schwachstellenbeschreibung behandelt das User- und Admin-Webinterface „\0“-Bytes fehlerhaft, die das Ende von Zeichenketten anzeigen. Ohne in die Details zu gehen, soll das Angreifern ermöglichen, beliebigen LUA-Code in User-Session-Files zu schleusen. Damit lassen sich wiederum beliebige Systembefehle mit den Rechten des FTP-Servers – standardmäßig „root“ oder „SYSTEM“ – ausführen. „Das ist daher eine Remote-Code-Execution-Lücke, die die vollständige Server-Kompromittierung garantiert“, schreiben die Melder der Lücke. Sie lasse sich auch mit anonymen FTP-Konten ausnutzen (CVE-2025-47812 / EUVD-2025-21009, CVSS 10.0, Risiko „kritisch„).
Lücke bereits attackiert
Über die beobachteten Angriffe auf die Sicherheitslücke berichten IT-Sicherheitsforscher von Huntress in ihrem Blog. Sie beschreiben Details der beobachteten Angriffe und liefern am Ende eine Liste von Indizien für Angriffe (Indicators of Compromise, IOCs).
Die Schwachstelle betrifft Wing FTP vor der aktuellen Fassung 7.4.4, die seit dem 14. Mai 2025 zum Herunterladen bereitsteht. Das Changelog nennt explizit die Sicherheitslücke, die damit geschlossen wird. Wing FTP steht auf der Download-Seite für Linux, macOS und Windows bereit. IT-Verantwortliche sollten zügig die Updates anwenden.
Datentransfersoftware ist für Cyberkriminelle interessant, da sie durch Schwachstellen darin oftmals auf sensible Daten zugreifen können, mit denen sie Unternehmen dann um Lösegeld erpressen können. So ging die Cybergang Cl0p auch vor, um Daten von vielen namhaften Unternehmen und gar von US-Behörden durch Schwachstellen in der Datenübertragungssoftware Progress MOVEit abzugreifen.
(dmk)
Datenschutz & Sicherheit
KI in Asylverfahren birgt erhebliche Risiken
Wenn Asylverfahren mit sogenannter Künstlicher Intelligenz bearbeitet werden, entstehen erhebliche Risiken für die Grundrechte der Betroffenen, das stellt der wissenschaftliche Dienst des Europäischen Parlaments in einem Bericht fest. Dennoch würden immer mehr KI-basierte Technologien in dem Bereich eingesetzt. Asylverfahren sollen so schneller, mit weniger Aufwand und ohne Vorurteile abgeschlossen werden.
Der wissenschaftliche Dienst stellt in dem Bericht jedoch fest, dass KI-Technologien Ungenauigkeit, Voreingenommenheit, Diskriminierung, Verfahrensbeeinflussung und Datenschutzrisiken mit sich bringen. Sie kämen nur den Behörden zugute und würden dabei die Position der Asylbewerber*innen im System schwächen.
Was für KI-Technologien werden benutzt?
Im Bericht werden KI-Systeme aufgeführt, die europaweit genutzt werden. Auch Deutschland nutzt bereits einige davon. Das Bundesamt für Migration und Flüchtlinge (BAMF) verwendet beispielsweise ein KI-System, welches dazu trainiert ist, Dialekte zu erkennen, um so die Herkunft der Menschen festzustellen, die Asyl beantragen. Mit der KI-Technologie soll die Bestimmung des Herkunftslandes vereinfacht werden, besonders wenn keine Nachweise vorliegen. Das Herkunftsland und die dort drohende Art der Verfolgung haben Auswirkungen auf die Entscheidung im Asylverfahren.
Außerdem nutzt Deutschland technische Systeme zur Analyse von Handydaten. Antragstellende ohne anerkannte Ausweisdokumente müssen ihr Handy zur Durchsuchung den Behörden übergeben, damit ihr Antrag bestehen bleibt. Ein Computer erstellt einen Bericht aus allen Daten auf dem Handy, die Rückschlüsse auf das Herkunftsland ermöglichen: Vorwahlen eingespeicherter Handynummern, verwendete Sprachen in Nachrichten oder gespeicherte Standortdaten von Fotos. Wenn ein Anwalt des BAMF entscheidet, dass der Bericht notwendig ist für die Feststellung des Herkunftslandes, können Sachbearbeiter*innen diese analysierten Daten einsehen.
Grundrechte können nicht gewahrt werden
In seinem Bericht fasst der wissenschaftliche Dienst einen Bericht der europäische Agentur für Grundrechte (FRA) zusammen. Diese warnte bereits 2020, dass mehrere Grundrechte asylsuchender Menschen aus der Charta der Grundrechte der Europäischen Union bei der Verwendung von KI-Systemen durch die Behörden gefährdet würden. Dazu gehören die Würde des Menschen (Artikel 1), die Achtung des Privat- und Familienlebens (Artikel 7), der Schutz personenbezogener Daten (Artikel 8), die Gleichheit vor dem Gesetz und Nichtdiskriminierung (Artikel 20-21), das Recht auf einen wirksamen Rechtsbehelf und ein unparteiisches Gericht (Artikel 47) und das Recht auf eine gute Verwaltung (Artikel 41).
Menschen, die in der EU Asyl beantragen, fliehen meist vor Verfolgung und können sterben, wenn sie keinen Schutz bekommen. Der Bericht warnt davor, die folgenschwere Entscheidung über die Schutzbedürftigkeit mithilfe von Datenanalysen durch KI-Systeme zu treffen, da die Technologie nicht so verlässlich sei, wie sie wirke.
KI ist nicht neutral
Die Qualität einer KI ist nur so gut, wie die Qualität der Trainingsdaten. Nur eine KI, die mit sehr vielen Daten trainiert worden ist, kann aussagekräftige Ergebnisse liefern. Für jedes Herkunftsland müssen ausreichend Daten vorhanden sein. Jedoch fehlen meist Daten, so der Bericht. Auch seien die Trainingsdaten nicht gleichmäßig verteilt, sondern gefärbt durch vermehrt auftretende Herkunftsländer. Entsprechend seien Ergebnisse der KI-Systeme nicht aussagekräftig genug für Entscheidungen mit potenzieller Todesfolge, besonders bei Herkunftsländern, zu denen wenig Daten zur Verfügung stehen.
Zusätzlich treffen KI-Systeme Entscheidungen über Asylverfahren, die auf vorausgegangenen menschlichen Entscheidungen basieren. Vorurteile in menschlichen Entscheidungen würden dabei von den Systemen erlernt und repliziert. Wenn diese auch mit Daten von KI-beeinflussten Entscheidungen trainiert werden, reproduzierten sich die Vorurteile immer weiter. Somit sei die KI-Technologie, so der Bericht, eben nicht der vorgesehene unvoreingenommene Entscheidungsträger.
Daten sind eben auch nur Daten
Darüber hinaus weist die FRA darauf hin, dass die KI-Systeme etwas anhand der Daten entscheiden sollen, was logisch nicht unbedingt zusammenhängt. Nimmt man das Dialekterkennungssystem aus Deutschland als Beispiel, bedeutet ein Dialekt aus einer bestimmten Region nicht unbedingt eine Herkunft aus der Region und auch nicht die entsprechende Nationalität.
Deswegen müsse von Mitarbeiter*innen der zuständigen Behörden beachtet werden, dass die KI-Systeme keine klaren Ergebnisse liefern würden. Als Ergebnis würden sie nur Wahrscheinlichkeiten ausspucken, die auf unzureichenden Daten beruhen würden. Dazu käme die hohe Fehlerquote der KI-Systeme. Das Dialekterkennungssystem, welches das BAMF nutzt, ordnet zwei von zehn asylsuchenden Menschen mit arabischem Dialekt und fast drei von zehn asylsuchenden Menschen mit persischem Dialekt das falsche Herkunftsland zu. Menschen tendieren dazu, Technologien blind zu vertrauen, besonders einem intransparenten KI-System. Der Bericht weist auf das Risiko hin, dass Fehler eines KI-Systems den Verdacht einer Fehlbehauptung von Antragstellenden bestätigen könnten.
Ein faires Verfahren ist nicht sichergestellt
Auch wenn mit den Ergebnissen der KI-Systeme reflektiert umgegangen werde und sie nur in unterstützender Funktion genutzt würden, bestünden große Risiken. Aus juristischer Sicht sei die Fairness des Verfahrens beeinflusst. Als Schutz vor Diskriminierung und Fehlentscheidungen müssen alle Asylanträge objektiv, unvoreingenommen und individuell begutachtet werden.
Eine KI, die aus vorausgegangenen Entscheidungen lernt und so ihre Aussagen trifft, ist nicht objektiv und unvoreingenommen. Dazu generalisiere eine KI, wobei individuelle Besonderheiten jedes einzelnen Falles nicht mehr genug Beachtung fänden.
Ebenfalls juristisch wichtig ist die Möglichkeit eine Entscheidung im Asylverfahren anzufechten. Stütze sich diese Entscheidung aber auf die angebliche Neutralität der Technologie, kann ein Anfechten schwierig werden. Asylbehörden sind dazu verpflichtet, Entscheidungen ausreichend zu begründen, damit Bewerber*innen die nächsten rechtlichen Schritte einleiten können. Eine KI-unterstützte Entscheidung ließe sich durch die Intransparenz der Technologie schwer erklären, weshalb das Verfahren undurchsichtig und komplexer werden würde. Zentral stellt der wissenschaftliche Dienst des EU Parlaments fest, dass sich die Integration von KI in den Asylprozess gegen die Asylbewerber*innen richtet und nur für die Behörden einen Vorteil darstellt.
Abschließend wirft das Briefing Datenschutzbedenken auf, die durch die Einspeisung persönlicher Daten in KI-Systeme entstünden. Bei der Menge von personenbezogenen Daten, die durch KI-Systeme verarbeitet werden, könnte eine Datenschutz-Folgeabschätzung erforderlich werden, um festzustellen ob ein derart großer Eingriff in den Datenschutz verhältnismäßig ist.
Trotz Bedenken grünes Licht für KI-Systeme in Asylanträngen
Obwohl der aufgegriffene Report der FRA bereits 2020 Risiken bei KI-Systemen zur Unterstützung bei Asylansträgen festgestellt hat, werden KI-Systeme weiter in den Asylprozess integriert. Trotz der Gefahren für die Grundrechte versäumt die 2024 verabschiedete KI-Verordnung der EU, die KI-Nutzung für Asylverfahren zu regulieren und Risiken zu beseitigen. Stattdessen gelten die Transparenzregelungen der Verordnung speziell in den Bereichen der Migration und des Asyls nicht.
-
Online Marketing & SEOvor 4 Wochen
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 4 Wochen
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 4 Wochen
Philip Bürli › PAGE online
-
Social Mediavor 4 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 4 Wochen
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Online Marketing & SEOvor 4 Wochen
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
-
Social Mediavor 4 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
UX/UI & Webdesignvor 4 Wochen
Wie gelingt eine einwandfreie Zusammenarbeit?