Connect with us

Datenschutz & Sicherheit

Support ausgelaufen: Admin-Attacke auf LG Netzwerkkamera LNV5110R möglich


Die Netzwerkkamera LNV5110R von LG Innotek sollte nicht mehr benutzt werden: Die US-Sicherheitsbehörde CISA (Cybersecurity & Infrastructure Security Agency) warnt vor einer Sicherheitslücke, für die es kein Sicherheitsupdate mehr geben wird.

Wie aus einem Beitrag der Behörde hervorgeht, ist der Support für das Modell ausgelaufen und die Netzwerkkamera bekommt keine Sicherheitspatches mehr. Die Schwachstelle bleibt also bestehen und Angreifer können die Netzwerkkamera attackieren.

Weil Angreifer nach einer erfolgreichen Attacke Schadcode ausführen können, gilt die Lücke (CVE-2025-7742 „hoch„) als besonders gefährlich. Für das Einleiten einer Attacke soll das Versenden von präparierten HTTP-POST-Anfragen ausreichen. Im Anschluss sollen Angreifer eigenen Code mit Adminrechten ausführen können. Danach ist davon auszugehen, dass das Gerät vollständig kompromittiert ist.

Unklar bleibt, ob Angreifer die Schwachstelle als Sprungbrett in Netzwerke nutzen können. Bislang gibt es noch keine Berichte zu Attacken. Wie man bereits attackierte Geräte erkennt, führt die CISA derzeit nicht aus. Aufgrund des beschriebenen Angriffsszenarios ist es wahrscheinlich, dass Angreifer sich Admin-Accounts anlegen. Sieht man in der Verwaltungsoberfläche unbekannte Accounts, sollte man sie umgehend löschen.

Um die Netzwerksicherheit zu wahren, sollte man dieses Netzwerkkameramodell nicht mehr nutzen und auf ein aktuelles, noch im Support befindliches Modell umsteigen. Wenn das nicht direkt möglich ist, sollte man die Internetverbindung der Kamera kappen und sie mit Firewallregeln isolieren. Ist ein Fernzugriff unabdingbar, sollte das über eine passwortgeschützte und verschlüsselte VPN-Verbindung geschehen.


(des)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Datenschutz & Sicherheit

Streik der TikTok-Moderator*innen: „Sie sind Vorkämpfer“


Anna* hat schlechte Laune. „Ich bin traurig und wütend, aber vor allem enttäuscht“, sagt sie. Anna soll gekündigt werden. Seit drei Jahren arbeitet die 34-Jährige für TikTok. Sie moderiert vom Standort Berlin aus Beiträge, die als anstößig markiert werden. Heute aber ist sie im Streik. Es ist bereits der zweite Warnstreiktag der Berliner TikTok-Beschäftigten, nach der Erstauflage am 23. Juli.

Etwa 50 Mitarbeitende haben sich zum Streik eingefunden. Sie tragen Warnwesten, Basecaps und Fahnen der Gewerkschaft ver.di. Auf ihren Bannern steht etwa: „TikTok, was ist dir Sicherheit wert?“ Die Mitarbeitenden rufen Slogans wie „We trained your machines. Pay us what we deserve.“ Übersetzt heißt das: „Wir haben eure Maschinen trainiert. Zahlt uns, was wir verdienen.“ Trillerpfeifen ertönen. Die Demonstrierenden wirken kämpferisch – und zornig.

TikTok will die Moderation von Beiträgen an Subunternehmen und eine KI auslagern. Diese KI wurde mithilfe von Entscheidungen trainiert, die die Mitarbeitenden trafen, die nun entlassen werden sollen.

TikTok geht gerichtlich gegen den Betriebsrat vor

Die geplanten Kündigungen betreffen laut ver.di rund 150 Beschäftigte der Abteilung „Trust and Safety“ (Vertrauen und Sicherheit), die bislang Inhalte in dem Netzwerk überprüfen, sowie 15 Beschäftigte aus dem Bereich TikTok-Live, die für den Kontakt mit Content-Produzent*innen zuständig sind. Derzeit arbeiten in Berlin etwa 400 Menschen für TikTok, das vom chinesischen Unternehmen ByteDance betrieben wird. Der Konzern hat auf eine netzpolitik.org-Anfrage nicht reagiert.

Für die Angestellten, die TikTok entlassen will, verlangt ver.di eine Abfindung von drei Jahresgehältern und eine Verlängerung der Kündigungsfrist um zwölf Monate. TikTok geht derweil gegen den Betriebsrat vor. Der Prozess beginnt heute vor dem Arbeitsgericht Berlin, dort findet auch der Protest statt. ver.di vermutet, dass das Verfahren dazu dient, die Kündigungen möglichst schnell vollziehen zu können. Verhandlungen mit dem Betriebsrat habe TikTok bislang verweigert, so ver.di.

Zudem habe die TikTok-Geschäftsführung angekündigt, die Teilnehmer*innen des ersten Warnstreiktages einzeln zu Gesprächen vorzuladen. Sie hätten gegen rechtliche Pflichten verstoßen, weil sie den Arbeitgeber nicht über ihre geplante Streikteilnahme informiert hätten. ver.di sieht darin einen Einschüchterungsversuch gegen die Streikenden.

Sexuelle Inhalte, Fake News, Blut und Gewalt

Anna sagt, sie sei stolz, dass sie mit ihrer Arbeit Menschen schütze. Dazu schaut und bewertet sie pro Schicht rund 700 Videos. Sie sieht sexuelle Inhalte, Fake-News, Blut und Gewalt. Potenziell traumatisierendes Material. „Es gibt Clips, die ich nicht vergessen kann“, sagt Anna. Sie sei abgestumpft, könne sich zudem kaum mehr länger als 30 Sekunden konzentrieren, weil sich ihr Gehirn an die kurzen Videos gewöhnt habe. Content-Moderation ist ein Job, der tiefe Spuren hinterlässt.

Anna moderiert Videos, die polnische User*innen erstellt haben. Neben dem polnischen betreut das Berliner Team auch den deutschen und den niederländischen Markt.

„TikTok geht es ums Geld“, sagt Oliver Marsh von AlgorithmWatch. „Aber es kann auch ein Experiment sein. Im Fall des Erfolgs könnte auch in anderen Ländern und Bereichen Jobs an Software übergeben werden.“

“KI macht Fehler“

Es ist ein weltweiter Trend: Unter anderem weil menschliche Arbeitskräfte teuer sind, krank werden – und sogar streiken können –, wird für immer mehr Aufgaben KI eingesetzt. So würden sich Unternehmen als „modern“ gerieren, sagt Oliver Marsh. Doch das bringt Probleme mit sich. „KI macht Fehler“, sagt Marsh. Mal könne zu viel Content entsorgt werden – ein anderes Mal nicht genug. „KI kann Graubereiche und schwierige Problemfälle nicht lösen. Da braucht es Menschen, um den Kontext einzuordnen“, sagt er.

Marsh nennt eine Reihe von Feldern, auf denen KI immer wieder Fehlentscheidungen trifft. LGBTQIA*-Inhalte beispielsweise würde oft als „Hassrede“ fehlgedeutet, Nackheit im künstlerischen Kontext schnell als sexueller Content abgestempelt. Zudem würden Beiträge mit dem arabischen Wort Shaheed regelmäßig als terrorismusverherrlichender Content entfernt. Shaheed bedeutet Märtyrer, das Wort wird auch in harmlosen Zusammenhängen verwendet.


2025-07-14
689.12
58


– für digitale Freiheitsrechte!



Euro für digitale Freiheitsrechte!

 

Die Berliner TikTok-Beschäftigten kämpfen schon länger gegen ihre miesen Arbeitsbedingungen. 2022 haben sie einen Betriebsrat gegründet. Inzwischen sind etwa 70 Prozent der Mitarbeitenden gewerkschaftlich organisiert. „Wir haben ihnen gezeigt, dass sie Rechte haben und die auch in Anspruch nehmen können“, sagt ein Mitglied des Betriebsrats, das anonym bleiben will. So habe man beispielsweise verhindert, dass der Konzern trackt, wer wann wie lange an seinem Arbeitsplatz sitzt.

Eine weltweite Bewegung

Die Berliner TikTok-Angestellten sind Teil einer weltweiten Bewegung. In Nairobi wurde 2023 eine eigene Gewerkschaft für Content-Moderator*innen gegründet, die African Content Moderators Union. Viele Moderationsjobs wurden auf den Kontinent ausgelagert und werden dort von Subunternehmern vergeben. Die Arbeitnehmer*innen möchten mit der Gewerkschaft die brutalen Arbeitsbedingungen etwas entschärfen.

Doch obwohl sich auch andernorts Mitarbeitende von Social-Media-Plattformen organisieren, ist der Berliner Streik wohl der erste seiner Art. Weder Oliver Marsh noch Kathlen Eggerling, die für die Gewerkschaft ver.di die TikTok-Mitarbeiter*innen betreut, wissen von ähnlichen Arbeitsniederlegungen von Social-Media-Mitarbeiter*innen anderswo in der Welt. „Die TikToker trauen sich ihre Rechte wahrzunehmen, das ist etwas Großes“, sagt Eggerling. „Sie haben keine Vorkämpfer in ihrer Branche. Sie sind selber welche.“

Für Social-Media-Plattformen steht bislang der Gewinn über den Interessen der Mitarbeitenden, sagt Eggerling. Betriebsratsgründungen würden, wenn sie mal angestrebt würden, häufig auf großen Widerstand stoßen. Auch bei der Gründung des Berliner TikTok-Betriebsrates gab es starken Gegenwind aus der Chefetage.

Doch inzwischen haben sich die TikTok-Mitarbeiter*innen an ihre Rechte gewöhnt. Mit ihrem Warnstreik treten sie selbstbewusst auf. „Die TikToker sind richtige Gewerkschafter geworden“, sagt Eggerling. „Sie haben ein gutes Gespür für Gerechtigkeit.“

*Name auf Wunsch der Betroffenen geändert.



Source link

Weiterlesen

Datenschutz & Sicherheit

Sicherheitsproblem: Hartkodierte Zugangsdaten gefährden PCs mit MyASUS


Die MyASUS-App kann zum Einfallstor für Angreifer werden. Schuld sind zwei Sicherheitslücken, die aber mittlerweile geschlossen sind. Wer das Tool nicht aktualisiert, riskiert unbefugte Zugriffe auf bestimmte Services.

Das geht aus einer Warnmeldung des Computerherstellers hervor. Von den beiden Schwachstellen (CVE-2025-4569 „hoch„, CVE-2025-4579 „mittel„) sind Computer des Herstellers aus den Bereichen All-in-One-PCs, Desktop, NUCs und Laptops betroffen.

Aufgrund von hartkodierten Zugangsdaten in Form eines Tokens können Attacken stattfinden. Damit ausgestattet können Angreifer auf bestimmte, nicht näher spezifizierte Dienste zugreifen. Die Entwickler geben an, die Sicherheitsprobleme in den Ausgaben 4.0.36.0 (x64) und 4.2.35.0 (ARM) gelöst zu haben. Ob es bereits Attacken gibt, ist zurzeit nicht bekannt.


(des)



Source link

Weiterlesen

Datenschutz & Sicherheit

Gesichtersuche im Asylverfahren: Biometrie ohne Bremse


Das Bundesinnenministerium plant, die Hürden für den Einsatz von Gesichter-Suchmaschinen im Asylverfahren weiter zu senken. Die Änderung am Asylgesetz ist Teil eines Gesetzespakets aus dem Haus von Innenminister Alexander Dobrindt (CSU). Es soll dem Bundesamt für Migration und Flüchtlinge (BAMF) erlauben, die Fotos von Asylsuchenden „mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet“ biometrisch abzugleichen, wenn diese keine Ausweispapiere vorlegen.

Eine entsprechende Regelung im Asylgesetz war bereits im vergangenen Oktober als Teil des sogenannten Sicherheitspakets verabschiedet worden – mit den Stimmen der Ampel-Regierung. Das BAMF darf also schon die biometrische Gesichtersuche im Asylverfahren einsetzen.

Biometrische Suche statt milderer Mittel

Das akutelle Gesetz sieht allerdings eine Reihe von Hürden vor. Der Einsatz ist als Ultima Ratio vorgesehen, wenn das BAMF die Identität nicht mithilfe „milderer Mittel“ klären kann. Das könnte etwa eine Heiratsurkunde oder andere Dokumente sein, die Name und Staatsangehörigkeit der Betroffenen nachweisen. Diese Einschränkung ist im neuen Referentenentwurf aus dem BMI gestrichen.

Auch ist bisher vorgeschrieben, dass die Betroffenen vorab über „den Zweck, Umfang und die Durchführung“ informiert werden müssen. Wann und mit welchem Programm der Abgleich erfolgte, muss protokolliert werden. Nach Abschluss der Maßnahme muss die zuständige Datenschutzaufsicht davon erfahren.

Diese Auflagen will das BMI streichen. Gleichzeitig soll das BAMF neue Befugnisse bekommen. Es soll personenbezogene Daten jetzt auch international übermitteln dürfen, wenn es um den „Schutz der nationalen Sicherheit“ geht. Damit können die biometrischen Daten der Personen gemeint sein oder auch die Informationen, die das BAMF durch den Einsatz der Gesichter-Suchmaschinen erlangt hat.

Superdatenbanken mit Milliarden Gesichtern

Biometrische Gesichter-Suchmaschinen wie Clearview oder PimEyes erlauben es, mit einem beliebigen Foto einer Person weitere Treffer zu ihrem Gesicht im öffentlichen Internet zu finden, auch wenn diese verwackelt sind oder die Person in einer größeren Menschenansammlung aufgenommen wurde. Das können etwa Aufnahmen auf Facebook, YouTube oder PornHub sein – oder ein Bild, das am Rande einer Demo oder Sportveranstaltung geschossen wurde.

Um den Abgleich in Sekunden durchführen zu können, erstellen die Betreiber der Suchmaschinen große Datenbanken, in denen sie die biometrischen Daten von Milliarden Gesichtern als mathematische Repräsentation speichern. Dafür durchsuchen sie massenweise und anlasslos das öffentliche Internet und verarbeiten die gefundenen Gesichter. Das geschieht ohne Einwilligung der betroffenen Personen.

Solche kommerziellen Gesichter-Suchmaschinen sind in der EU verboten. Die KI-Verordnung untersagt „die Verwendung von KI-Systemen, die Datenbanken zur Gesichtserkennung durch das ungezielte Auslesen von Gesichtsbildern aus dem Internet oder von Überwachungsmaterial erstellen oder erweitern“. Auch die Datenschutzgrundverordnung erlaubt die Verarbeitung von biometrischen Daten nur in Ausnahmefällen. Das BAMF müsste daher zunächst eine legale technische Lösung entwickeln lassen. Die Bundesdatenschutzbeauftragte nannte eine solche Umsetzung „unrealistisch“.

Laut den Plänen des Bundesinnenministeriums sollen auch das Bundeskriminalamt und die Bundespolizei mit Hilfe des biometrischen Abgleiches im Internet nach Personen fahnden dürfen. Das BKA soll damit nicht nur Verdächtige suchen, sondern auch Opfer und Zeugen. Bei Befragungen im Bundestag konnten die Behördenvertreter nicht beantworten, wie der Abgleich geschehen soll, ohne gegen die EU-Gesetzgebung zu verstoßen. In der Begründung des neuen Entwurfes heißt es dazu nur, die Vorgaben aus der KI-Verordnung seien zu beachten.

„Gesichtsbilder sind höchstpersönliche Daten, deren biometrische Verarbeitung die Datenschutzgrundverordnung nur in wenigen Ausnahmen zulässt“, sagt Eric Töpfer, der am Deutschen Institut für Menschenrechte zu Grundrechten im Migrationsprozess arbeitet und schon die Änderung des Asylgesetzes im vergangenen Herbst für den Bundestag kommentiert hat. „Bereits die Befugnis fürs BAMF zum Internetabgleich aus dem ersten Sicherheitspaket war unverhältnismäßig“, sagt er. „Nun sollen offensichtlich auch die letzten Garantien zum Schutz von Betroffenenrechten geschleift werden.“

Noch in der Abstimmung

Die Pläne sind in einem frühen Stadium. Das Bundesinnenministerium hat sie zur Abstimmung an andere Ministerien verschickt. Danach folgt eine Länder- und Verbändebeteiligung, bevor das Kabinett das Paket beschließt und es an den Bundestag geht.

Das Bundesinnenministerium hat das neue Gesetzespaket in zwei Teile geteilt. Die Neufassung des Asylgesetzes befindet sich im ersten Teil, der keine Zustimmung des Bundesrates braucht.


2025-07-14
675.12
56


– für digitale Freiheitsrechte!



Euro für digitale Freiheitsrechte!

 


Auszug aus dem Referentenentwurf „Entwurf eines ersten Gesetzes zur Stärkung digitaler Ermittlungsbefugnisse in der Polizeiarbeit“ des BMI vom 25. Juli 2025

§ 15b – Biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet

(1) Das nach § 16 Absatz 1 Satz 1 und 2 erhobene biometrische Lichtbild des Ausländers darf mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgeglichen werden, wenn es zur Feststellung der Identität oder Staatsangehörigkeit erforderlich ist, da der Ausländer keinen gültigen Pass oder Passersatz besitzt. Die öffentlich zugänglichen Daten aus dem Internet dürfen nicht in Echtzeit erhoben werden.

(2) Die im Rahmen des Abgleichs nach Absatz 1 erhobenen Daten sind nach Durchführung des Abgleichs unverzüglich zu löschen, sofern sie für die Feststellung der Identität oder Staatsangehörigkeit nicht mehr erforderlich sind.

(3) Bei der Übermittlung im innerstaatlichen Bereich sowie an Mitgliedsstaaten der Europäischen Union kann das Bundesamt personenbezogene Daten an öffentliche und nichtöffentliche Stellen übermitteln, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist.

(4) Im internationalen Bereich kann das Bundesamt personenbezogene Daten an Öffentliche und nichtöffentliche Stellen übermitteln, sofern dies zur Durchführung des Abgleichs nach Absatz 1 erforderlich ist und von § 81 Absatz 1 Nummer 3 und Absatz 4 des Bundesdatenschutzgesetzes abweichen, sofern dies zum Zweck des Schutzes der nationalen Sicherheit erforderlich ist.

Bisherige Fassung des § 15b Asylgesetz (im neuen Entwurf gestrichene Passagen von netzpolitik.org markiert)

§ 15b – Nachträglicher biometrischer Abgleich mit öffentlich zugänglichen Daten aus dem Internet

(1) Das nach § 16 Absatz 1 Satz 1 und 2 erhobene biometrische Lichtbild des Ausländers darf mit öffentlich zugänglichen personenbezogenen Daten aus dem Internet mittels einer automatisierten Anwendung zur Datenverarbeitung biometrisch abgeglichen werden, wenn der Ausländer keinen gültigen Pass- oder Passersatz besitzt, der Abgleich für die Feststellung der Identität oder Staatsangehörigkeit des Ausländers erforderlich ist und der Zweck der Maßnahme nicht durch mildere Mittel erreicht werden kann. Liegen tatsächliche Anhaltspunkte für die Annahme vor, dass durch eine Maßnahme nach Satz 1 allein Erkenntnisse aus dem Kernbereich privater Lebensgestaltung erlangt wird, ist die Maßnahme unzulässig. Erkenntnisse aus dem Kernbereich privater Lebensgestaltung, die durch den Abgleich erlangt wurden, dürfen nicht verwertet werden. Aufzeichnungen hierüber sind unverzüglich zu löschen. Die Tatsache ihrer Erlangung und Löschung ist aktenkundig zu machen. Ein Abgleich mit Daten nach Satz 1 aus im Internet öffentlich zugänglichen Echtzeit-Lichtbild- und Echtzeit-Videodateien ist ausgeschlossen.

(2) Die Treffer des Abgleichs sind durch Inaugenscheinnahme zu überprüfen. Zweifel an der Richtigkeit der Treffer gehen nicht zu Lasten des Ausländers.

(3) Die im Rahmen des Abgleichs nach Absatz 1 erhobenen Daten sind nach Durchführung des Abgleichs unverzüglich zu löschen, sobald sie für die Feststellung der Identität oder Staatsangehörigkeit nicht mehr erforderlich sind. Der Abgleich und das Löschen von Daten ist in der Asylakte zu dokumentieren.

(4) Bei jeder Maßnahme nach Absatz 1 sind die Bezeichnung der eingesetzten automatisierten Anwendung zur Datenverarbeitung, der Zeitpunkt ihres Einsatzes und die Organisationseinheit, die die Maßnahme durchführt, zu protokollieren. Nach Beendigung einer Maßnahme nach Absatz 1 ist die Stelle zu unterrichten, die für die Kontrolle der Einhaltung der Vorschriften über den Datenschutz bei öffentlichen Stellen zuständig ist.

(5) Die betroffene Person ist über den Zweck, den Umfang und die Durchführung des biometrischen Abgleichs vorab in verständlicher Weise zu informieren.

(6) Durch geeignete technische und organisatorische Maßnahmen ist sicherzustellen, dass kein unberechtigter Zugriff auf die erhobenen Daten erfolgt.

(7) Für die in den Absätzen 1 bis 6 genannten Maßnahmen ist das Bundesamt zuständig. Es hat dabei sicherzustellen, dass diskriminierende Algorithmen weder herausgebildet noch verwendet werden. Soweit technisch möglich, muss die Nachvollziehbarkeit des verwendeten Verfahrens sichergestellt werden.



Source link

Weiterlesen

Beliebt