Connect with us

Datenschutz & Sicherheit

Outsourcing und Ausbeutung: „Es gibt keine KI ohne Datenarbeit“


Im Bundestag wurde heute erstmals über die Arbeitsbedingungen von Datenarbeiter:innen hinter Künstlicher Intelligenz und Sozialen Medien diskutiert. Die Ausschüsse für Digitales und Arbeit hatten zu einem Fachgespräch zum Thema Data Labeling geladen. Die klare Botschaft der drei Sachverständigen: Wenn Deutschland auf KI setzt, dann muss es mehr Verantwortung für die Menschen im Maschinenraum der Technologie übernehmen.

Als Data Labeling oder auch Daten-Annotation bezeichnet man eine Tätigkeit, bei der Menschen zum Beispiel Bildmaterial mit Metadaten versehen, also mit Labels, die den Inhalt beschreiben. Das ist unter anderem für Machine-Learning-Systeme erforderlich, die hinter fast allem stehen, auf dem heute das Label „KI“ klebt. Die Arbeiter:innen sind selten bei den Tech-Konzernen selbst beschäftigt, sondern werden häufig unter ausbeuterischen Bedingungen bei Outsourcing-Firmen oder -Plattformen angestellt.

Seit Jahren bringen Whistleblower:innen, Aktivist:inen, Forscher:innen und Journalist:innen die unsichtbar gemachten Arbeitskräfte in die Öffentlichkeit. Auch wir auf netzpolitik.org berichten kontinuierlich darüber. Die Arbeitsbedingungen in der Branche haben sich aber kaum verbessert, weshalb Erwartungen an die Politik groß sind. Das heutige Fachgespräch, an dem sich Abgeordnete von Union, SPD, Grünen und Linkspartei beteiligten, könnte ein Anfang sein. An konkreten Ideen, wie sich die Lage der Arbeiter:innen verbessern lässt, mangelt es jedenfalls nicht.

„Sie sehen die KI, aber uns sehen Sie nicht“

Die ehemalige Datenarbeiterin Joan Kinyua war virtuell aus der kenianischen Hauptstadt Nairobi zugeschaltet. Sie habe mehr als acht Jahre in der Branche gearbeitet hat, die „Künstlicher Intelligenz dabei hilft, die Welt zu verstehen“. Für unterschiedliche Anbieter habe sie unter anderem Bilder von Straßen mit Metadaten versehen, damit selbstfahrende Autos keine Unfälle bauen. Auch mit Straßenszenen aus Berlin habe sie arbeiten müssen (lest dazu mehr in unserem kürzlich veröffentlichten Interview mit Joan).

Später habe sie auch Bilder mit Gewaltdarstellungen klassifizieren müssen, sogar solche, die Gewalt an Kindern zeigten. Gleichzeitig habe sie selbst Daten für das KI-Training erzeugen sollen, indem sie Bilder ihrer Tochter zur Verfügung stellt.

Ausgeübt habe sie die Tätigkeit meist vom eigenen Computer zuhause, über sogenannte Microwork-Plattformen – „ohne Arbeitsvertrag, Sozialversicherung oder Gesundheitsversorgung“. Oft habe sie stundenlang auf neue Aufträge warten müssen, teilweise bis zu 20 Stunden am Tag auf Stand-By. Immer wieder hätten Auftraggeber:innen ihre Ergebnisse abgelehnt. Den Input hätten sie trotzdem behalten, sie selbst sei leer ausgegangen. So habe es Tage gegeben, an denen sie in fünf Stunden nur zwei Cent verdient habe. Im Schnitt würden Datenarbeiter:innen in Kenia 250 US-Dollar im Monat verdienen, was kaum zum Überleben reiche.

Von ihrer Arbeit habe sie außerdem Panik-Attacken und Angstzustände erhalten. Wie ihr gehe es vielen in der Branche, schildert Kinyua. Als Präsidentin der kenianischen Data Labelers Association vertrete sie inzwischen die Interessen von mehr als tausend Datenarbeiter:innen. Viele von ihnen litten unter posttraumatischen Belastungsstörungen.

„Sie sehen die KI, aber uns sehen Sie nicht“, so beschrieb Joan Kinyua den Abgeordneten ihre Lage. Es sei auch in der Verantwortung des Deutschen Bundestages, das zu ändern und für bessere Bedingungen zu sorgen. Unter anderem schlug die Kenianerin Mindeststandards für Datenarbeiter:innen in Deutschland und weltweit vor. Dazu zählt auch eine Obergrenze für die Arbeit an belastenden Inhalten. Zudem brauche es unabhängige Audits der Anbieter, sowie Register für KI-Arbeiter:innen und ganz grundsätzlich mehr Transparenz über Outsourcing und Lieferketten von Tech-Konzernen.

Milliarden-Profite dank Prekarisierung

Dr. Milagros Miceli von der TU Berlin berichtete von ihren Erkenntnissen aus fast einem Jahrzehnt Forschung zu Datenarbeit. Die von Joan Kinyua geschilderten Arbeitsbedingungen seien „kein Einzelfall, sondern ein konstantes Muster“. Oder genauer gesagt: das Geschäftsmodell einer milliardenschweren Branche.

Der von ihr geprägte Begriff der Datenarbeit umfasse mehr als das Labeling von Daten im engeren Sinne: Auch das Generieren und Sammeln von Daten zähle dazu, in zunehmendem Maße außerdem die Validierung des algorithmischen Outputs und das Korrigieren von Fehlern. Zudem müssten Arbeiter:innen immer wieder so tun, als seien sie eine KI.

Miceli ist eine der Initiator:innen des „Data Workers Inquiry“, in dem Datenarbeiter:innen von ihrer Wirklichkeit berichten. Kürzlich hat das Projekt die Geschichte einer Person veröffentlicht, die sich als AI Girlfriend ausgeben musste, also als Chatbot, der eine Liebesbeziehung mit seinen Nutzer:innen simuliert.

Die unterschiedlichen Formen der Datenarbeit seien essenzieller Bestandteil von KI-Produkten, einer Studie zufolge würde sie 80 Prozent der Entwicklungsarbeit von Künstlicher Intelligenz ausmachen. Miceli ist in ihrer Botschaft deshalb klar: „Ohne Datenarbeit und ohne Menschen wie Joan Kinyua gibt es keine KI“. Tech-Konzerne würden Milliarden damit verdienen „dass sie Arbeiter:innen durch Outsourcing und Plattformisierung prekarisieren und austauschbar machen“. Wenn Deutschland KI fördern wolle, müsse deshalb unbedingt für bessere Arbeitsbedingungen sorgen.

Viele der Arbeiter:inen seien hochqualifiziert, hätten Bachelor-Abschlüsse oder sogar promoviert, berichtet die Forscherin. Dabei sei wichtig, dass die Tätigkeit nicht auf Länder wie Kenia beschränkt ist, sondern auch in Deutschland und Europa viele Menschen in der Branche tätig seien. Wie viele genau, das könne man aufgrund der Intransparenz der Unternehmen nicht sagen.

Probleme bei Gesundheits- und Datenschutz

Bekannt ist, dass mehrere Tech-Konzerne und Outsourcing-Unternehmen in Deutschland große Zentren für die Moderation von Inhalten auf Social-Media-Plattformen unterhalten. Eine Tätigkeit, die die Sachverständigen ebenfalls zum Feld der Datenarbeit zählt und die bereits vor drei Jahren bei einem Fachgespräch im Bundestag Thema war. Julia Kloiber vom Superrr Lab war damals bereits dabei und wies heute erneut darauf hin, dass dabei oft Menschen in vulnerablen Lebenssituationen ausgenutzt würden.

Kloiber empfahl unter anderem besseren Schutz für Menschen, die mit schädlichen Inhalten arbeiten müssen. Bei der Polizei etwa, wo ebenfalls Menschen mit Darstellungen von Kindesmissbrauch arbeiten müssten, gebe es klare Expositionsbegrenzungen. Auch für Datenarbeiter:innen brauche es eine Obergrenze, die die Arbeit mit belastendem Material festlegt. Außerdem brauche es Trauma-Prävention und Zugang zu professioneller psychologischer Unterstützung.

Wir sind communityfinanziert

Unterstütze auch Du unsere Arbeit mit einer Spende.

Der fehlende Schutz habe nicht nur schwerwiegende Folgen für die Betroffenen, sondern auch für das Gesundheitssystem, schließlich könnten Menschen ein ganz Leben lang unter posttraumatischen Belastungsstörungen leiden. Manchmal könnten sie deshalb nicht mehr arbeiten. Die dadurch entstehenden Kosten würden von den Tech-Konzernen externalisiert und von der Allgemeinheit aufgefangen.

Kloiber wies zudem auf Datenschutzprobleme beim Outsourcing hin: Nicht nur würden die Datenarbeiter:innen selbst stark überwacht, bei ihnen landeten auch große Mengen personenbezogener Daten und sensibler Inhalte. Erst kürzlich hatten Datenarbeiter:innen als Whistleblower:innen darüber berichtet, dass sie Aufnahmen aus Meta-Brillen bearbeiten müssten und dabei auch Nacktaufnahmen und andere intime Szenen von Nutzer:innen zu Gesicht bekämen.

„Unsere digitale Zukunft darf nicht auf Ausbeutung fußen“

Deutlich wurde bei dem Fachgespräch, dass auch deutsche Firmen davon profitieren, dass sie prekäre Arbeit an Menschen wie Joan Kinyua auslagern. Auch die Auto-Industrie, die Pharma-Branche oder Tech-Unternehmen wie Siemens gehörten zu den Kunden von Outsourcing-Unternehmen im Datenbereich, berichtete etwa Milagros Miceli.

Für Julia Kloiber ist klar, dass Deutschland deshalb auch Verantwortung übernehmen müsse. Eine Untersuchung des Fairwork-Projekt der Universität Oxford und Wissenschaftszentrums Berlin habe die Löhne von vier Outsourcing-Unternehmen untersucht. Nur zwei von ihnen hätten Mindestlohn gezahlt, keines den sogenannten Existenzlohn („Living Wage“), der nicht nur das bloße physische Überleben, sondern auch soziale und kulturelle Teilhabe ermöglicht.

Einen wichtigen Ansatzpunkt sieht die Geschäftsführerin des Superrr Lab deshalb in der Regulierung von Lieferketten. Hier drohe der hohe Standard des erst kürzlich eingeführten und dann schon wieder halb gecancelten deutschen Lieferkettengesetzes abgesenkt zu werden. Die Schwarz-Rote Koalition hatte sich darauf geeinigt, nicht über die – ebenfalls gerade ausgehöhlte – EU-Lieferkettenrichtlinie hinauszugehen.

Bei der Umsetzung der Richtlinie müsse Deutschland sicherzustellen, dass der Geltungsbereich nicht eingeschränkt werde. Die EU-Regeln sollen nur Unternehmen ab 5000 Beschäftigten und einem Umsatz von 1,5 Milliarden Euro gelten. In Deutschland würden dann 95 Prozent der Unternehmen von den Sorgfaltspflichten für ihre Lieferketten entbunden, so Kloiber.

Die Expertin brachte zudem ein Direktanstellungsgebot ins Spiel, wie es erst kürzlich gefeuerte und streikende TikTok-Angestellte in Deutschland gefordert hatten. Ganz grundsätzlich Kloiber eine realistischere Kosten-Nutzen-Rechnung, wenn in Deutschland KI ausgebaut und etwa in der Verwaltung eingesetzt werde. Soziale und auch ökologische Kosten dürften nicht länger ausgeblendet werden: „Unsere digitale Zukunft darf nicht auf Ausbeutung fußen.“



Source link

Datenschutz & Sicherheit

Fortinet stopft 18 Sicherheitslecks | heise online


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Fortinet bezeichnet es nicht so, hat aber einen Patchday im April veranstaltet: Das Unternehmen veröffentlicht 18 Sicherheitswarnungen zu diversen Produkten gebündelt an einem Tag. Einige davon stuft Fortinet als kritisches Risiko ein.

Weiterlesen nach der Anzeige

Eine unzureichende Filterung von Elementen, die in einem Befehl ans Betriebssystem von FortiSandbox verwendet werden, ermöglicht Angreifern ohne Authentifizierung das Ausführen von nicht autorisiertem Code oder Befehlen mittels manipulierter HTTP-Anfragen (CVE-2026-39808, CVSS 9.1, Risiko „kritisch“). Zudem können bösartige Akteure an einer Path-Traversal-Schwachstelle in der JRPC-API von FortiSandbox ansetzen, um mit sorgsam präparierten HTTP-Anfragen die Authentifizierung zu umgehen (CVE-2026-39813, CVSS 9.1, Risiko „kritisch“). Betroffen sind die FortiSandbox-Versionszweige 4.4 und 5.0, die Fassungen 4.4.9 sowie 5.0.6 oder neuere bessern die Schwachstelle aus.

In FortiDDoS-F 7.2.1 und 7.2.2 können angemeldete Angreifer eine SQL-Injection-Schwachstelle zum Einschleusen beliebiger SQL-Befehle mit manipulierten HTTP-Anfragen missbrauchen (CVE-2026-39815, CVSS 7.9, Risiko „hoch“). Version 7.2.3 und neuer korrigieren das. Angreifer aus dem Netz können außerdem ohne vorherige Authentifizierung mit speziell präparierten Anfragen im oftpd-Daemon von FortiAnalyzer Cloud und FortiManager Cloud 7.6 einen Heap-basierten Pufferüberlauf provozieren und in dessen Folge Schadcode oder beliebige Befehle einschleusen (CVE-2026-22828, CVSS 7.3, Risiko „hoch“). Die Version 7.6.5 oder neuere bessern das aus.

FortiClient EMS filtert bestimmte Elemente, die in SQL-Befehlen genutzt werden, unzureichend und reißt damit eine SQL-Injection-Lücke auf. Das können authentifizierte Angreifer zum Absetzen beliebiger SQL-Abfragen mit manipulierten Anfragen missbrauchen (CVE-2026-39809, CVSS 7.1, Risiko „hoch“). FortiClient EMS 7.0 muss zum Schließen der Lücke auf unterstützte Softwarestände migriert werden, die Fassungen 7.2.13 sowie 7.4.6 und neuere stopfen das Leck.

Fortinet hat noch zahlreiche weitere Sicherheitslücken in mehreren Produkten geschlossen. Deren Risiko stuft das Unternehmen jedoch als mittel oder niedrig ein. Admins mit Fortinet-Produkten in ihrer Umgebung sollten prüfen, ob sie verwundbare Softwarestände einsetzen, und die bereitstehenden Updates anwenden.

Die Fortinet-Patchsammlung im März versorgte ebenfalls 18 Sicherheitslücken mit Softwareflicken. Der höchste Schweregrad war da jedoch das Risiko „hoch“.

Weiterlesen nach der Anzeige


(dmk)



Source link

Weiterlesen

Datenschutz & Sicherheit

Überwachung weltweit: Bundesregierung winkt UN-Cybercrime-Konvention durch


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Die Entscheidung im Bundeskabinett fiel am Mittwoch ohne großes Aufsehen, doch die Tragweite für den Datenschutz und die globale Menschenrechtslage ist groß. Die Bundesregierung hat offiziell grünes Licht für die Unterzeichnung des seit Jahren umstrittenen Übereinkommens der Vereinten Nationen gegen Computerkriminalität gegeben. Damit bekennt sich Deutschland zu einem Regelwerk, das die internationale Zusammenarbeit bei der Bekämpfung von IT-Straftaten auf eine neue Ebene heben soll.

Weiterlesen nach der Anzeige

Im Kern geht es Berlin um einen verbesserten Austausch von Beweismitteln in elektronischer Form (E-Evidence), um bei schweren Straftaten schneller und grenzüberschreitend agieren zu können. Doch was technisch sinnvoll klingt, betrachten zivilgesellschaftliche Organisationen als sicherheitspolitisches trojanisches Pferd.

Schon im Oktober, bei der Unterzeichnung in der vietnamesischen Hauptstadt Hanoi, schlugen Bürgerrechtsorganisationen Alarm. Ihre Sorge gilt dem ersten globalen Abkommen dieser Art, das unter dem Kürzel UNCC (United Nations Convention against Cybercrime) firmiert. Sie sehen darin weniger ein Instrument für mehr Cybersicherheit als einen rechtlichen Rahmen, der grenzüberschreitende Menschenrechtsverletzungen durch Kooperationspflichten begünstigt. Die Staatengemeinschaft betont die Notwendigkeit, der organisierten Kriminalität im Netz Herr zu werden. Die NGOs verlangen indes ein Ende des Ratifizierungsprozesses oder zumindest Nachbesserungen, um elementare Grundrechte zu wahren.

Das Bundesjustizministerium verteidigt das Mitziehen. Ein Sprecher sagte heise online, dass Deutschland gemeinsam mit der EU und anderen gleich gesinnten Staaten nachdrücklich für die Gewährleistung von Menschenrechtsstandards und entsprechenden Schutzgarantien gekämpft habe. Es seien „entsprechende Mechanismen vorgesehen, um diese bei der Strafverfolgung und der internationalen Zusammenarbeit zu gewährleisten“. Insbesondere gebe es im Rahmen der Kooperation spezifische Zurückweisungsgründe, falls Standards nicht eingehalten werden. Die Bundesregierung bleibe diesem menschenrechtlichen Ansatz auch künftig verpflichtet.

Dennoch richtet sich die Kritik vor allem gegen den fast uferlosen Geltungsbereich der UN-Konvention. Sie beschränkt sich nicht auf klassische Cyberangriffe wie das Knacken von Datenbanken oder das Lahmlegen kritischer Infrastrukturen. Stattdessen verpflichtet sie die Teilnehmer zu einer umfassenden elektronischen Überwachung und zur Kooperation bei einer Vielzahl von Delikten, die oft keinen direkten Bezug zu Informationssystemen haben. Als schwere Straftat wird jedes Delikt eingestuft, das nach jeweiligem nationalem Recht mit mindestens vier Jahren Freiheitsentzug geahndet werden kann.

Weiterlesen nach der Anzeige

Diese vage Definition öffnet die Tür für Missbrauch. Was in einer Demokratie als legitimer Protest oder investigativer Journalismus gilt, kann in autoritären Regimen als schwere Straftat ausgelegt werden. Aktivisten befürchten, dass die Konvention zur Kriminalisierung von Regierungskritikern und Whistleblowern umgedeutet wird. Da das Abkommen Regierungen dazu auffordert, ohne ausreichende Schutzmechanismen digitale Beweise zu sammeln und diese mit ausländischen Behörden zu teilen, droht das Vertrauen in sichere Kommunikation untergraben zu werden. Die Kritiker warnen auch vor einer Kriminalisierung schutzbedürftiger Gruppen in repressiven Staaten.

Der Vertrag geht auf eine Initiative von Russland und China zurück. Dass ihn nun auch westliche Staaten unterstützen, empfinden Bürgerrechtler als fatale Weichenstellung. Das Justizressort verweist dagegen auf den formalen Charakter der aktuellen Entscheidung: Es handele sich „um einen üblichen vorbereitenden Schritt für die Unterzeichnung eines internationalen Abkommens“. Die eigentliche Ratifizierung werde später erfolgen.


(cku)



Source link

Weiterlesen

Datenschutz & Sicherheit

OpenSSL 4.0 verschlüsselt, was TLS bisher verraten hat


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

OpenSSL 4.0.0 ist erschienen und bringt tiefgreifende Änderungen an der weitverbreiteten Kryptobibliothek. Das Open-Source-Projekt entfernt veraltete Protokolle wie SSLv2 und SSLv3, schafft das Engine-Konzept ab, führt neue Datenschutzfunktionen im TLS-Handshake ein und erweitert die Bibliothek in Richtung Post-Quantum-Kryptografie. Gleichzeitig bereinigen die Entwickler die API und verschärfen sicherheitsrelevante Prüfungen.

Weiterlesen nach der Anzeige

OpenSSL gehört zu den zentralen TLS/SSL-Implementierungen und steckt in Webservern, Betriebssystemen, Netzwerkgeräten und unzähligen Anwendungen. Änderungen an der Bibliothek wirken sich unmittelbar auf die Absicherung von Netzwerkverbindungen, Zertifikatsprüfungen und kryptografische Operationen in großen Teilen der IT-Infrastruktur aus.

Zu den wichtigsten Neuerungen gehört die Unterstützung für Encrypted Client Hello (ECH) nach RFC 9849. ECH verschlüsselt Teile des TLS-Handshake – insbesondere die Server Name Indication (SNI). Bislang konnten Dritte wie Netzbetreiber anhand der SNI erkennen, welche Domain ein Client ansteuert. ECH verbirgt diese Information und verbessert so den Datenschutz auf Transportebene deutlich.

Neu sind außerdem hybride Schlüsselaustauschverfahren wie curveSM2MLKEM768. Sie kombinieren klassische elliptische Kurven mit Post-Quantum-Algorithmen und sollen Verbindungen schon heute gegen künftige Angriffe durch Quantencomputer absichern: Selbst wenn ein Angreifer eines der beiden Verfahren bricht, schützt das andere weiterhin die Verbindung.

Die Bibliothek ergänzt mehrere kryptografische Primitive und Standards. Dazu zählt die cSHAKE-Funktion nach SP 800-185 – eine flexiblere Variante von SHA-3, die domänenspezifische Hash-Berechnungen erlaubt. Hinzu kommen Unterstützung für den Signaturalgorithmus ML-DSA-MU sowie SM2/SM3 nach RFC 8998, die unter anderem in regulatorischen Kontexten eine Rolle spielen. Zudem führt OpenSSL 4.0.0 Key-Derivation-Funktionen (KDFs) für SNMP und das Secure Real-time Transport Protocol (SRTP) ein, die in Netzwerkmanagement- und VoIP-Szenarien zum Einsatz kommen. Für TLS 1.2 unterstützt OpenSSL nun außerdem standardisierte Finite-Field-Diffie-Hellman-Gruppen (FFDHE) gemäß RFC 7919. Das verbessert die Interoperabilität und vermeidet unsichere oder proprietäre Parameterwahl beim Schlüsselaustausch.

Die Zertifikatsvalidierung wird an mehreren Stellen strenger. Im Strict-Modus prüft OpenSSL nun zusätzlich die Authority Key Identifier (AKID), und auch die CRL-Prüfung erhält weitere Checks. Im FIPS-Modus erzwingt die Bibliothek jetzt Mindestanforderungen bei PBKDF2 – etwa bei der Zahl der Iterationen –, um schwache Konfigurationen zu unterbinden.

Weiterlesen nach der Anzeige

Neu ist außerdem die Möglichkeit, FIPS-Selbsttests verzögert auszuführen. Das ist vor allem in containerisierten Umgebungen nützlich.

Mit Version 4.0 räumt OpenSSL konsequent auf. Neben SSLv2 und SSLv3 fällt auch das Engine-Konzept weg. Hardwarebeschleunigung und externe Kryptomodule laufen künftig ausschließlich über die Provider-Architektur, die Engines bereits seit OpenSSL 3.0 ablöst. Ebenfalls entfernt: feste TLS-Versionsmethoden, ältere elliptische Kurven, diverse Low-Level-Funktionen und das Skript c_rehash. Stattdessen sollen Nutzer openssl rehash verwenden.

Bei der API gibt es mehrere Änderungen, die Anpassungen im Anwendungscode erfordern können. Zahlreiche Funktionssignaturen tragen jetzt const-Qualifier, der Datentyp ASN1_STRING ist nun vollständig gekapselt – Zugriff auf seine internen Felder ist nur noch über Zugriffsfunktionen möglich. Auch die Ausgabe von Hex-Dumps wurde standardisiert: Signaturen werden in 24-Byte-Blöcken dargestellt, alle anderen Daten in 16-Byte-Blöcken. Das soll die Lesbarkeit verbessern und die Ausgabe konsistenter machen. Und veraltete Funktionen zur Zeitprüfung von Zertifikaten weichen der neuen Funktion X509_check_certificate_times(). Auch beim Laufzeitverhalten gibt es Änderungen: OpenSSL verzichtet künftig auf automatisches Aufräumen globaler Daten über atexit() und setzt stärker auf Standardfunktionen der C-Laufzeitbibliothek, etwa bei snprintf.

Für Entwickler und Betreiber bedeutet das Release mehr Sicherheit und modernere Kryptografie – bei gleichzeitig erhöhtem Migrationsaufwand. Anwendungen, die direkt auf OpenSSL-APIs zugreifen oder ältere Funktionen nutzen, müssen angepasst werden. OpenSSL 4.0 legt damit die Grundlage für den Übergang zu post-quantenresistenten Verfahren und besseren Datenschutz im TLS-Handshake. Details zum neuen Release finden sich auf der zugehörigen GitHub-Projektseite.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Beliebt