Datenschutz & Sicherheit
Verfassungsgericht: Staatstrojaner sind bei „Alltagskriminalität“ tabu
Das Bundesverfassungsgericht hat ein wegweisendes Urteil zum Ausmaß der heimlichen Überwachung im Internet gesprochen. Die Polizei darf Staatstrojaner demnach nicht mehr einsetzen, wenn eine verfolgte Straftat mit einer Höchstfreiheitsstrafe von drei Jahren oder weniger geahndet wird. Im Kampf gegen „Alltagskriminalität“ können Ermittler künftig also nicht mehr heimlich Software auf Computern, Smartphones oder anderen digitalen Geräten installieren, um Daten zu überwachen. Zugleich hat das höchste deutsche Gericht die gesetzliche Regelung zur heimlichen Online-Durchsuchung im Bereich der Strafverfolgung aus formalen Gründen für verfassungswidrig erklärt.
Eingriff zu stark
Die Karlsruher Richter argumentieren in ihrem jetzt veröffentlichten Urteil vom 24. Juni (Az.: 1 BvR 2466/19), dass der Eingriff in die Privatsphäre bei dieser Art der Überwachung sehr stark ist. Um diesen rechtfertigen zu können, muss die zu verfolgende Straftat ebenfalls von besonderer Schwere sein. Bei leichteren Delikten ist der Eingriff unverhältnismäßig. Der zuständige Erste Senat hat die entsprechenden Rechtsgrundlagen daher für nichtig erklärt.
Bei der Online-Durchsuchung bemängelt das Gericht einen rein formalen Fehler: das sogenannte Zitiergebot. Nach Artikel 19 des Grundgesetzes muss der Gesetzgeber genau angeben, welches Grundrecht er einschränkt. Bei der Online-Durchsuchung wies er aber nur auf das sogenannte IT-Grundrecht hin, nicht aber auf das separate Fernmeldegeheimnis aus Artikel 10 Grundgesetz, das ebenfalls betroffen ist. Die aktuelle Regelung bleibt laut dem Richterspruch zwar vorerst in Kraft, damit die Behörden weiter ermitteln können. Der Gesetzgeber muss sie jedoch zeitnah überarbeiten und grundsätzlich verfassungskonform ausgestalten.
StPO-Reform der Großen Koalition
Strafverfolger wie die Polizeien von Bund und Ländern dürfen prinzipiell im Rahmen ihrer alltäglichen Arbeit verschlüsselte Internet-Telefonate und Chats überwachen. Eine entsprechende Basis für die Quellen-TKÜ (Telekommunikationsüberwachung) schuf der Bundestag 2017 über eine Novelle der Strafprozessordnung (StPO) mit den Stimmen der damaligen Großen Koalition. Als Voraussetzung dafür gilt der breite Deliktkatalog aus Paragraf 100a StPO, der auch das Abhören klassischer Telefonate oder den Zugriff auf E-Mails regelt.
Die Liste fängt mit Mord und Totschlag an, reicht aber über Steuerdelikte, Computerbetrug, Hehlerei bis zum Verleiten von Flüchtlingen zum Stellen eines missbräuchlichen Asylantrags. Dieser Katalog sei zu lang und undifferenziert, hob das Verfassungsgericht nun hervor und schränkte ihn ein. Der Staat muss ihm zufolge die Verhältnismäßigkeit wahren. Er darf nicht mit dem „großen Hammer“ zuschlagen, um „kleine Delikte“ zu bekämpfen. Mit Blick auf den Strafrahmen einer Strafnorm liegt die besondere Schwere einer Straftat laut dem Urteil jedenfalls dann vor, wenn sie mit einer Höchstfreiheitsstrafe von mehr als fünf Jahren bedroht ist.
Die Ermittler erhielten mit der StPO-Reform zudem die Befugnis, beim Verdacht auf solche „besonders schweren Straftaten“ heimlich Festplatten und Rechner auszuspähen. Diese Klausel für Online-Durchsuchungen ist an den strikteren Paragrafen 100c StPO gekoppelt, der den großen Lauschangriff regelt. Unklar blieb, wie bei den Maßnahmen in der Praxis das vom Bundesverfassungsgericht im Streit um Computerwanzen 2008 entwickelte Grundrecht auf Vertraulichkeit und Integrität von IT-Systemen gewahrt bleiben soll. Die Opposition sprach von einem der „invasivsten Überwachungsgesetze der letzten Jahre“.
Zahlreiche Verfassungsbeschwerden
Gegen die StPO-Reform legten zahlreiche Organisationen und Einzelpersonen Verfassungsbeschwerde ein. Die Gesellschaft für Freiheitsrechte (GFF) und der Deutsche Anwaltverein (DAV) monierten 2018 etwa, der Gesetzgeber habe nicht definiert, wie ein Staatstrojaner auf Geräte gebracht werden dürfe. Vor allem die mögliche Infektion eines Zielrechners durch Ausnutzen von Sicherheitslücken sei gefährlich, da die Behörden dafür entsprechende Schwachstellen „horten“ könnten. Letztlich würden so Millionen Nutzer von IT-Systemen weltweit, die von einer dem Bund bekannten Lücke betroffen seien, „einem fortbestehenden Risiko von Cyber-Angriffen ausgesetzt“.
Zuvor hatten bereits FDP-Politiker und der Datenschutzverein Digitalcourage das Bundesverfassungsgericht in der Sache angerufen. Mit solchen Gesetzen ebne Schwarz-Rot den Weg „in einen autoritären Überwachungsstaat“, begründeten die Aktivisten ihre jetzt entschiedene Klage. Jeder, der digital kommuniziere, sei betroffen und könne die Beschwerde in Karlsruhe unterstützen.
In einer Gesamtschau begründe die Quellen-TKÜ einen sehr schwerwiegenden Eingriff sowohl in Artikel 10 als auch ins IT-System-Grundrecht, begründet der erste Senat seinen Spruch. Art und Umfang der heimlich und durch gezielte Umgehung von Sicherungsmechanismen erhobenen Daten wirkten schon für sich genommen Eingriffs-verstärkend, denn die Maßnahme ermögliche den Zugang zu einem Datenbestand, „der herkömmliche Informationsquellen an Umfang und Vielfältigkeit bei weitem übertreffen kann“.
Abgriff des „Rohdatenstroms“ ist gefährlich
Abgegriffen werden könne der „gesamte Rohdatenstrom“, erläutern die Richter. Das habe gerade unter den heutigen Bedingungen der Informationstechnik und ihrer Bedeutung für die Kommunikationsbeziehungen „eine außerordentliche Reichweite“. So wird mit den erfassten Datenströmen nicht nur eine unübersehbare Zahl von Formen elektronischer Kommunikation transportiert und der Auswertung zugeführt. Angesichts der allgegenwärtigen und vielfältigen Nutzung von IT-Systemen finde inzwischen auch zunehmend jede Art individuellen Handelns und zwischenmenschlicher Kommunikation in elektronischen Signalen ihren Niederschlag und werde so insbesondere durch Staatstrojaner erfasst. Dazu komme, dass die Integrität eines IT-Systems beeinträchtigt und deren Vertraulichkeit gefährdet werde.
Keinen Erfolg hatte Digitalcourage dagegen mit der Verfassungsbeschwerde von 2019 gegen die 2018 geschaffene Lizenz zum Einsatz von Staatstrojanern im Polizeigesetz Nordrhein-Westfalen (NRW). Die Datenschützer kritisierten hier, dass eine Funktionsbeschränkung des Instruments auf die Überwachung der laufenden Kommunikation technisch nicht möglich sei. Zudem würden zwangsläufig Sicherheitslücken ausgenutzt, um die Überwachungssoftware überhaupt auf dem Zielgerät installieren zu können. Die Voraussetzungen für solche Maßnahmen seien zudem zu weit gefasst.
NRW-Polizei darf Quellen-TKÜ weiter nutzen
Ebenfalls mit Beschluss vom 24. Juni (Az.: 1 BvR 180/23) entschied das Bundesverfassungsgericht hier: Die Polizei in NRW darf Staatstrojaner einsetzen, um schwere Straftaten wie Terrorismus zu verhindern, bei denen eine konkrete Gefahr für besonders wichtige Rechtsgüter wie Leib und Leben besteht. Die Richter sehen in diesem Fall die Verhältnismäßigkeit gewahrt, da die Befugnis an eine Mindestfreiheitsstrafe von zehn Jahren gebunden ist oder die Straftat einen terroristischen Hintergrund hat. Der Schutz der Öffentlichkeit vor solchen Bedrohungen wiege schwerer als der Eingriff in die Privatsphäre der Betroffenen.
Laut der aktuellen Statistik setzten Strafverfolger 2023 erneut mehr Staatstrojaner ein. Gerichte erlaubten demnach 116 Mal das Hacken von IT-Geräten – 2022 gab es 109 Anordnungen. Bundesinnenminister Alexander Dobrindt (CSU) will auch der Bundespolizei die Nutzung des Bundestrojaners erlauben.
(mack)
Datenschutz & Sicherheit
Def Con 34: Phishing as a Service – mit Microsoft
So einfach hat Keanu Nys von Spotit aus Belgien Microsofts Online-Login-Webseite umgebaut: Da Microsoft sein EntraID als universelles Login auch über verschiedene Tenants ermöglicht und das Password weiterhin als Klartext übermittelt, hat der Forscher aus dem offiziellen Login eine Phishing-Plattform gebaut, um an die Anmeldedaten von beliebigen Nutzern zu kommen.
Der Clou an der Sache: Durch die Möglichkeit, per CSS die Login-Page anzupassen und eigene Bilder einzublenden, kann man selbst MFA-Authentifizierungen problemlos erbeuten. Auch hier zeigt sich, dass Microsoft entschieden zu viele Kompromisse zuungunsten der Sicherheit und für mehr Features eingegangen ist, und dadurch das ganze MFA-System für Endanwender nicht identifizierbar beziehungsweise offen für Phishing-Angriffe gegen deren Microsoft ID gestaltet hat.
So fällt man auf micro-oft.com rein
Konkret hat Nys in seiner Def-Con-Präsentation gezeigt, dass man durch eine schlichte CSS-Anpassung, eigene Fonts und das Einblenden von Bildern in die Login-Page den User aus dem Tenant einfach täuschen kann. Aus „micro-oft.com“ wird „microsoft.com“, indem man den Bindestrich im Font durch ein „s“ ersetzt.
Durch Pass Through Authentication (PTA) können Angreifer anschließend prüfen, ob die erbeuteten Zugangsdaten gültig sind, und sie eine Session-ID erbeutet haben, mit der sie alle Dienste des Tenant (M365, Storage und mehr) nutzen können. Selbst MFA stellt dabei keine Hürde dar: Man generiert einfach alle „99“ möglichen Anfragen vor, und kann diese dann über ein Image einbinden. Dafür benötigt man aber zwei Tenants.
Alle „Phishing-Versuche“ kommen dabei von der offiziellen Microsoft-Domain. Sie lassen sich also nicht durch Firewalls, DNS-Filter und vergleichbare Security-Maßnahmen aufhalten. Es fällt schwer, sich vorzustellen, wie Microsoft diese Angriffe unterbinden will. Der einzige Ausweg bleibt, etliche Funktionen hart abzustellen und endlich zu sicheren Funktionen überzugehen.
(fo)
Datenschutz & Sicherheit
WordPress-Websites mit Plug-in UiCore Elements verwundbar
Das verwundbare WordPress-Plug-in UiCore Elements weist derzeit rund 40.000 aktive Installationen auf. Angreifer können an zwei Sicherheitslücken ansetzen, um diese Seiten zu attackieren. Eine reparierte Version verfügt über einen Patch.
Zwei Lücken geschlossen
Vor den Schwachstellen warnen Sicherheitsforscher von Wordfence in einem Beitrag. Mit UiCore Elements können Websitebetreiber ihre Seiten unter anderem optisch anpassen und mit Widgets ausstatten.
Aufgrund von unzureichenden Überprüfungen bei der Uploadfunktion können Angreifer ohne Authentifizierung Dateien mit sensiblen Informationen auf Servern einsehen (CVE-2025-6254 „hoch„). Zum Ausnutzen der zweiten Sicherheitslücke (CVE-2025-8081 „mittel„) müssen Angreifer bereits als Admin authentifiziert sein.
Zurzeit gibt es keine Hinweise, dass Angreifer die Schwachstellen bereits ausnutzen. Admins sollten aber nicht zu lange mit dem Patchen zögern. Die Version 1.3.1 ist abgesichert.
Zuletzt warnten die Sicherheitsforscher vor Angriffsversuchen auf das WordPress-Theme Alone.
(des)
Datenschutz & Sicherheit
Institut für Menschenrechte: Dringende Warnung vor Gesichtserkennung
Mit einem neuen Überwachungspaket will das CSU-geführte Innenministerium unter anderem mehr Befugnisse für biometrische Gesichtserkennung schaffen. Das heißt, Polizist*innen sollen viele Menschen auf einmal anhand ihres Gesichts identifizieren und verfolgen dürfen. Verkauft werden die Pläne als Sicherheitspaket. Zwanzig zivilgesellschaftliche Organisationen sehen Grundrechte in Gefahr und lehnen die Pläne ab.
Während nun die zuständigen Ministerien über den Entwurf beraten, hat das Deutsche Institut für Menschenrechte eine aufrüttelnde Untersuchung mit Warnungen und Empfehlungen vorgelegt. Das Institut wird vom Bundestag finanziert und beobachtet als unabhängige Institution die Lage der Menschenrechte in Deutschland.
Auf insgesamt 43 Seiten fassen die Menschenrechtler*innen die Gefahren durch biometrische Gesichtserkennung zusammen. So nennt man es, wenn man Menschen anhand ihrer einzigartigen Gesichtsmerkmale identifiziert. Das sind beispielsweise die Position und Abstände von Augen, Nase, Kinn und Ohren.
Die Expert*innen schildern in ihrer Studie auch die rechtlichen Grundlagen und beschreiben, wo Behörden die Technologie in Deutschland bereits einsetzen. Am Ende machen sie sechs Empfehlungen, für die CSU-Innenminister Alexander Dobrindt direkt das Hausaufgabenheft aufschlagen könnte. Wer sich nicht durch das ganze Papier wühlen möchte, findet hier die wichtigsten Fragen und Antworten.
Warum ist biometrische Gesichtserkennung besonders?
Viele dürften es seltsam finden, wenn sie immer ein Namensschild oder gar ihren Ausweis um den Hals tragen müssten. Doch mit biometrischer Gesichtserkennung wird das eigene Gesicht zu einer Art Ausweis. Man kann es nicht ablegen und nur schwer vor Kameras verbergen. Ob auf der Straße oder im Netz – wer sich nicht stark einschränken will, gibt sein Gesicht immer wieder potenzieller biometrischer Erfassung preis. Die Expert*innen vom Deutschen Institut für Menschenrechte schreiben:
Die Fähigkeit, Menschen aus der Ferne, ohne ihr Wissen und ihre Mitwirkung, zu identifizieren, macht Gesichtserkennung zu einem Sonderfall der biometrischen Identifizierung, die einschüchternde Wirkung entfalten kann.
Was macht Gesichtserkennung so gefährlich?
Aus der Studie des Instituts gehen gleich mehrere Gefahren hervor, die biometrische Gesichtserkennung besonders bedenklich machen. Zum Beispiel:
- Falsche Verdächtigungen: Gesichtserkennung basiert auf Software, die Ähnlichkeiten erkennt. Dabei passieren Fehler. Das heißt, bei der Suche nach einem Verdächtigen kann die Polizei schlicht die falsche Person ins Visier nehmen und verfolgen. In den USA ist genau so etwas schon öfter passiert: Nach Verwechslungen mussten Unbeteiligte aufs Revier.
- Diskriminierung: Gesichtserkennung funktioniert nicht bei jeder Person gleich gut. Gerade bei Frauen oder People of Color kann die Technologie mehr Fehler machen als bei weißen Männern. Den Forschenden zufolge stelle sich die Frage, ob der Einsatz der Technologie „gegen das grund- und menschenrechtliche Diskriminierungsverbot verstößt“.
- Profilbildung: Biometrische Gesichtserkennung muss nicht nur punktuell geschehen. Man kann auch Personen immer wieder an mehreren Orten erkennen und dadurch Rückschlüsse ziehen. Es kann viel über einen Menschen verraten, mit wem er zum Beispiel häufig auf Demos gesichtet wird, ob er oft im Bankenviertel auftaucht oder auf dem Weg zu einer psychiatrischen Klinik. Die Forschenden verzichten zwar auf konkrete Beispiele, warnen aber vor solcher Profilbildung.
- Einschüchterung: Allein das Wissen, dass Behörden per Kameras Gesichtserkennung betreiben und dass dabei Fehler passieren, kann Menschen verunsichern. Die Forschenden warnen deshalb vor Abschreckungseffekten („chilling effects“). Sie könnten dazu führen, dass Menschen „auf die Wahrnehmung etwa ihrer Meinungs- und Versammlungsfreiheit verzichten“. Konkretes Beispiel: Sie trauen sich nicht mehr auf eine Demo.
Hat die KI-Verordnung nicht schon alles geregelt?
Leider nein. Die EU hat ihre Chance verpasst, biometrische Gesichtserkennung umfassend zu verbieten. Die KI-Verordnung (AI Act) formuliert nur rote Linien, die Mitgliedstaaten bei biometrischer Gesichtserkennung nicht überschreiten dürfen. Deutschland und andere EU-Staaten können aber weiterhin ihre eigenen Regeln schreiben – oder gar entscheiden, die Technologie für illegal zu erklären.
Noch Anfang 2024 äußerten Bundestagsabgeordnete der Ampel den Wunsch, dass Deutschland seinen Spielraum aus der KI-Verordnung nicht ausreizt und etwa biometrische Echtzeit-Überwachung verbietet. Doch das ist Schnee von gestern. Bei der schwarz-roten Bundesregierung stehen die Zeichen nicht auf weniger Überwachung, sondern auf mehr.
Wie viel Spielraum hat Deutschland bei Gesichtserkennung?
Der Spielraum für biometrische Gesichtserkennung in Deutschland ist aus vielen Richtungen begrenzt. Das Institut für Menschenrechte beschreibt eine Art Slalom entlang mehrerer Vorschriften und Grundrechte.
- Schon aus dem Recht auf Privatsphäre ergeben sich der Studie zufolge hohe Hürden für Gesichtserkennung. „Bereits die Speicherung von Lichtbildern, verbunden mit der bloßen Möglichkeit einer Gesichtserkennung, greift in das Menschenrecht auf Privatsphäre ein“, warnen die Forschenden.
- Konkretere Einschränkungen liefert die KI-Verordnung selbst. Für Gesichtserkennung in Echtzeit sind die Hürden höher. Hier müssen Behörden etwa Folgen für Grundrechte abschätzen und brauchen vor jeder Verwendung eine Genehmigung, etwa durch ein Gericht. Bei nachträglicher Gesichtserkennung wird die KI-Verordnung jedoch laxer – und es ist nicht einmal klar definiert, ab wann der Einsatz als nachträglich gilt.
- Ein System zur Gesichtserkennung braucht eine Datenbank, um Gesichter abzugleichen und Personen zuzuordnen. Kommerzielle Anbieter wie PimEyes oder Clearview AI, die Milliarden Gesichter kennen, kommen der Studie zufolge für Behörden jedoch nicht in Frage. Die KI-Verordnung verbietet nämlich Datenbanken, die ungezielt Gesichtsbilder aus dem Internet auslesen. Eine Alternative sind staatliche Lichtbilddatenbanken. Dort liegen die Bilder von erkennungsdienstlich registrierten Personen – darunter Tatverdächtige und Asylsuchende.
- Dann gibt es noch die EU-Richtlinie zum Datenschutz bei Polizei und Strafjustiz, kurz: JI-Richtlinie. Ähnlich wie die Datenschutzgrundverordnung (DSGVO) beschreibt die Richtlinie biometrische Daten als besonders schützenswert. „Deren polizeiliche Verarbeitung ist demnach nur dann erlaubt, wenn sie unbedingt erforderlich ist“, fasst die Studie zusammen.
- Sollte das Thema einmal beim Bundesverfassungsgericht landen, dürfte es den Richter*innen wohl ums Recht auf informationelle Selbstbestimmung gehen. Die Forschenden erinnern an ältere Rechtsprechung zur Kfz-Kennzeichenkontrolle. Ob nun Autokennzeichen erfasst werden oder Gesichter – die Situation ist vergleichbar. Schon damals habe das Gericht festgestellt, dass „jeder einzelne Datenverarbeitungsvorgang grundsätzlich einen Grundrechtseingriff“ darstelle.
Längst zeigen Fälle und Pilotprojekte aus den Bundesländern, wie Behörden einfach mal loslegen. Bereits 2020 hatte das BKA nach Protesten zum G20-Gipfel in Hamburg Gesichtserkennung eingesetzt. Das Land Hessen will Gesichtserkennung am Hauptbahnhof Frankfurt/Main haben. Das Land Sachsen hat Gesichtserkennung in der Region Görlitz genutzt – zum Ärger der Landesdatenschutzbeauftragten, die das für teils verfassungswidrig hielt. Einige der Beispiele tauchen auch in der Studie auf. Die Forschenden warnen vor der „rapiden Entwicklung“.
Was empfehlen die Menschenrechtsexpert*innen?
Trotz ihrer Warnungen lehnen die Forschenden biometrische Gesichtserkennung nicht generell ab. Das unterscheidet sich von der Position einiger zivilgesellschaftlicher Institutionen, die sich schlicht für den Stopp der Technologie stark machen. Ein klares Nein könnte jahrelange Unsicherheit und Rechtsstreitigkeiten vermeiden.
Die Menschenrechtler*innen formulieren stattdessen sechs teils dringliche Empfehlungen. An ihnen kann sich Schwarz-Rot messen lassen.
- Zuerst signalisieren die Forschenden Halt, Stopp!, wenn auch in anderen Worten. Sie warnen vor „erheblichen rechtlichen und ethischen Fragen“ und halten es für „unerlässlich, diese Technologie nicht vorschnell einzuführen“. Stattdessen empfehlen sie, zuerst Fachleute an die Sache heranzulassen. Es braucht demnach eine „Enquete-Kommission mit Vertreter*innen aus Polizei, Daten- und Diskriminierungsschutz, Zivilgesellschaft und Wissenschaft“, um das Thema öffentlich zu diskutieren.
- Zweitens soll es erst einmal nicht mehr, sondern weniger Gesichtserkennung geben. Der Zugriff der Polizei auf bereits bestehende staatliche Gesichtsdatenbanken soll beschränkt werden, und zwar „dringend“, wie die Forschenden schreiben. Es brauche „klar normierte, anlassbezogene Suchen“, um „unverhältnismäßige Eingriffe in die Privatsphäre zu vermeiden“.
- Drittens empfehlen die Forschenden ein Verbot von „digitaler polizeilicher Beobachtung“. Hier geht es darum, dass Gesichtserkennung nicht punktuell ist, sondern eben auch Material für umfangreiche Persönlichkeitsprofile liefern könnte.
- Viertens soll den Forschenden zufolge biometrische Gesichtserkennung unter Richtervorbehalt gestellt werden. Das sieht die KI-Verordnung nur bei Gesichtserkennung in Echtzeit vor, nicht aber bei nachträglicher Erkennung. Deutschland darf das jedoch strenger regeln.
- Fünftens verlangen die Forschenden Transparenz bei polizeilicher Gesichtserkennung, „damit eine demokratische Kontrolle gewährleistet ist“. Das Institut für Menschenrechte empfiehlt Bund und Ländern, dass sie auch öffentlich einsehbar machen, welche Systeme sie für den Einsatz registrieren. Laut KI-Verordnung müssten sie das nicht öffentlich tun.
- Zuletzt sollte Gesichtserkennung den Menschenrechtler*innen zufolge nicht bis auf Weiteres eingeführt werden, sondern allenfalls für begrenzte Zeit. Danach könne man prüfen, neu bewerten und „idealerweise“ die Folgen für Grundrechte abschätzen.
Wie geht es jetzt weiter?
Das CSU-Innenministerium hat mit seinen Referentenentwürfen den ersten Schritt gemacht. Falls sich die schwarz-rote Regierung auf einen gemeinsamen Entwurf einigt, wären als nächstes Bundestag und Bundesrat an der Reihe.
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 2 Monaten
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Social Mediavor 2 Monaten
Aktuelle Trends, Studien und Statistiken
-
Apps & Mobile Entwicklungvor 2 Monaten
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen