Datenschutz & Sicherheit
Das lass‘ ich mir nicht nehmen
Was ist das für ein Grauen, wenn jemand sexualisierte Deepfakes, die vermeintlich dich zeigen, an Männer in deinem Umfeld schickt? Wie schlimm muss es sein, wenn diese Videos und Bilder auf Pornoplattformen landen? Was sagt es über unsere Gesellschaft aus, wenn es nicht verboten ist, solche Aufnahmen herzustellen und zu teilen?
Seit die Geschichte im Spiegel über Collien Fernandes erschien, herrscht große Fassungslosigkeit. Obwohl schon seit Jahren bekannt ist, dass solche Deepfakes von Fernandes im Umlauf sind. Und dass solche Bildern auch von sehr vielen anderen kursieren, vor allem von Frauen und Mädchen.
Doch Fernandes schafft, was sonst nur den allerwenigsten Betroffenen dieser Grausamkeiten gelingt: Ihr wird zugehört. Sie spricht offen von Panikattacken, von Scham, dem Gefühl von Wertlosigkeit. Und von einer „virtuellen Vergewaltigung“.
Die Hölle sind die Anderen
Zu dem Grauen, das Fernandes‘ Geschichte offenbart, gesellte sich in den vergangenen Tagen ein weiteres: das über die Reaktionen. Diese findet man nicht nur in den Abgründen der rechten Höllenmaschine, zu der die Plattform X wurde. Sie stehen auch in den Kommentaren unter den Beiträgen, die wir in den vergangenen Tagen veröffentlicht haben.
„Wenn sexuelle Deepfakes ohne Einverständnis verbreitet werden und daraus eine psychische Schädigung der betroffenen Person entsteht, sollte dies strafbar sein“, schreibt da jemand. Für die „reine Herstellung ohne Verbreitungsabsicht“ sehe man diese Notwendigkeit aber nicht. Das schade schließlich niemandem.
Es ist nicht der einzige Kommentar dieser Art. Viele weitere, darunter auch weitaus derbere, haben wir gar nicht erst freigeschaltet. Der Tenor ist bei allen der gleiche. Überspitzt lässt er sich so zusammenfassen: Was soll so schlimm daran sein, wenn ich in meiner Freizeit einen Deepfake-Porno für mein eigenes Vergnügen bastele? Das steht mir doch wohl zu – Zustimmung hin oder her.
Wenn man den Kommentatoren diese kleine Freude nehmen würde, geht der Gedanke weiter, könne man ja gleich anfangen, Fantasien zu verbieten. Tatütata, ruf doch die Gedankenpolizei.
Checkst du?
Tatsächlich hat das Bundesjustizministerium einen Gesetzentwurf vorgelegt, der zwar schon länger in Arbeit war, nun aber im Eiltempo abgestimmt werden soll. Dieses Gesetz gegen digitale Gewalt soll bereits das Erstellen von sexualisierten Deepfakes unter Strafe stellen. Immer unter der Voraussetzung, dass dies ohne die Zustimmung der gezeigten Personen erfolgt.
Mal ganz abgesehen davon, ob es eine gute Idee ist, so etwas über das Strafrecht regeln zu wollen – es gibt berechtigte Zweifel daran –, wird derzeit vor allem eines deutlich: Genau diese „Freiheit“ wollen sich viele nicht nehmen lassen.
Ich saß in den vergangenen Tagen oft fassungslos vor dem Computer, wenn ich diese Kommentare in meiner Inbox las. Minutenlang nicht mal in der Lage, auf Löschen zu drücken. Mit jeder Nachricht offenbarten die Kommentierenden ja auch etwas über sich selbst. Und diese Selbstoffenbarungen waren für mich wie der Blick in einen sehr tiefen Abgrund.
Merken sie denn nicht, wie empathielos und surreal ihre Haltung wirkt? Insbesondere für all jene, die weiter unten im patriarchalen Machtgefüge stehen?
In den vergangenen Tagen zeigten sehr viele Medienbeiträge doch vor allem eines deutlich: Digitale Gewalt ist echte Gewalt. Das Leid und die Folgen, die solche Handlungen für die Betroffenen haben, liegen gerade so deutlich auf dem Tisch wie selten zuvor.
Wer darf was mit wem?
Es ist mehr als ausreichend dokumentiert, dass die Vorstellung falsch ist, mit sexualisierten Deepfakes keinen Schaden zu verursachen. Die psychischen und körperlichen Folgen für die Betroffenen, die Panik, der Stress, die Angst – sie sind real. Ja, sie sind ähnlich wie bei anderen Gewalterfahrungen, der Körper unterscheidet da nicht.
Wer das ignoriert, gibt viel über das eigene Innenleben preis. Diese Haltung zeigt zugleich, was das eigentliche Problem ist: Es gibt Menschen, die offenbar glauben, es stünde ihnen zu, Gewalt auszuüben.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
Sie gehen davon aus, dass es ihr gutes Recht ist, das Aussehen von Frauen und Mädchen nicht nur zu bewerten und zu kommentieren, wie es in unserer Gesellschaft noch immer üblich ist. Sondern dass sie deren Körper darüber hinaus ungefragt zu ihrem Vergnügen verwenden dürfen. Ganz nach dem Motto: Das ist im Patriarchat normal, das haben wir so gelernt.
Sie rechtfertigen sich dann etwa damit, dass es wohl kaum ein Unterschied mache, ob sie sich etwas in ihrem Kopf ausmalten oder ob sie auf einen Knopf drücken würden, um diese Fantasien zu visualisieren.
Aber sexualisierte Bilder entstehen gegen den Willen der Betroffenen. Allein diese Vorstellung, dass Menschen sexualisierte Deepfakes nach Belieben herstellen können, kann für Betroffene beschämend und demütigend sein. Die Verletzung ist noch größer, wenn die Bilder an andere Personen oder gar an die Öffentlichkeit gelangen und sich unkontrolliert weiterverbreiten.
Es geht um Macht
In der aktuellen Debatte muss sich endlich eine Erkenntnis durchsetzen, zu der Feministinnen schon in ihren Analysen zu #metoo und anderen Formen von Machtmissbrauch gelangt sind. Eine Erkenntnis, die immer noch als eine Art Geheimwissen gehandelt wird:
Sexualisierte Gewalt – analog oder in Form von digitalen Deepfakes – hat nichts mit Sex zu tun. Sondern sie handelt von Macht. Eine Person übt sie über eine andere Person aus, etwa indem sie ihr Gesicht ungefragt auf den Körper einer Pornodarstellerin montiert. Die im Übrigen auch nicht gefragt wurde.
Wenn Menschen also bezweifeln, ob digitale Gewalt wirklich so schlimm sei; ob der Schaden, der von Deepfakes ausgeht, wirklich echt sei; oder ob es strafbar sein sollte, ein sexualisiertes Bild ohne die Zustimmung der gezeigten Person zu generieren oder zu teilen – dann streiten wir um Macht. Wer hat sie? Wem steht sie zu? Wer soll sie abgeben?
Ein Blick in die Kommentarspalte zeigt, wie lang die Strecke ist, die wir in diesem Kampf noch vor uns haben.
Datenschutz & Sicherheit
OpenAI: Neues Bug-Bounty-Programm für Datensicherheit gestartet
Damit Angreifer durch Prompt-Injection in etwa OpenAIs ChatGPT-Agent kein Schindluder treiben können, hat das Softwareunternehmen nun ein weiteres Bug-Bounty-Programm zur Steigerung der Datensicherheit öffentlich gestartet. Zuvor konnten Sicherheitsforscher nur auf Einladung teilnehmen.
Weiterlesen nach der Anzeige
Datenschutz
Einem Beitrag zufolge haben die Verantwortlichen das neue Safety-Bug-Bounty-Programm parallel als Ergänzung zum Security-Bug-Bounty-Programm zum Auffinden von Sicherheitslücken ins Leben gerufen.
Primär geht es OpenAI um die Sicherheit von KI-Agenten. Finden Teilnehmer des Programms Möglichkeiten, ChatGPT über Prompts sensible Nutzerdaten zu entlocken, ist das ein valider Fall, der mit einer Geldprämie belohnt wird.
Dafür müssen sich Sicherheitsforscher aber an bestimmte Regeln halten. So muss etwa das Verhalten, das ein Datenleck auslöst, mindestens in 50 % der Fälle reproduzierbar sein. Dafür müssen Teilnehmer unter anderem detaillierte Schritt-für-Schritt-Anleitungen abliefern. Natürlich dürfen dabei keine rechtlichen Überschreitungen stattfinden.
Hohe Geldprämien
Je nach Schweregrad der Schwachstelle winken 250 bis 5500 US-Dollar als Preisgeld. Bislang wurden der Projektseite auf der Bug-Bounty-Plattform Bugcrowd zufolge zwei Fälle mit einer Prämie belohnt – das Programm ist ja erst seit Kurzem öffentlich verfügbar. Beim Bug-Bounty-Programm für Sicherheitslücken sind bereits 416 Fälle dokumentiert und es wurden im Durchschnitt Prämien in Höhe von rund 590 US-Dollar ausgeschüttet. An dieser Stelle sind maximal 100.000 US-Dollar drin. Aber auch hier müssen Sicherheitsforscher für eine erfolgreiche Teilnahme viele Regeln und Voraussetzungen beachten.
Weiterlesen nach der Anzeige
(des)
Datenschutz & Sicherheit
„Brutaler Manchesterkapitalismus, der die Rechte von Arbeitnehmern aushöhlt“

Lieferdienste wie Wolt oder Lieferando stehen in der Kritik, um den Platz des schlechtesten Arbeitgebers zu buhlen. Das Rennen nimmt an Fahrt auf, seit die Plattformen ihre Fahrer*innen nicht mehr selbst anstellen, sondern über Subunternehmen. Bei Subunternehmen haben Fahrer*innen oft nicht mal Arbeitsverträge oder müssen mehrere hundert Euro zahlen, um einen Vertrag zu bekommen. Ausbleibende Lohnzahlungen, fristlose Entlassungen und keine Elternzeit sind andere arbeitsrechtliche Verstöße, von denen Fahrer*innen berichten.
Die EU hat im April 2024 die Richtlinie zur Verbesserung der Arbeitsbedingungen in der Plattformarbeit verabschiedet. Die Richtlinie soll die Arbeitsstandards für Tätigkeiten verbessern, die über eine digitale Arbeitsplattform organisiert werden. Der dritte Artikel der Richtlinie sieht es als Aufgabe der Mitgliedstaaten vor, Maßnahmen explizit zum Schutz der Fahrer*innen zu erlassen, die bei Subunternehmen angestellt sind.
Bis zum 02. Dezember 2026 ist die Bundesregierung verpflichtet, ein nationales Gesetz aus der Richtlinie zu formulieren. Doch wie wirksam werden mögliche Schutzmaßnahmen sein und wie kann das deutsche Arbeitsrecht an algorithmisches Management angepasst werden? Das hat netzpolitik.org den Rechtsanwalt Martin Bechert gefragt, der in diesem Feld tätig ist.
Bei Subunternehmen sind die Erfolgsaussichten gering
netzpolitik.org: Martin Bechert, Sie sind Anwalt für Arbeitsrecht, Sie vertreten den Betriebsrat von Lieferando in Berlin und Kurierfahrer*innen gegenüber Plattformen vor Gericht. Worum geht es dabei?
Martin Bechert: Im Fall des Betriebsrat geht es häufig um Mitbestimmungsrechte, die die Plattformen verletzen. Bei den Fahrern geht es fast durchgängig um Kündigungen oder Entgelte, die nicht gezahlt wurden.
netzpolitik.org: Haben Sie auch Fahrer*innen vertreten, die bei Subunternehmen angestellt sind?
Martin Bechert: Ja. Bei den Personen, die bei Subunternehmen angestellt waren, war das Hauptproblem, dass die Unternehmen keinen Lohn gezahlt haben. Erst vor Gericht haben die Betroffen erfahren, bei wem sie angestellt sind. Wenn sie zum Beispiel mit der App von Wolt gefahren sind, haben sie Wolt verklagt. Die Plattform hat ihnen dann vor Gericht erklärt, bei welchem Subunternehmer sie angestellt waren.
Deswegen sind die Erfolgsaussichten für Fahrer, die bei Subunternehmen angestellt sind, leider gering. Die Plattformen nutzen die Auslagerung als Mittel, um ihre Arbeitgeberpflichten zu umgehen. Und an die Subunternehmen kommt man über den Rechtsweg kaum ran, weil es oft irgendwelche zwielichtigen Briefkastenfirmen sind.
netzpolitik.org: Wie werden Arbeitnehmerrechte von Subunternehmen missachtet?
Martin Bechert: Ich kenne kein Subunternehmen, das seine Mitarbeiter tatsächlich fair behandelt oder alle arbeitsrechtlichen Vorgaben erfüllt. Das ist mir in meiner Praxis noch nicht vorgekommen. Subunternehmen sind ein klassischer Fall, in dem Schwarzgeld erarbeitet wird. Die Unternehmen leisten keine Sozialabgaben, zahlen keinen Mindestlohn und auch keine Steuern.
netzpolitik.org: Warum lagern Plattformen ihre Fahrer*innen überhaupt auf Subunternehmen aus?
Martin Bechert: Die Lieferdienste sagen, sie müssten flexibel sein. Aber das ist ein vorgeschobener Grund. Flexibel könnte man auch mit einem Pool aus Springern oder durch einen Bereitschaftsdienst sein. Aber hier wird auf beinahe sklavenartige Systeme zurückgegriffen. Das kann mit wirtschaftlichen Druck wirklich nicht gerechtfertigt werden.
netzpolitik.org: Wie können solche Strukturen überhaupt existieren?
Martin Bechert: Solche Strukturen existieren, weil staatliche Aufsichtsbehörden ihre Vorgaben und Verbote nicht richtig durchsetzen. Subunternehmen bilden kriminelle Strukturen, die bis zur organisierten Kriminalität reichen. Für manche politischen Entscheidungsträger handelt es sich bei Kurieren scheinbar um Menschen zweiter Klasse. Sonst wäre schon längst etwas gegen diese Strukturen passiert.
Außer einer Direktanstellung sind alle Maßnahmen Flickschusterei
netzpolitik.org: Laut des dritten Artikels der EU-Plattformarbeitsrichtlinie müssen Arbeitnehmer*innen, die bei Subunternehmen angestellt sind, “denselben Schutz gemäß dieser Richtlinie genießen wie jene, die in einem unmittelbaren Vertragsverhältnis” mit einer Plattform stehen. Wie kann dieser Schutz aussehen?
Martin Bechert: Diese Formulierung umfasst einen sehr beschränkten Rahmen. Es geht nicht darum, Fahrer auf einmal direkt bei Plattformen anzustellen. Eigentlich geht es nur darum, einen Rahmen zu schaffen, der Fahrern ermöglicht sich an die Plattformen zu wenden, die für ihre Löhne haften. Für den Fall, dass die Subunternehmen, bei denen sie angestellt sind, Löhne nicht zahlen. Das nennt sich gesamtschuldnerische Haftung und ist in der EU-Plattformarbeitsrichtlinie als mögliche Maßnahme vorgesehen. Sozial- und Steuerabgaben können Subunternehmen dann trotzdem noch umgehen.
netzpolitik.org: Wie sieht es mit weiteren Arbeitnehmerrechten aus wie Mutterschutz, Kündigungsschutz oder Arbeitszeitregelungen?
Martin Bechert: “Derselbe Schutz” wie bei einer Direktanstellung bezieht sich nur auf den Lohn. Andere Arbeitnehmerrechte, dazu gehören auch Gesundheitsschutz oder Datenschutz, fallen nicht darunter. Die Beschäftigungssituation wird also katastrophal bleiben.
netzpolitik.org: Wenn sich aber Plattformen bisher jeglicher Arbeitgeberverantwortung entziehen und Angestellte, die zum Beispiel versuchen einen Betriebsrat zu gründen, versuchen zu kündigen, wird es für Einzelpersonen praktisch überhaupt möglich sein, Lohnansprüche gegenüber der Plattform durchsetzen?
Martin Bechert: Bei Subunternehmen werden Fahrer derzeit sogar nicht mal gekündigt, sie fliegen einfach aus der App. Fahrer sind gegenüber den Plattformen und Subunternehmen in einer viel schwächeren Position. Mit der gesamtschuldnerischen Haftung gäbe es eine Chance, fehlende Lohnzahlungen gegenüber der Plattform einzuklagen. Trotzdem ist der Ansatz Flickschusterei. Um arbeitsrechtliche Verstöße zu vermeiden, würde nur eine Direktanstellung an die Plattformen tatsächlich was nützen.
Mit der Bundesregierung wird kein Direktanstellungsgebot kommen
netzpolitik.org: Arbeitsministerin Bärbel Bas wollte ein Verbot von Subunternehmen prüfen, aber gegenüber dem rbb sagte das Bundesarbeitsministerium, ein Direktanstellungsgebot sei das letzte Mittel. Wird die nationale Plattformarbeitsrichtlinie so ein Gebot enthalten?
Martin Bechert: Nein, das Direktanstellungsgebot wird nicht kommen. Bei der europäischen Richtlinie haben die Plattformen gute Lobbyarbeit geleistet, weshalb das Schutzniveau immer weiter gesenkt wurde, bis es das Problem nicht wirklich lösen wird.
Die Bundesregierung sollte als nächsten Schritt die gesamtschuldnerische Haftung sauber umsetzen, dann haben wir immerhin das. Positiv hervorzuheben sind die in der Richtlinie vorgeschriebenen Transparenzrechte. Wir werden dadurch hoffentlich mehr Einsicht in die algorithmischen Systeme bekommen. Diese Systeme entscheiden zum Beispiel darüber, welcher Fahrer welchen Auftrag bekommt.
netzpolitik.org: In Diskussionen über ein Direktanstellungsgebot werden Parallelen zur Fleischindustrie gezogen. Arbeitnehmer*innen müssen seit dem 2020 beschlossenen Arbeitsschutzgesetz direkt im Betrieb angestellt sein. Ein Grund dafür war zum Beispiel, dass sich die Branche oder Teilbranche rechtssicher abgrenzen lässt. Ist dieses Argument bei Lieferdiensten erfüllt?
Martin Bechert: Solche formellen Argumente sind Scheinargumente. Natürlich ließe sich das erfüllen. Wenn die gesamtschuldnerische Haftung umgesetzt wird, können wir den kriminellen Strukturen jahrelang weiter zuschauen, bis der Fall wieder in die EU geht und dann haben wir in zehn Jahren vielleicht ein Direktanstellungsgebot. Das Schutzmaßnahmen der EU-Richtlinie werden nicht ausreichen, wie sich zeigen wird. Das ist meine feste Überzeugung.
Arbeitsbedingungen in der Lieferbranche sind bekannt
netzpolitik.org: Dann ist die Verbesserung der Arbeitsbedingungen eine Frage des politischen Willens?
Martin Bechert: Ja, so ist es. Es ist eine Frage des politischen Willens und nicht eine Frage der Tatsachen. Die Tatsachen liegen offen da. Kein Mensch kann sagen, die Arbeitsbedingungen bei Subunternehmen seien gut oder annähernd gesetzmäßig.
Wir sind communityfinanziert
Unterstütze auch Du unsere Arbeit mit einer Spende.
netzpolitik.org: Was antworten Sie auf das Argument, ein Direktanstellungsgebot sei keine geeignete Maßnahme, weil es einen starken Eingriff in den freien Markt darstellen würde. Rechtlich sind Subunternehmen ja erlaubt.
Martin Bechert: Wir wollen den Markteingriff, weil der Markt nicht funktioniert. Der Eingriff ist notwendig, weil wir es mit einem brutalem Manchesterkapitalismus zu tun haben, der die Rechte von Arbeitnehmern aushöhlt.
Der Arbeitnehmerbegriff und der Betriebsbegriff im Arbeitsrecht müssen reformiert werden
netzpolitik.org: Können sich Fahrer*innen bei Rechtsverletzungen auf deutsches Arbeitsrecht berufen?
Martin Bechert: Der Sinn des Arbeitsrechts ist es diejenigen zu schützen, die von ihrem Arbeitgeber schwer abhängig sind. Das sind die Arbeitnehmer. Im deutschen Arbeitsrecht stehen wir dabei vor zwei großen Problemen.
Das erste Problem ist der Arbeitnehmerbegriff. Schauen wir auf einen Uberfahrer. Wir sehen, der braucht Schutz, aber er gilt nicht als Arbeitnehmer, sondern als Selbstständiger. Warum ist der nicht Arbeitnehmer? Der Arbeitnehmerbegriff muss deswegen erweitert werden und zwar um den Schutzaspekt, der zweckmäßig ist, um eine Tätigkeit ausführen zu können.
Das zweite Problem betrifft den Betriebsbegriff. Der Arbeitgeber darf bestimmen, wo Arbeitnehmer ihre Vertretung, den Betriebsrat, wählen. Warum ist das so? Das Bundesarbeitsgericht argumentiert, dass ein Betriebsrat nur dort mitbestimmen kann, wo eine Leitung Entscheidungen trifft.
Aber was ist, wenn es keine Vorgesetzten mehr gibt, weil alles algorithmisch gesteuert wird? So ist es bei Lieferando in vielen Städten der Fall. Dann haben alle Arbeitnehmer einen Betriebsrat und zwar den am Betriebssitz. Ein Betriebsrat soll nach der Betriebsverfassung aber aus Kollegen bestehen, die sich vor Ort um die lokalen Arbeitsverhältnisse kümmern. Welchen Nutzen hätte es für sämtliche Fahrer aus Freiburg, wenn sie beispielsweise in Berlin vertreten werden?
Arbeitnehmer sollten deswegen bestimmen dürfen, wie sie ihre Vertretung organisieren. Wenn Fahrer in Freiburg beschließen einen Betriebsrat zu gründen, dann muss der Arbeitgeber eben jemanden dorthin stellen, der verhandeln darf. Der Betriebsbegriff müsste dahingehend angepasst werden.
netzpolitik.org: Würde man so einen Betriebsbegriff definieren, wäre es dann egal, ob der Arbeitgeber ein algorithmisches Management oder eine physische Person ist?
Martin Bechert: Ja, das wäre egal, weil ein grundsätzliches Recht geschaffen wäre.
netzpolitik.org: Aber an Subunternehmerstrukturen kommt das Arbeitsrecht nicht ran?
Martin Bechert: Diese Subunternehmerstrukturen sind Verhältnisse, bei denen ich es für unrealistisch halte, dass sich ein Betriebsrat gründen oder eine Gewerkschaft tätig werden kann. Solange diese Strukturen bestehen, gibt es bestenfalls Arbeitsverhältnisse zweiter Klasse, eher wahrscheinlich sind Verhältnisse in einem kriminellen Umfeld.
Rechte von heute sichern Rechte für morgen
netzpolitik.org: Sind diese Fragen zum Arbeitnehmerschutz in Zeiten algorithmischen Managements auch für andere Branchen relevant?
Martin Bechert: Diese Lieferdienstbranche ist ein arbeitsrechtliches Labor, von dem Leute denken, es würde sie nicht betreffen. Aber algorithmisches Management wird es zukünftig in vielen Bereichen geben. Heute kommt eine Bestellung algorithmisch gesteuert vom Restaurant zum Kunden, morgen werden die Krankenschwester oder der Chirurg im Krankenhaus algorithmisch koordiniert. Wenn man sich jetzt um die Rechte von Fahrern kümmert, sichert man sich oder seinen Kindern zukünftig Rechte.
Datenschutz & Sicherheit
KI-Agenten finden auf GitHub Schwachstellen in Bash, PHP und Dockerfiles
Weiterlesen nach der Anzeige
GitHub hat KI-Unterstützung für die Suche nach Schwachstellen im Code angekündigt. Eine erste Preview soll Anfang des zweiten Quartals erscheinen.
Der KI-Agent ergänzt das aktuelle Tool zur statischen Codeanalyse, das datenbankgestützte CodeQL, das auf wenige große Sprachen wie Java, TypeScript, Python oder Go begrenzt ist. Nun soll auch das Prüfen von Bash, Dockerfiles, HCL (HashiCorp Configuration Language, u.a. für Terraform), PHP und weiteren möglich sein. Der Agent soll insbesondere Codeprobleme finden wie Datenbankbefehle und SQL-Abfragen aus beliebigen Strings, schwache kryptografische Implementierungen oder die Preisgabe von Konfigurationen der Infrastruktur.
In der Ankündigung beschreibt GitHub, dass der Sicherheitsmechanismus automatisch bei neuen Pull-Requests in Aktion tritt und entscheidet, ob eine Analyse per CodeQL-Abfrage oder per KI-Agent abläuft. Das Ergebnis findet sich innerhalb des Pull-Requests und lässt sich mit der Funktion Autofix sofort bereinigen.
(who)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 4 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Künstliche Intelligenzvor 1 Monat
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 3 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
-
Künstliche Intelligenzvor 3 MonateneHealth: iOS‑App zeigt Störungen in der Telematikinfrastruktur
