Künstliche Intelligenz
Warum humanoide Roboter ihre eigenen Sicherheitsregeln brauchen
Im vergangenen Jahr wurde erstmals ein humanoider Lagerroboter namens Digit für die Handhabung von Kartons bei der US-Firma Spanx eingesetzt. Digit kann Pakete mit einem Gewicht von bis zu 16 Kilogramm zwischen Rollwagen und Förderbändern heben und so seinen menschlichen Kollegen einige der schweren Aufgaben abnehmen. Er arbeitet in einem begrenzten, definierten Bereich, der durch Wände oder Lasersperren von den menschlichen Mitarbeitern getrennt ist.
Und das ist auch notwendig: Digit steht zwar normalerweise sicher auf seinen Roboterbeinen, es kommt aber auch vor, dass er stürzt. Dann funktioniert die charakteristische Rückwärtsbeugung seiner mechanischen Knie nicht. Auf einer Messe im März schien er beispielsweise über einen längeren Zeitraum geschickt Kartons zu transportieren. Dann brach der Humanoide plötzlich zusammen und landete auf dem Betonboden. Alles, was er gerade trug, fiel natürlich ebenfalls herunter.
Verletzungsgefahr durch humanoide Roboter
Das Risiko, dass solche Fehlfunktionen in der Nähe von Menschen auftreten, ist also durchaus vorhanden – und es kann gefährlich werden. Niemand möchte unter einer 1,80 Meter großen und 65 Kilogramm schweren Maschine begraben werden. Dass ein Roboterarm versehentlich auf eine empfindliche Körperstelle trifft, wäre ebenfalls sehr unangenehm. „Die Kehle ist ein gutes Beispiel“, sagt Pras Velagapudi, Chief Technology Officer von Agility Robotics, dem Hersteller von Digit. „Wenn ein Roboter die treffen würde, selbst mit dem Bruchteil der Kraft, die er zum Tragen einer 22 Kilogramm schweren Tragetasche benötigt, könnte er eine Person schwer verletzen.“
Physische Stabilität humanoider Roboter – also die Fähigkeit, nicht umzukippen – gehört dementsprechend zu den wichtigsten Sicherheitsanliegen eines Projekts, das neue Standards für humanoide Roboter erarbeitet. Die Humanoid Study Group der Ingenieursorganisation IEEE argumentiert, dass sich Humanoide in wesentlichen Punkten von anderen Automaten wie Industrierobotern oder bestehenden mobilen Robotiksystemen unterscheiden. Sie machen daher neue Standards notwendig, um die Sicherheit von Bedienpersonal, Endnutzern und der Öffentlichkeit zu gewährleisten.
Die Gruppe hat ihre Ergebnisse gegenüber der US-Ausgabe von MIT Technology Review erstmals öffentlich vorgestellt und plant, ihren vollständigen Bericht im Laufe des Sommers zu veröffentlichen. Darin werden verschiedene Herausforderungen identifiziert, darunter physische und psychosoziale Risiken sowie Fragen wie Datenschutz und Sicherheit, die den Experten zufolge von Normungsorganisationen angegangen werden müssen. Und zwar bevor Humanoide in mehr industriellen Szenarien eingesetzt werden, als das bisher geschieht.
Humanoide Roboter müssen „dynamisch stabil“ sein
Die Systeme machen derzeit erste vorsichtige Schritte in Richtung Produktiveinsatz. Ultimatives Ziel ist eine enge Zusammenarbeit mit Menschen. Ein Grund dafür, Roboter überhaupt menschenähnlich zu gestalten, ist, dass sie sich so leichter in den von uns geschaffenen Umgebungen zurechtfinden. Das bedeutet, dass sie in der Lage sein müssen, einen Raum mit Menschen zu teilen und nicht nur hinter Schutzbarrieren zu bleiben. Aber zuerst muss sichergestellt werden, dass sie keine Gefahr darstellen.
Ein charakteristisches Merkmal von Humanoiden ist, dass sie „dynamisch stabil“ sein müssen, sagt Aaron Prather, Direktor bei der Normungsorganisation ASTM International und Vorsitzender der IEEE-Expertengruppe. Das bedeutet, dass sie Energie benötigen, um aufrecht bleiben zu können. Sie üben Kraft über ihre Beine (oder andere Gliedmaßen) aus, um das Gleichgewicht zu halten. „In der traditionellen Robotik drückt man bei einem Problem den kleinen roten Knopf, die Stromversorgung wird unterbrochen und der Roboter bleibt stehen“, sagt Prather. „Bei einem Humanoiden geht das nicht wirklich.“ Wenn man das tut, fällt der Roboter wahrscheinlich um – was ein noch größeres Risiko darstellen kann, als ihn weiterlaufen zu lassen.
Aber wie könnte eine Sicherheitsfunktion aussehen, die keine Notbremsung ist? Agility Robotics führt in der neuesten Version von Digit einige neue Funktionen ein, um das Problem des Umkippens zu beheben. Anstatt sofort die Stromversorgung zu unterbrechen (und wahrscheinlich umzufallen), könnte der Humanoide beispielsweise sanft abbremsen, wenn eine Person zu nahe kommt. „Der Roboter muss eine bestimmte Zeit bekommen, um sich in einen sicheren Zustand zu versetzen“, sagt Velagapudi. Vielleicht legt er alles, was er gerade trägt, zuerst ab und geht auf Hände und Knie, bevor er sich ausschaltet.
Verschiedene Roboter könnten das Problem auf unterschiedliche Weise lösen. „Wir wollen nur das Ziel standardisieren, nicht den Weg dorthin“, sagt Federico Vicentini, Leiter der Produktsicherheit bei Boston Dynamics. Vicentini leitet eine Arbeitsgruppe der Internationalen Organisation für Normung (ISO), die ebenfalls einen neuen Standard für die Sicherheit von Industrierobotern entwickelt, die zur Aufrechterhaltung ihrer Stabilität aktiv gesteuert werden müssen (auch Experten von Agility Robotics sind beteiligt). Die Idee ist, klare Sicherheitsanforderungen festzulegen, ohne die Innovationsfreiheit der Roboter- und Komponentenhersteller einzuschränken: „Wie das Problem gelöst wird, bleibt dem Konstrukteur überlassen.“ Der Versuch, universelle Standards festzulegen und gleichzeitig die Gestaltungsfreiheit zu wahren, kann jedoch Herausforderungen mit sich bringen. Zunächst einmal: Wie definiert man überhaupt einen humanoiden Roboter? Muss er Beine haben? Arme? Einen Kopf?
„Eine unserer Empfehlungen lautet, den Begriff ‚Humanoid‘ vielleicht ganz fallen zu lassen“, sagt Prather. Seine Gruppe befürwortet ein Klassifizierungssystem für humanoide Roboter, das deren Fähigkeiten, Verhalten und Verwendungszweck berücksichtigt und nicht ihr Aussehen. Die ISO-Norm, an der Vicentini arbeitet, bezieht sich auf alle industriellen mobilen Roboter „mit aktiv gesteuerter Stabilität“. Dies würde sowohl für den vierbeinigen Spot von Boston Dynamics gelten als auch für den zweibeinigen humanoiden Atlas und könnte ebenso Roboter mit Rädern oder einer anderen Art von Mobilitätskomponente umfassen.
Wie spricht man mit einem Roboter?
Abgesehen von Fragen der physischen Sicherheit, stellen Humanoide auch eine Herausforderung für die Kommunikation dar. Wenn sie sich den Raum mit Menschen teilen sollen, müssen sie erkennen, wenn jemand ihren Weg kreuzt. Sie müssen ihre eigenen Absichten so kommunizieren, dass jeder verstehen kann, was sie gerade tun. Das ist ähnlich wie beim Auto mit Bremslicht und Blinker. Digit verfügt bereits über Lichter, die seinen Status und seine Fahrtrichtung anzeigen, sagt Velagapudi, aber es brauche noch bessere Anzeigen, wenn er kooperativ und letztlich kollaborativ mit Menschen zusammenarbeiten soll. „Wenn Digit vor Ihnen in einen Gang hineinläuft, möchten Sie davon nicht überrascht werden“, sagt er. Der Roboter könnte Sprachausgaben nutzen, aber Audio allein ist in einer lauten Industrieumgebung nicht praktikabel. Noch verwirrender könnte es werden, wenn sich mehrere Roboter im selben Raum befinden – welcher versucht gerade, unsere Aufmerksamkeit zu erregen?
Es gibt auch einen psychologischen Effekt, der Humanoide von anderen Robotertypen unterscheidet, sagt Prather. Wir vermenschlichen Roboter, die wie wir aussehen. Das ist ganz natürlich, was dazu führen kann, dass wir ihre Fähigkeiten überschätzen und frustriert sind, wenn sie diese Erwartungen nicht erfüllen. „Manchmal lassen wir in puncto Sicherheit nach oder die Erwartungen an das, was der Roboter leisten kann, sind im Vergleich zur Realität zu hoch“, sagt er. Diese Probleme sind besonders gravierend, wenn Roboter Aufgaben übernehmen sollen, die normalerweise menschliche Emotionen oder die Unterstützung schutzbedürftiger Menschen erfordern. Der IEEE-Bericht empfiehlt, dass die Standards Bewertungsmaßstäbe für die „emotionale Sicherheit“ und Richtlinien zur „Minderung von psychischem Stress oder Entfremdung“ enthalten sollten.
Um den Bericht zu erstellen, führte Greta Hilburn, Expertin für User-Centric Design an der US Defense Acquisition University, Umfragen unter einer Vielzahl von Nicht-Ingenieuren durch, um ein Gefühl für deren Erwartungen an humanoide Roboter zu bekommen. Die überwiegende Mehrheit der Befragten wünschte sich Roboter, die Gesichtsausdrücke haben, Mikroexpressionen lesen und zur Kommunikation Gesten, Sprache und Haptik einsetzen können. „Sie wollen also alles – etwas, das es noch nicht gibt“, sagt sie. Das richtige Design der Mensch-Roboter-Interaktion könnte entscheidend sein, wenn Humanoide aus industriellen Bereichen in andere Kontexte wie Krankenhäuser, Altenpflegeeinrichtungen oder Privathaushalte vordringen. Dies ist besonders wichtig für Roboter, die mit schutzbedürftigen Bevölkerungsgruppen kooperieren sollen, sagt Hilburn. Es könne großer Schaden entstehen, wenn ein Roboter falsch kommuniziert, insbesondere im Kontext mit Kindern oder älteren Menschen.
Die Empfehlungen der IEEE-Gruppe umfassen unter anderem Eingriffsmöglichkeiten für Benutzer, die Standardisierung einiger visueller und akustischer Signale und die Anpassung des Aussehens eines Roboters an seine Fähigkeiten, um die Benutzer nicht zu verwirren. Wenn ein Roboter menschlich aussieht, erwarten die Menschen inzwischen laut Prather, dass er in der Lage ist, eine Unterhaltung zu führen und eine gewisse emotionale Intelligenz zu zeigen. Wenn er hingegen nur grundlegende mechanische Aufgaben ausführen kann, könnte dies zu Frustration und Vertrauensverlust führen.
Ein Roboter ist keine Selbstbedienungskasse
„Denken Sie an Selbstbedienungskassen“, sagt er. „Niemand erwartet, dass sie mit Ihnen plaudern oder Ihnen beim Einkaufen helfen, denn sie sind eindeutig Maschinen. Aber wenn sie wie freundliche Mitarbeiter aussehen und dann nur wiederholen: ‚Bitte scannen Sie den nächsten Artikel‘, würden sich die Leute ärgern.“
Prather und Hilburn betonen beide die Notwendigkeit der Inklusivität und Anpassungsfähigkeit, wenn es um die Interaktion zwischen Mensch und Roboter geht. Kann ein Roboter mit gehörlosen oder blinden Menschen kommunizieren? Kann er sich darauf einstellen, etwas länger zu warten, wenn Menschen mehr Zeit für eine Antwort benötigen? Versteht er verschiedene Akzente?
Möglicherweise müssen auch unterschiedliche Standards für Roboter festgelegt werden, die in unterschiedlichen Umgebungen eingesetzt werden, sagt Prather. Ein Roboter, der in einer Fabrik neben Menschen arbeitet, die für die Interaktion mit ihm geschult sind, ist eine Sache. Aber ein Roboter, der im Haushalt helfen oder mit Kindern in einem Freizeitpark interagieren soll, ist etwas anderes. Mit einigen allgemeinen Grundregeln sollte die Öffentlichkeit jedoch in der Lage sein, zu verstehen, was Roboter tun, wo immer sie ihnen begegnen. Es gehe nicht darum, Vorschriften zu machen oder Innovationen zu bremsen, sagt er, sondern darum, einige grundlegende Richtlinien festzulegen, damit Hersteller, Regulierungsbehörden und Endnutzer alle wissen, was sie zu erwarten haben: „Wir sagen, dass Mindestanforderungen erfüllt sein müssen – und wir sind uns alle einig, dass alles darunter schlecht ist.“
Der IEEE-Bericht soll eine Aufforderung zum Handeln für Normungsorganisationen wie Vicentinis ISO-Gruppe sein, um mit der Festlegung dieser Mindestanforderungen zu beginnen. So jung die Branche auch ist: Standards helfen Herstellern, Vertrauen in ihre Produkte aufzubauen und sie leichter auf internationalen Märkten zu verkaufen. Und Regulierungsbehörden stützen sich oft auf sie, wenn sie ihre eigenen Vorschriften erlassen. Angesichts der Vielfalt der Akteure in diesem Bereich wird es aber nicht einfach, Regeln zu schaffen, auf die sich alle einigen können, sagt Vicentini. „Wenn alle gleichermaßen unzufrieden sind, wäre das aber schon gut genug“.
Dieser Beitrag ist zuerst bei t3n.de erschienen.
(jle)
Künstliche Intelligenz
Quizauflösung: Fehlersuche mittels ICMP-Rückmeldungen | heise online
Die Fehlersuche in IP-Netzwerken fällt nicht leicht, denn einem Netzwerkschluckauf können viele Ursachen zugrunde liegen. Profi-Admins kennen aber Wege, um das klassische und meist aufwendige Troubleshooting abzukürzen.
Beispielsweise kann man Fehlerquellen anhand von ICMP-Rückmeldungen der Netzwerkgeräte eingrenzen, die an einem fehlgeschlagenen IP-Dialog beteiligt sind. Welche Meldungen das sind und wie man sie interpretiert, haben wir ausführlich im Artikel „Sondengänger: ICMP-Meldungen zur Fehlersuche im Netz einspannen“ beschrieben.
Am Ende des Beitrags „Netzwerkpraxis: Fehlersuche mittels ICMP-Rückmeldungen“ hatten wir vier Netzwerkanalyse-Aufgaben gestellt. Die Grundlage dafür bildet ein Verkehrsmitschnitt, den man mit dem Analysetool Wireshark öffnet und mit einem Display-Filter siebt. Hier folgen die Antworten zu den Aufgaben.
Das war die Leseprobe unseres heise-Plus-Artikels „Quizauflösung: Fehlersuche mittels ICMP-Rückmeldungen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Fahrprofil im Visier: Wie Carsharing-Anbieter ihre Nutzer überwachen
Die Verheißung des Carsharings ist die grenzenlose Freiheit auf vier Rädern, ohne die Last eines eigenen Autos. Doch die Realität holt viele Nutzer ein und weckt den Verdacht, dass das Versprechen der Anbieter zunehmend von Spitzelei und fragwürdigen Strafgebühren überschattet wird. Das trübt die Attraktivität des Modells fürs Fahrzeugteilen.
Der Fall des Hamburger Marketingexperten Engin Buldak, über den der Spiegel berichtet, ist exemplarisch: Nach einer 16-minütigen Fahrt mit einem geliehenen Auto erhielt er eine ominöse „Verwarnung“ wegen „auffälligen Fahrverhaltens“. Miles Mobility, der größte Carsharing-Anbieter Deutschlands, drohte ihm bei einem Wiederholungsfall eine Strafe von 250 Euro an – ohne konkrete Beweise oder Details. Buldak, der seit 14 Jahren unfallfrei fährt, fühlt sich laut dem Bericht zu Unrecht beschuldigt und bevormundet. Er bezweifelt die Genauigkeit der eingesetzten Messtechnik. Die Art und Weise, wie Carsharing-Anbieter mit den Daten umgingen und ihren Kunden konfrontativ gegenüberträten, sei „ungeheuerlich“.
Sensoren als heimliche Kontrolleure
Solche Fälle häufen sich. Dahinter steckt Technik, die nicht alle begeistert: Moderne Carsharing-Fahrzeuge sind mit unzähligen Sensoren ausgestattet, die eigentlich Assistenzsysteme beflügeln sollen. Dazu kommen oft an der Windschutzscheibe angebrachte Telematik-Boxen, die scheinbar auch verdächtige Fahrdaten an die Zentralen der Anbieter sowie gegebenenfalls an Kfz-Versicherer übermitteln. Starkes Beschleunigen, Driften, aber auch Rauchen oder Vapen im Auto werden erkannt und führen zu teils drastischen Gebühren.
Ein Blick in die Allgemeinen Geschäfts- und Mietbedingungen von Miles zeigt eine ganze Liste solcher Strafpauschalen: 250 Euro für „aggressives Fahrverhalten“, 150 Euro für eine „Sonderreinigung“ und 100 Euro für Rauchen etwa. Die Verbraucherzentrale Baden-Württemberg kritisiert diese nicht sofort ins Auge stechenden Zusatzgebühren laut dem Spiegel. Oliver Buttler, Abteilungsleiter für Verbraucherrecht, hält die Höhe der Gebühren oft für unverhältnismäßig und rechtlich unzulässig. Er rät Betroffenen, sich gegen solche Forderungen zur Wehr zu setzen.
Datenschutz droht, auf der Strecke zu bleiben
Eine Miles-Sprecherin verteidigte das Vorgehen der Firma. Die Sensordaten sollten eine „unsachgemäße Fahrweise“ erkennen und die Kunden ermahnen. Die angedrohten Strafen dienten „als Druckmittel für mehr Vertragstreue“ und sollten bei erheblichen Verstößen auch Kosten für die potenzielle Außerbetriebnahme der Fahrzeuge kompensieren.
Dass die für Carsharing eingesetzten Autos umfassend getrackt werden, gilt prinzipiell seit vielen Jahren als problematisch. Zum Teil entstehen sekundengenaue Bewegungsprofile, wobei der Datenschutz sprichwörtlich auf der Strecke zu bleiben droht. Eigentlich wollten die EU-Verkehrsminister aber schon mit der Amsterdamer Erklärung von 2016 bei der Nutzung von Fahrzeuginformationen einen wirksamen Schutz der Privatsphäre garantiert wissen und zugleich auf eine höhere Verkehrssicherheit hinarbeiten.
Miles stand 2023 selbst unter Verdacht, seit 2019 Parkgebühren in Höhe von bis zu 30 Millionen Euro nicht an das Land Berlin abgeführt zu haben. Der Anbieter habe die GPS-Daten der Fahrzeugstandorte manipuliert, so der Vorwurf, um die Zahlungen zu umgehen.
Das Park-Dilemma: Wer ist verantwortlich?
Immer wieder sorgt auch das Abstellen der Fahrzeuge für Streit. Die Anbieter pochen auf die sogenannte 48-Stunden-Regel, nach der der letzte Nutzer dafür verantwortlich ist, dass das Auto zwei Tage lang legal parken darf. Dies führt zu fragwürdigen Situationen, in denen Kunden für Bußgelder und Abschleppkosten belangt werden, obwohl einschlägige Verfahren später eingestellt worden sind.
Grundsätzlich gilt Carsharing als Erfolgsmodell. Mit über 5,5 Millionen registrierten App-Anwendern und 297 Anbietern boomt der Markt. Doch die steigende Anonymität, die mit dem vollständig digitalen Anmelde- und Mietprozess einhergeht, zieht auch schwarze Schafe an. Sportliche Spritztouren, Vandalismus und Diebstahl gelten für manche Nutzer als Kavaliersdelikt. Einige Anbieter reagieren darauf, indem sie jüngere Fahrer am Wochenende ausschließen.
(mack)
Künstliche Intelligenz
Lyft und Baidu kooperieren: Robotaxis in Deutschland ab 2026
Das US-amerikanische Fahrdienst-Vermittler Lyft wird mit dem chinesischen Unternehmen Baidu zusammenarbeiten, um in ganz Europa Robotaxis einzusetzen. Losgehen soll es ab dem kommenden Jahr. Das gab das US-Unternehmen am Montag bekannt. Lyft werde die autonomen Fahrzeuge Apollo Go der sechsten Generation von Baidu in europäischen Schlüsselmärkten über die Lyft-Plattform einsetzen, heißt es in der Mitteilung.
Die ersten Einsätze sind ab 2026 für Deutschland und das Vereinigte Königreich geplant, sofern die zuständigen Behörden grünes Licht erteilen. Die Flotte soll in den folgenden Jahren dann auf Tausende Fahrzeuge in ganz Europa erweitert werden. Die in der vergangenen Woche abgeschlossene, knapp 175 Millionen Euro teure Übernahme des deutschen Taxivermittlers FreeNow durch Lyft dürfte dabei eine wichtige Rolle spielen. Mit der Übernahme wagt Lyft einen großen Schritt auf den europäischen Markt. FreeNow operiert in neun Ländern Europas und über 180 Städten. Der Schritt nach Europa wird durch die strategische Partnerschaft mit dem chinesischen Technologiekonzern nun weiter vertieft.
„Dank der langjährigen Erfahrung von Baidu beim Betrieb des weltweit größten autonomen Fahrdienstes können wir Millionen von Europäern alle Vorteile von autonomen Fahrzeugen (AVs) – Sicherheit, Zuverlässigkeit und Privatsphäre – zugänglich machen“, so David Risher, CEO von Lyft. „Es ist Teil unseres hybriden Netzwerkansatzes, bei dem AVs und menschliche Fahrer zusammenarbeiten, um den Fahrern kundenorientierte Optionen zu bieten.“
Baidu expandiert nach Europa
Baidu setzt seinen Apollo Go derzeit weltweit in 15 Städten und verfügt laut der Pressemitteilung über 1.000 einsatzbereite AVs, die insgesamt bereits mehr als elf Millionen Fahrten absolviert haben. Auch für Baidu ist die Zusammenarbeit mit Lyft ein großer Schritt bei der Expansion nach Europa. „Unsere Partnerschaft mit Lyft zum Einsatz von Apollo Go in Europa, beginnend mit Deutschland und dem Vereinigten Königreich, ist ein bedeutender Meilenstein auf unserer globalen Reise“, sagte Robin Li, Mitbegründer, Vorsitzender und CEO von Baidu. „Durch die Integration von Baidus innovativer Technologie für autonomes Fahren mit der Reichweite der Plattform und der operativen Expertise von Lyft freuen wir uns darauf, mehr Nutzern sicherere, umweltfreundlichere und effizientere Mobilitätslösungen zu bieten.“
Im Rahmen der Partnerschaft wird Lyft also die Plattform betreiben und sich um den Kundenservice und die Flottenlogistik kümmern; Baidu stellt seinerseits die autonomen Fahrzeuge und den technischen Support bereit.
Dynamik auf dem Robotaxi-Markt
Laut einem Bericht der Nachrichtenagentur Reuters hat die britische Regierung den Zeitplan für die Einführung von Robotaxis beschleunigt. Sie strebt demnach erste Dienste mit zahlenden Fahrgästen bis zum Frühjahr 2026 an.
Überhaupt herrscht derzeit viel Bewegung auf dem Markt autonom fahrender Taxis, auf den weltweit immer mehr Akteure drängen. Mitte Juni startete Tesla in Austin im US-Bundesstaat Texas seinen ersten Robotaxi-Dienst mit wenigen Wagen und mit Begleitpersonen. Die Alphabet-Tochter Waymo beschleunigt dagegen ihre Expansion. Zuletzt erhielt das Unternehmen die Betriebsgenehmigung für die Bay Area. Waymo bietet seinen Robotertaxi-Service bereits in den US-amerikanischen Großstädten Phoenix, San Francisco, Los Angeles und Austin an. Bis zum Jahr 2026 sollen 2.000 weitere vollautonome Fahrzeuge zu der Flotte hinzukommen.
Der Lyft-Konkurrent Uber wiederum möchte in Zusammenarbeit mit Volkswagen ab 2026 selbstfahrende Autos in den USA auf die Straßen bringen. Zudem arbeitet Uber mit dem Start-up Momenta zusammen, um Robotaxi-Dienste außerhalb der USA und Chinas einzuführen. In Europa sollen die Fahrzeuge von 2026 an rollen. Dies dürfte den Druck auf Lyft erhöht haben, über seinen nordamerikanischen Heimatmarkt hinaus zu expandieren und auch den Markt für autonom fahrende Taxis ins Visier zu nehmen.
(akn)
-
Datenschutz & Sicherheitvor 2 Monaten
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 2 Monaten
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 2 Monaten
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
Digital Business & Startupsvor 1 Monat
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
UX/UI & Webdesignvor 2 Monaten
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 1 Monat
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 2 Monaten
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten