Online Marketing & SEO
Digitalkonferenz SXSW: Wieso die Kommunikation mit Menschen und Vögeln so schwer ist
SXSW-Keynote-Speaker Aza Raskin
Auf der Digitalkonferenz SXSW in Austin näherten sich die Kognitionswissenschaftlerin Carmen Simon und der Technologie-Vordenker Aza Raskin aus unterschiedlichen Perspektiven derselben Frage: Wie entsteht unsere Wahrnehmung der Realität, wer oder was formt sie und wie kann künstliche Intelligenz einen Unterschied machen?
Aufmerksamkeit bestimmt, was wir wahrnehmen – und Wahrnehmung bestimmt, wie wir die Welt verstehen. Neurowissenschaftlerin Simon nähert sic
Jetzt Angebot wählen und weiterlesen!
HORIZONT Digital
- Vollzugriff auf HORIZONT Online mit allen Artikeln
- E-Paper der Zeitung und Magazine
- Online-Printarchiv
HORIZONT Digital-Mehrplatzlizenz für Ihr Team
Online Marketing & SEO
NemoClaw: NVIDIA baut OpenClaw in sicher
Der OpenClaw Hype zeigte das Potenzial von KI-Agents – mit NemoClaw rückt NVIDIA jetzt Sicherheit und Governance in den Fokus. Damit adressiert das Unternehmen die größten Hürden beim Einsatz autonomer Systeme in Unternehmensprozessen.
KI-Agents gelten als nächster Entwicklungsschritt nach Chatbots und Copilots. In der Praxis scheitert ihr Einsatz aber oft an fehlender Kontrolle über Daten, Entscheidungen und Prozesse. NVIDIA positioniert sich genau an dieser Stelle und bringt mit NemoClaw eine Plattform, die diese Lücke schließen soll.
Auf der GTC beschreibt der NVIDIA CEO Jensen Huang nicht einfach ein neues Produkt, sondern einen Machtanspruch: Jedes sollte Unternehmen eine
OpenClaw-Strategie haben.
Mit NemoClaw bringt das US-amerikanische Tech-Unternehmen eine Open-Source-Plattform für KI-Agents an den Start, die die Lücken schließen soll, die der OpenClaw Hype offengelegt hat: Sicherheit, Datenschutz und Kontrolle im Unternehmenseinsatz.
Moltbot ist OpenClaw:
Sehr gefährlich und hilfreich zugleich

NVIDIA positioniert NemoClaw als Infrastruktur für sichere und steuerbare Agents
Mit OpenClaw entstand Anfang 2026 ein stark wachsendes Interesse an lokal ausgeführten Agent-Systemen. Innerhalb von drei Wochen, so das Unternehmen, erreichte OpenClaw mehr Nutzer:innen als Linux in den Anfangsjahren. Vor allem Developer, tech-affine Nutzer:innen und erste Unternehmen testeten, wie sich Agents direkt auf eigener Hardware einsetzen lassen – ohne externe Cloud-Dienste. Aufgaben wie Schreiben, Coden oder das Organisieren von Dateien ließen sich so automatisieren, ohne externe Dienste einbinden zu müssen. Für Unternehmen wurde dabei schnell ein zentrales Problem deutlich: Es fehlten Governance-Strukturen, Sicherheitsmechanismen und Kontrolle über Daten und Prozesse.
Im Februar schloss OpenAI die Übernahme von OpenClaw ab, im September 2025 stand diese Übernahme bereits im Raum. Gleichzeitig wechselte vor Kurzem der OpenClaw-Entwickler Peter Steinberger zum ChatGPT-Unternehmen. OpenClaw selbst soll künftig als Open-Source-Projekt über eine Stiftung weitergeführt werden, während OpenAI weiterhin unterstützend eingebunden bleibt. Damit verschiebt sich die Wahrnehmung im Markt: Aus einem zuvor unabhängig wahrgenommenen Projekt wird ein System mit enger Anbindung an einen der zentralen Player im KI-Markt. Entsprechend steigt die Nachfrage nach Lösungen, die eine unabhängige, sicherheitsorientierte und eigenständig kontrollierbare Nutzung von KI-Agents ermöglichen.
Genau hier setzt NVIDIA mit NemoClaw an und adressiert die wachsenden Anforderungen von Unternehmen an Kontrolle, Sicherheit und Anpassbarkeit von KI-Agents. Die Plattform baut auf OpenClaw auf und ergänzt das Framework um Sicherheits- und Datenschutzfunktionen auf Enterprise-Niveau. Unternehmen können damit steuern, wie Agents arbeiten und wie Daten verarbeitet werden, während der offene Quell-Code weiterhin Anpassungen an spezifische Anforderungen ermöglicht, etwa für Compliance-Vorgaben oder interne Workflows. Technisch integriert NVIDIA NemoClaw direkt in den eigenen KI-Stack mit NeMo, Nemotron und NIM, sodass Agents nicht nur entwickelt, sondern auch effizient betrieben und skaliert werden können. Gleichzeitig bleibt die Plattform hardware-unabhängig und läuft neben NVIDIA-Systemen auch auf Infrastruktur von AMD, Intel und anderen – ein Ansatz, mit dem NVIDIA die eigene Rolle über die Hardware hinaus erweitert und stärker im gesamten KI-Software-Stack verankert.
NVIDIA beschreibt NemoClaw aktuell selbst als frühe Alphaversion, die noch nicht für produktive Umgebungen ausgelegt ist. Parallel baut das Unternehmen Kooperationen mit Akteur:innen wie Salesforce, Cisco, Google, CrowdStrike und jetzt auch Adobe auf, um die Plattform perspektivisch in reale Unternehmensprozesse zu überführen und produktiv nutzbar zu machen.
Adobe und NVIDIA verknüpfen Infrastruktur und Kreativ-Workflows
Während NVIDIA mit NemoClaw die Infrastruktur für KI-Agents aufbaut, verschiebt sich die Dynamik auf der Anwendungsebene. Ein Treiber ist die neue Zusammenarbeit mit Adobe. Gemeinsam verzahnen beide kreative Prozesse und Marketing Workflows direkt mit NVIDIAs Modellen, Bibliotheken und Computing-Infrastruktur.
Ziel ist es, die nächste Generation von Firefly-Modellen zu entwickeln und agentische Workflows in Content-, Kampagnen- und Produktionsprozesse zu integrieren. Laut LinkedIn-Ankündigung und Pressemitteilung kommen dabei unter anderem CUDA-X-Technologie, NeMo-Bibliotheken, Nemotron-Modelle und das Agent Toolkit zum Einsatz. NemoClaw bildet dabei die Grundlage für sichere und skalierbare Agent-Systeme.
Die neuen Firefly-Modelle sollen mehr Präzision und Kontrolle in Kreativ- und Marketing-Prozesse bringen. Ergänzt wird das durch eine cloudnative 3D-Digital-Twin-Lösung für automatisierte Content-Produktion. Auch Firefly Foundry wird weiter ausgebaut und auf markensichere AI im großen Maßstab ausgerichtet. Parallel prüft Adobe den Einsatz von Nvidias Agent Toolkit, Nemotron-Modellen und NemoClaw. So entstehen agentische Workflows entlang der gesamten Customer Experience.
Parallel treibt Apple die eigene Strategie weiter voran und setzt dabei auf die Integration externer Technologien. Mit MotionVFX zieht ein umfangreiches Toolset für Video-Editing, Effekte und AI Features direkt in Final Cut Pro ein. Der Ansatz bündelt Workflows, reduziert Tool-Wechsel und stärkt die Bindung an die eigene Software- und Abo-Umgebung.
Standardisierung im Agent-Zeitalter: Wie NVIDIA die Hauptrolle besetzen will
Mit der zunehmenden Verbreitung von KI-Agents verschiebt sich die strategische Entscheidungs- und Steuerungsebene in Unternehmen weg von einzelnen Tools hin zur Frage, auf welcher Plattform diese Agents überhaupt laufen. Es geht also weniger darum, welches Tool genutzt wird, sondern darum, welches System im Hintergrund alles steuert. Entscheidend ist, wer die Kontrolle über Daten, Abläufe und Entscheidungen behält.
NVIDIA positioniert sich hier früh als zentrale Infrastruktur, also als technisches Fundament, auf dem solche Agent-Systeme aufgebaut und betrieben werden. Gleichzeitig verfolgen andere Akteur:innen eigene Strategien. Google, Microsoft und Amazon integrieren Agent-Funktionen direkt in ihre Cloud-Angebote. OpenAI setzt stärker auf geschlossene, eng verzahnte Systeme. Und Open-Source-Projekte versuchen, mehr Transparenz und Anpassbarkeit zu bieten.
Mit dieser Entwicklung entstehen jedoch auch neue Risiken. Unternehmen begeben sich stärker in Abhängigkeit von Plattformen, deren Regeln, Schnittstellen und technische Standards sie nur begrenzt beeinflussen können. Selbst bei offenen Lösungen bleibt oft unklar, wie unabhängig sie wirklich sind, wenn zentrale Bausteine an bestimmte Infrastruktur gebunden sind. Dazu kommen regulatorische Fragen, etwa beim Datenschutz oder bei der Nachvollziehbarkeit von Entscheidungen, wenn Agents eigenständig handeln.
In diesem Spannungsfeld entscheidet sich, wer künftig den Standard setzt und NVIDIA arbeitet darauf hin, diese Rolle im Hintergrund der Agent-Systeme einzunehmen.
Telekom und NVIDIA investieren 1 Milliarde Euro in Europas größte KI-Fabrik

Online Marketing & SEO
Interaktive Litfaßsäulen: Pringles und Jung von Matt Nerd machen Gaming zum OOH-Erlebnis
Diese Litfaßsäule am Merianplatz in Frankfurt bildete den Auftakt der Gaming-Kampagne von Pringles
Wie lockt man Gamer am besten hinter ihren Bildschirmen hervor? Die Antwort von Pringles und Jung von Matt Nerd: Mit einem Real Live Quest für eines der beliebtesten Online-Spiele, gepaart mit einer aufmerksamkeitsstarken Out-of-Home-Aktion. Was genau es mit den Pringles-Litfaßsäulen auf sich hat.
World of Warcraft – kurz WoW – gilt als Meilenstein der Gaming-Kultur. Das 2004 von Blizzard Entertainment gelaunchte Multiplayer-Online-Rollenspiel hat das Genre in den letzten zwei Jahrzehnten entscheidend geprägt und wird weltweit von Millionen Menschen gespielt. Den hohen Reichweitenfaktor von WoW macht sich die Chipsmarke Pringles jetzt für eine besondere OOH-Kampagne zunutze.
Am 6. März startete die OOH-Aktion mit einer ersten Hero-Litfaßsäule in Frankfurt. Ab dem 17. März folgen weitere Standorte in Hamburg, Bremen, Berlin, Frankfurt, Leipzig und München und sollen bis zum 26. März bespielt werden, während das Gewinnspiel und die Website vom 6. März bis 5. April live sind.
Online Marketing & SEO
10 GEO-Kernfragen beantwortet: Digital Bash Update 2026 %
Die Echtzeitinhalte werden laufend aktualisiert, während die Modelltrainings dazu beitragen, dass die LLMs im Hintergrund in Abständen von einigen Monaten optimiert und mit neuen Modellversionen versehen werden. Der Hinweis auf die Dynamik von Ergebnissen in der KI-Suche wird auch in einer Ahrefs-Analyse deutlich, nach der sich AI Overviews von Google im Schnitt alle 2,15 Tage verändern (bei 43.000 untersuchten Beispielen).

5. Ich arbeite für ein Fachmagazin. Sollten wir es zulassen, dass KI die Nachrichten auslesen kann? Die Tagesschau hat darauf verzichtet, weil sie ihren Traffic auf der Website behalten wollen.
Die Frage, ob man Inhalte für die Indexierung bei Google und Co. oder Übernahme durch KI-Dienste bereitstellen möchte, ist nicht neu. Sie erfährt aber in Zeiten der KI-Suche eine neue Brisanz, da ChatGPTs Zusammenfassungen, AI Overviews, der AI Mode und Co. nachweislich den Traffic zu Zielseiten minimieren. Viele User erfahren direkt aus dem Suchkontext heraus, was sie wissen möchten und besuchen weniger Publisher-Seiten, sodass diese Traffic verlieren, der als Faktor für das Geschäftsmodell oft essentiell ist. So nimmt es kaum wunder, dass einige Verlage bereits gegen Google geklagt haben, weil sie eine „illegale Journalismusausbeutung“ etwa in den AI Overviews sehen, die sich ihrer Inhalte bedienen.
So krass senken AI Overviews die Klickrate

Einige Medienhäuser werfen Google vor, Inhalte zu missbrauchen, um das Geschäft der Publisher zu bedrohen. Moniert wird auch der Umstand, Inhalte nicht für AI Overviews ausschließen zu können, ohne eine gesamte Deindexierung in Kauf zu nehmen. Das Blockieren von AI Crawlern ist bei Cloudflare schon zum Standard geworden; Pay-per-Crawl soll eine Alternative bieten. Außerdem möchte das Internet- und Cybersicherheitsunternehmen, über dessen Netzwerk 20 Prozent aller Websites laufen, mit der neuen Content Signals Policy Publishern ermöglichen, ihre Inhalte KI-Diensten wie AI Overviews in der Suche vorzuenthalten, ohne die Indexierung zu gefährden. Damit das klappt, müsste Google aber mitspielen.
Einen AI Overview Opt-out diskutiert das Vereinigte Königreich bereits seit einiger Zeit im Rahmen einer Prädikatszuschreibung, die Googles massive Marktmacht anerkennt und zu regulieren sucht. Das ist auch der Grund, aus dem Google jetzt selbst reagiert. Die Competition and Markets Authority (CMA) möchte Publishern mehr Kontrolle ermöglichen und die Verwendung von Content in AI Overviews fakultativ machen. Bisher haben die Publisher zwar die Option, Websites als noindex von der Indexierung durch Google auszuschließen, was für die Reichweite wenig förderlich ist, oder mithilfe von Google-Extended zu entscheiden zu, ob ihre Inhalte Gemini und Vertex AI unterstützen sollen oder nicht.
Auch Kontrollen für Featured Snippets und Image Previews (die sogar für AI Overviews gelten) gibt es bereits. Allerdings können Website-Betreiber:innen nicht direkt steuern, ob und wie Google Inhalte für AI Overviews und den AI Mode heranzieht. Tauchen sie in diesen KI-Übersichten oder im AI Mode auf, werden sie zwar als Quellen genannt, doch die Click-Through-Wahrscheinlichkeit könnte geringer ausfallen, während Google ohnehin aus diesen Übersichten oft zunächst auf eigene Properties wie weiterführende Informationen aus der Suche verlinkt. Zudem befürchten manche Publisher, dass Google und andere KI-Dienste ihre Inhalte als Zusammenfassung übernehmen, ohne die Quelle in gebührendem Maße zu wertschätzen. Daher gibt Google in einem neuen Blog Post mit Verweis auf die CMA-Bestrebungen im UK an, eine Opt-out-Option zu evaluieren.
Google beschwichtigt Publisher grundsätzlich mit dem Hinweis darauf, dass Engaged Clicks nachhaltigeren Traffic liefern könnten, wenn User durch KI-Ergebnisse bereits vorinformiert sind. Der SEO Traffic sinkt jedoch für viele, die sich zugleich fragen, ob sie für die Content-Aufnahme und -Verarbeitung durch Google und andere Dienste nicht entlohnt werden sollten. Deals mit Medienhäusern, wie sie etwa Meta für die Meta AI zum Beispiel mit der Süddeutschen Zeitung abgeschlossen haben, bieten eine Art Kompromiss. Erste Initiativen gibt es bereits, etwa Microsofts Publisher Content Marketplace, der zum Beispiel von der neuen KI-Suche Yahoo Scout unterstützt wird. Doch das Ungleichgewicht zwischen riesigen Tech-Konzernen und ihrer immensen Marktmacht, die sie für die Content-Distribution nutzen, um damit über Werbung, Shopping-Integrationen und andere Touchpoints Gewinn zu machen, wächst weiter. Und Publisher müssen abwägen, wie sie ihre Content-Erstellung und -Verbreitung im Jahr 2026 und darüber hinaus strategisch planen möchten.
Wenn nun der Inhalt der eigenen Seite gesichert über diverse Kanäle ausgespielt und dort gefunden werden kann und man nicht von der Sichtbarkeit in der Suche abhängt, ist es eine Option, Crawlern keinen Zugriff zu gewähren und etwaige Opt-outs zu nutzen. Allerdings sind Publisher auf diversen Plattformen Dritter deren Regeln ausgesetzt.
6. Wie schätzt ihr das WebMCP in der early Preview von Google ein?
KI-Agents könnten Websites bald nicht mehr wie Menschen bedienen müssen. Mit WebMCP stellen Google und Microsoft einen Ansatz vor, der das Surfen im Hintergrund grundlegend verändern könnte. Statt sich durch Menüs zu klicken oder Inhalte visuell zu interpretieren, greifen KI-Systeme direkt auf Funktionen einer Website zu. Websites wären dann nicht mehr nur Orte zum Lesen oder Shoppen, sondern technische Schnittstellen für automatisierte Aktionen. Website-Betreiber:innen sollten sich auf jeden Fall mit dieser Option zur Anbindung beschäftigen, um sich für das Agentic Web zu wappnen. Es kann ein Baustein sein, um Sichtbarkeit und Relevanz für verschiedene Akteur:innen sicherzustellen. In unserem Beitrag findest du mehr Informationen zum WebMCP.
Zäsur fürs Agentic Web?
WebMCP soll Websites zur API für KI Agents machen

7. Wie gestalte ich eine optimale GEO Landingpage von Seitenstruktur über Aufbau bis Content, so dass sie optimal zitiert und als Quelle genutzt werden kann?
Auf diese Frage gibt es enorm viele Antworten. Zwar gibt es keine Musterlösung, denn grundsätzlich gilt, dass die Inhalte in erster Linie aktuell und relevant, aber auch maschinenlesbar sein müssen. Es gibt GEO-Checklisten und konkrete Tipps von Expert:innen, die du beherzigen kannst. Eine Erläuterung liefert zum Beispiel GEO-Expertin Katrink Winkler. Sie zeigt, welche Bausteine eine Seite benötigen, um im Zeitalter der KI-Suche gefunden zu werden.

Auf der Seite Wortverkauf.de findest du die Zusammenfassung ihres Digital Bash-Vortrags zum Thema, der sehr beliebt war. Du kannst dir diesen Vortrag auch ansehen; melde dich einfach für das vergangene Event an.
Bei der Aufzeichnung des Digital Bash – Content Marketing findest du Katrins Vortrag: „Wie entwickelt man ein GEO-optimiertes Content-Design für die Website?“.
8. Reicht ein einzelner guter Inhalt für GEO überhaupt aus, oder entsteht zitierfähige Autorität erst durch Referenzen, externe Erwähnungen und eine konsistente Themenabdeckung über Zeit?
Wer nur auf einen guten Inhalt baut, braucht womöglich für diesen eine Sonderstellung, um darüber langfristig als Go-to-Quelle genutzt zu werden. Denn gerade im Zeitalter der KI-Suche zeigt sich, dass Erwähnungen auf Seiten Dritter, Aktualität und Brand-Autorität für die Zitierfähigkeit von Vorteil sind – vor allem, wenn sich Ergebnisse dynamisch entwickeln.
Die Discoverability auf einen guten Inhalt zu beschränken, wenn die Möglichkeit zur Diversifizierung besteht, würde verschenktes Potential bedeuten. Zumindest aber sollte für diesen hypothetischen starken Inhalt jedwede Analyse und Anpassung für zeitgemäße Suchentwicklungen angewendet werden, um sie als relevante Quelle bei verschiedenen Playern genutzt zu wissen. Zudem unterliegt das Prädikat „gut“ oft einer subjektiven Einordnung. Ist der Content gut, weil er in der Suche performt, performt er dort nicht, obwohl er als qualitativ gut eingestuft wird oder gibt es eine quantitative Bestätigung wie eine hohe Anzahl an Visits, Downloads (bei Dokumenten) oder Ähnlichem?
Wie es Google vor ein paar Monaten schon gesagt hat, entsteht gute GEO auf der Basis guter SEO. Danny Sullivan von der Search Liaison hat schon 2010 klargestellt:
SEO doesn’t mean you get into blue links on Google, SEO means you understand how people search for content […].
Bei der GEO sollten Webmaster ebenfalls auf die neuen Suchmuster achten und ausgehend davon Informationen und Inhalte bereitstellen, möglichst unikal, möglichst vielfältig aufbereitet; man denke auch an die multimodalen Fähigkeiten von Lösungen wie dem AI Mode und ChatGPT.

9 Wie kann man den Bruch auflösen, der dadurch entsteht, dass man aus dem Dialog im Sprachmodell in den Monolog auf der Website zurückfällt? Der schönste Traffic durch SEO und GEO hilft ja nicht, wenn die UX dann abbricht, oder?
Das kommt sicherlich ganz auf die Intention der User an. Wenn diese über die Ergebnisse aus der Suche auf Seiten kommen, auf denen sie beispielsweise direkt etwas kaufen, nachlesen oder auch nur nachgucken wollen – wie ein Datum oder einen Preis –, dann braucht es womöglich keine Dialogstruktur für die User. Möchten diese aber auf der Seite navigieren, über Angebote und Content-Bereiche informiert werden, kann es sich anbieten. Zunächst einmal können User selbst in der aus dem KI-Chat bekannten Struktur arbeiten, indem sie beispielsweise KI-Zusammenfassungen über Browser erstellen lassen oder in den AI Browsern direkt mit ChatGPT (bei Atlas) oder Gemini (bei Chrome) chatten, um die Chatbots etwas über die Seiten zu fragen.
Website-Betreiber:innen können aber ebenso selbst eine Anschlussoption bieten. So können sie eigene AI Agents anbinden, die einen KI-Dialog auf der Website bieten und beispielsweise Chatbots verwalten. In diesem Kontext ist nochmals bemerkenswert, dass es gilt, sich auf die Nutzungsrealitäten in der Suche einzustellen. Die Entwicklung eigener Agents und Subagents, idealerweise gefüttert mit Nutzungsdaten der eigenen Seite, ist dank Google, Adobe, Salesforce, Anthropic, OpenAI und Co. einfacher denn je.
10. Welche Tools nutzt ihr, um die Sichtbarkeit eurer Marke im Netz zu messen und Brand-Erwähnungen zu monitoren?
Eico Schweins nennt PeecAI, Otterly, Rankscale, und das Prompt Tracking von SISTRIX. SISTRIX liefert umfassende Möglichkeiten, um beispielsweise LLM-Erwähnungen zu tracken.
Das funktioniert auch bei Similarweb und anderen Anbieter:innen. Adobe bietet zum Beispiel einen LLM Optimizer und die kostenlose Chrome-Erweiterung „Is Your Webpage Citable?“. Und über die Semrush App in ChatGPT können User mit Prompts in natürlicher Sprache SEO Insights aufrufen und ganze Reports erstellen lassen.

Google liefert neuerdings zum Thema Brand-Sichtbarkeit einen Filter zur Unterscheidung zwischen markenbezogenen und nicht markenbezogenen Suchanfragen im Leistungsbericht in der Search Console. Die Zahl der Tools und Tracking-Optionen ist groß. Für Marketer bietet es sich an, verschiedene Optionen zu testen, gerade solche, die in Diensten integriert sind, die das eigene Unternehmen ohnehin nutzt. Ein Tipp: Lass dir von verschiedenen KI-Tools Übersichten zu relevanten Tools geben oder frage auf LinkedIn, Reddit und Co. nach, was deine Peers nutzen.
Du kannst dir einen Ausschnitt aus dem Talk von Eico Schweins in diesem YouTube-Video ansehen. Die gesamte Aufzeichnung des Events mit weiteren aufschlussreichen Talks zum Thema von Sebastian Grundt, Katrin Winkler und Kathrin Häußler kannst du dir über die nachträgliche Anmeldung zum Event sichern.
Digital Bash – AI Search & GEO
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer


