Künstliche Intelligenz
Raspi-Konkurrenz: Qualcomm schluckt Arduino und stellt Einplatinencomputer vor
Qualcomm übernimmt den für seine Mikrocontroller-Boards bekannten Hersteller Arduino. Direkt zur Übernahme stellt Qualcomm seinen ersten Einplatinencomputer für Bastelprojekte vor: den Arduino Uno Q. Saßen auf bisherigen Uno-Boards nur kleine Mikrocontroller für simple Aufgaben, kommt der Uno Q mit einem Chipduett aus Mikrocontroller (MCU) und Mikroprozessor (MPU), sodass etwa Linux eigenständig auf dem Board läuft.
Schon die MCU in Form des STMicroelectronics STM32U585 ist deutlich schneller als der Renesas RA4M1 auf dem Arduino Uno R4. Die neue Variante setzt auf den ARM-Kern Cortex-M33 mit 160 MHz (Uno R4: Cortex-M4, 48 MHz).

Arduino
)
Ab Oktober und 39 Euro
Zusätzlich sitzt Qualcomms Dragonwing QRB2210 auf der Platine. In ihm stecken vier ARM-Kerne vom Typ Cortex-A53, die 2,0 GHz schaffen. Außerdem gibt es eine integrierte Grafikeinheit und Zusatzblöcke wie Bildsignalprozessoren. Arduino und Qualcomm bewerben das Board auch für KI-Anwendungen (Edge AI).
Eine eigenständige KI-Einheit hat der QRB2210-Prozessor nicht, allerdings sollen die CPU und die GPU für einige KI-Algorithmen ausreichen, etwa zur Bilderkennung. Nützlich dafür: Der QRB2210 kann zwei Bildsensoren mit jeweils 13 Megapixeln oder einen einzelnen 25-Megapixel-Sensor ansteuern. Ein Hardware-De- und Enkodierer beherrscht H.265 und H.264 für 1080p-Videos mit 30 fps.
Zum Start bringt Arduino eine Variante mit 2 GByte LPDDR4-RAM und 16 GByte NAND-Flash-Speicher (eMMC) für 39 Euro auf den Markt. Sie soll ab heute vorstellbar und ab dem 25. Oktober verfügbar sein. Eine Version mit 4 GByte RAM und 32 GByte Flash soll ab November für 53 Euro vorbestellbar sein und bis zum Jahresende folgen. Ein Funkmodul für Wi-Fi 5 (2,4 + 5 GHz) und Bluetooth 5.0 ist stets dabei.

Alle Komponenten des Arduino Uno Q. Prozessor und Mikrocontroller befinden sich auf gegenüberliegenden Seiten.
(Bild: Arduino)
Alte Technik mit viel Leistung für Arduino-Verhältnisse
Das Cortex-A53-Kerndesign ist bereits 13 Jahre alt, ist aber für viele Bastelprojekte schnell genug. Damals saß er als Effizienzkern in vielen Smartphone-Prozessoren. CPU-seitig ist der Arduino Uno Q grob mit dem Raspberry Pi 3 von 2016 vergleichbar. Dessen Broadcom-BCM2837-Prozessor nutzt ebenfalls vier Cortex-A53-Kerne, die ab Werk mit 1,2 GHz allerdings ein gutes Stück niedriger takten.
Charmant erscheint die Kombination aus Mikrocontroller und Mikroprozessor aus Effizienzsicht. Auf dem integrierten Speicher des STMicro-Chips läuft Arduino Core, basierend auf Zephyr OS. Der Qualcomm-Prozessor kann sich fast komplett schlafen legen, wenn dessen Leistung nicht notwendig ist. Auf ihm laufen Debian-Linux-Betriebssysteme mit Upstream-Support sowie Unterstützung für Docker und Docker Compose.
Das neue Arduino App Lab dient als Entwicklungsumgebung für die CPU, GPU und MCU. Die Arduino-Entwickler betonen, dass sie auch nach der Qualcomm-Übernahme auf Open-Source setzen – Hardware-Komponenten wollen sie unter der Lizenz CC BY-SA 4.0 offenlegen, Software unter GPL3 und MPL.
Wenige Anschlüsse
Der größte Unterschied zu Raspberry-Pi-Einplatinencomputern liegt bei den Anschlüssen. Außer den GPIO-Pinleisten hat der Arduino Uno Q ausschließlich einen USB-C-Anschluss. Der Hersteller sieht den Einsatz eines USB-Hubs für die Stromversorgung (5 Volt, 3 Ampere), HDMI-Bildausgabe (max. 1680 x 720 Pixel mit 60 Hert) und Peripherie vor. Der Anschluss schafft allerdings nur USB-2.0-Geschwindigkeit. Alternativ bekommt der Arduino Uno Q über GPIO-Pins Strom.
Es gibt keine eigenständigen Bildausgänge, keinen SD-Kartenslot zur Speichererweiterung und kein PCI Express (etwa für eine SSD). Qualcomm und Arduino versehen die Platinenunterseite allerdings mit neuen Pinleisten, für die künftig Erweiterungs-Boards erscheinen sollen, Arduino Carriers genannt.
Die Platinenbauform, Positionierung der Header (QWIIC, SPI 3V3) und GPIO-Pinleisten bleiben identisch, sodass bisherige Gehäuse und Zusatz-Hardware weiter passen. Auch die LED-Matrix ist weiterhin mit dabei. Der Arduino Uno Q versteht sich unter anderem auch auf die Interfaces I2C/I3C, CAN, UART, PSSI, JTAG und ADC.

Spezifikationen des Arduino Uno Q.
(Bild: Arduino)
(mma)
Künstliche Intelligenz
China wird 2025 fast 8 Millionen E-Autos bauen, Tendenz kräftig steigend
China baut seine weltweit dominierende Position in der Elektroauto-Produktion weiter aus. In den ersten neun Monaten des Jahres waren es 6,5 Millionen Fahrzeuge, sagt Branchenkenner Ferdinand Dudenhöffer, 45 Prozent mehr als vor einem Jahr. Bis zum Jahresende erwartet er 7,9 Millionen und auch darüber hinaus steigende Zahlen.
Weiterlesen nach der Anzeige
Schnellstes Wachstum weltweit
Der Anstieg der Produktion in China ist auch deswegen bedeutsam, weil er schneller verläuft als das Wachstum bei den weltweiten Verkaufszahlen batterieelektrischer Autos. Diese waren nach Zahlen der Unternehmensberatung PwC im selben Zeitraum nur um 36 Prozent gestiegen. China steigert damit seinen Anteil an der weltweiten Produktion. Zum Vergleich: In Deutschland wurden in den ersten neun Monaten nach den Zahlen des VDA (Verband der Automobilindustrie) knapp 916.000 batterieelektrische Autos gebaut. In Europa liegen nach den Zahlen des ACEA, der Interessenvertretung der Autoindustrie in Europa (European Automobile Manufacturers’ Association) die Verkaufszahlen hinter den angestrebten deutlich zurück.
Größter Elektroauto-Produzent in China ist BYD, deren Elektroautos inzwischen auch in europäischen Ländern erhältlich sind. Mit knapp 1,6 Millionen ist sie fast für ein Viertel der chinesischen Elektroautoproduktion verantwortlich. Dahinter folgen Geely mit 836.000 und Tesla mit 603.000.
Der Erfolg der Elektroautos in China wird von Analysten zunächst auf staatliche Subventionen zurückgeführt. Bis Mitte 2025 förderten lokale Abwrackprämien mit maximaler Förderung für den Kauf eines Elektroautos den Umstieg. Sie hatte die Verkäufe kurz vor ihrem Ende im Juni mit einem Anstieg um 18 Prozent kurzfristig noch einmal kräftig beflügelt. Die aktuelle Tendenz weist indes auf einen selbsttragenden Aufschwung hin.
Mehr über die chinesische Automarke BYD
(fpi)
Künstliche Intelligenz
c’t-Webinar: Next Level Midjourney | heise online
Die Bild- und Video-KI Midjourney erzeugt visuelle Inhalte für berufliche oder private Anwendungen. Durch präzise Eingaben und zahlreiche Stiloptionen dient Midjourney als flexibles Werkzeug für eigene Gestaltungsideen. Dank neuer Funktionen lassen sich kurze, animierte Videos erstellen, die einfache Szenen oder Abläufe visualisieren.
Weiterlesen nach der Anzeige
In diesem Webinar lernen die Teilnehmer, wie sie ihre Vorstellungen Schritt für Schritt in Midjourney umsetzen. Der Referent zeigt zentrale Funktionen, typische Fallstricke und erkennbare Grenzen des Systems. Dabei liegt der Fokus auf realen Arbeitsabläufen.
Vom starken Prompt zum konsistenten Ergebnis
Die Inhalte des Webinars reichen vom Aufbau wirkungsvoller Prompts über die Bildbearbeitung mit dem Midjourney-Editor bis zu fortgeschrittenen Techniken wie der Verwendung von Referenzbildern für konsistente Charaktere und Stile. Auch das Zusammenspiel mit anderen Tools zur Nachbearbeitung und die Integration in Workflows kommen zur Sprache. Ein eigener Themenblock widmet sich Midjourneys Animationsfunktion.
Die Teilnehmer entwickeln ein Verständnis dafür, wie sie eigene Konzepte visuell ausarbeiten, ohne auf generisches Stockmaterial zurückzugreifen. Die Veranstaltung richtet sich an Anwender, die belastbare visuelle Assets benötigen – vom Marketingteam über Content Creator bis zu Agenturen, Trainern und Künstlern.
Midjourney-Experte gibt Einblicke
Referent Adrian Rohnfelder ist mehrfach ausgezeichneter Profifotograf und Midjourney-Experte. Er verbindet seine kreative Erfahrung mit neuesten KI-Tools und gibt sein Wissen als Dozent und Speaker weiter. Für die Teilnahme sind keine Vorkenntnisse nötig, erste Erfahrungen mit Midjourney sind jedoch von Vorteil.
Das Webinar bietet damit einen praxisorientierten Überblick über KI-gestützte Bild- und Videoproduktion. Teilnehmende erhalten konkrete Anleitungen, um Midjourney effizient in Projekte einzubinden.
Weiterlesen nach der Anzeige
- Termin: 28. Januar 2026
- Uhrzeit: 14:00 bis 17:00 Uhr
- Preis: 59,00 / 69,00 Euro (Frühbucher / Standard)
Zur Teilnahme benötigen Sie lediglich einen aktuellen Browser. Weitere Informationen zum Webinar sowie Details zur Anmeldung finden Sie auf der Webseite der heise academy.
(abr)
Künstliche Intelligenz
Meta Hyperscape: Fotorealistische 3D-Scans jetzt mit Multiplayer-Funktion
Mit Meta Quest 3 lassen sich seit September Räume und ganze Umgebungen scannen und zu erstaunlich realistischen digitalen Kopien verarbeiten, die man später in Virtual Reality besuchen kann. Der Scanvorgang dauert etwa 15 Minuten und setzt keinerlei technisches Vorwissen oder spezielle Ausrüstung voraus. Selbst Außenräume und Landschaften werden eindrucksvoll eingefangen, wie unser Hyperscape-Test zeigte.
Weiterlesen nach der Anzeige
Die Hyperscapes konnten bislang nur deren Ersteller besuchen. Nun rollt Meta eine Multiplayer-Funktion aus, die es Nutzern ermöglicht, andere Menschen in die eigenen Hyperscapes, etwa die der eigenen Wohnung, einzuladen.
Dazu öffnet man die Hyperscape-App, wählt ein Hyperscape aus und lädt Familie oder Freunde direkt oder per Link ein. VR-Nutzer benötigen eine Meta Quest 3 oder Meta Quest 3S und erscheinen als Meta-Avatare. Alternativ kann man das Hyperscape auch über die Smartphone-App „Meta Horizon“ besuchen, eine VR-Brille wird also nicht zwingend benötigt. Die Ersteller eines Hyperscapes können Einladungen jederzeit widerrufen.
Hyperscapes werden jetzt auf Quest 3 gerendert
Technisch hält das Update einige Überraschungen bereit: Die Hyperscapes werden jetzt nicht mehr in der Cloud gerendert und in die VR-Brille gestreamt, sondern lokal auf dem Quest-Gerät berechnet. Dadurch sinkt die Latenz und es wird keine schnelle Internetverbindung mehr vorausgesetzt.
Wichtig aus Gründen der Privatsphäre: Die initiale Verarbeitung der Scan-Daten zu Hyperscapes findet nach wie vor auf Metas Servern statt. Wer seine Privaträume nicht mit Meta teilen möchte, sollte sich dessen bewusst sein.
Ermöglicht wird das lokale Rendering der Hyperscapes durch Metas neue Horizon Engine. Die Hyperscapes werden damit zu privaten Destinationen von Metas Metaverse-Plattform „Horizon Worlds“. Bis zu acht Personen können sich gleichzeitig in einem Hyperscape aufhalten, und Meta arbeitet daran, diese Zahl künftig zu erhöhen.
Weiterlesen nach der Anzeige
Neben dem lokalen Rendering hat Meta zwei weitere Wünsche erfüllt, die wir in unserem Hyperscape-Test äußerten: Für noch mehr Immersion kann man sich nun per Analogstick fließend durch die Hyperscapes bewegen, statt nur per Teleportation. Außerdem wird jetzt Audio unterstützt, wobei noch unklar ist, wie die Audio-Komponente implementiert ist und ob beim Scannen eine Geräuschkulisse aufgenommen wird.
Das Update wird nach und nach an Nutzer ausgerollt und es kann eine Weile dauern, bis es alle erreicht. Hyperscapes, die man vor dem Update erstellt hat, lassen sich weiterhin besuchen, aber nicht mit anderen Nutzern teilen. Nur neu gescannte Orte bieten die Multiplayer-Funktion.
Der nächste Schritt: Hyperscape wird zur Plattform
Die Möglichkeit, ganze Räume auf einfache Weise mit einer VR-Brille zu erfassen und anschließend in hoher Qualität zu rendern, ist derzeit einzigartig auf dem VR-Markt.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Meta sieht in Hyperscape-Welten eine Möglichkeit, das Metaverse attraktiver zu gestalten. Und es ist leicht zu erkennen, wie eine solche Anwendung nicht nur für die Bewahrung von Erinnerungen und für soziale Aktivitäten mit räumlich entfernten Familienmitgliedern und Freunden von Wert sein könnte, sondern auch im Tourismus, im Immobiliengeschäft, in der Bildung und in Museen Nutzen stiften kann. Dafür müsste Metas App jedoch erst zu einer Plattform werden, sodass man Hyperscapes auch öffentlich teilen kann. Über die Zeit könnte Hyperscape so zu einem YouTube für 3D-Scans realer Orte werden.
Für das Scannen und Teilen von Hyperscapes wird die Hyperscape-App aus dem Meta Horizon Store benötigt.
(tobe)
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
UX/UI & Webdesignvor 1 MonatIllustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 3 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Online Marketing & SEOvor 3 Monaten„Buongiorno Brad“: Warum Brad Pitt für seinen Werbejob bei De’Longhi Italienisch büffeln muss
-
Online Marketing & SEOvor 3 MonatenCreator und Communities: Das plant der neue Threads-Chef
-
Entwicklung & Codevor 3 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
