Künstliche Intelligenz
Raspi-Konkurrenz: Qualcomm schluckt Arduino und stellt Einplatinencomputer vor
Qualcomm übernimmt den für seine Mikrocontroller-Boards bekannten Hersteller Arduino. Direkt zur Übernahme stellt Qualcomm seinen ersten Einplatinencomputer für Bastelprojekte vor: den Arduino Uno Q. Saßen auf bisherigen Uno-Boards nur kleine Mikrocontroller für simple Aufgaben, kommt der Uno Q mit einem Chipduett aus Mikrocontroller (MCU) und Mikroprozessor (MPU), sodass etwa Linux eigenständig auf dem Board läuft.
Schon die MCU in Form des STMicroelectronics STM32U585 ist deutlich schneller als der Renesas RA4M1 auf dem Arduino Uno R4. Die neue Variante setzt auf den ARM-Kern Cortex-M33 mit 160 MHz (Uno R4: Cortex-M4, 48 MHz).

Arduino
)
Ab Oktober und 39 Euro
Zusätzlich sitzt Qualcomms Dragonwing QRB2210 auf der Platine. In ihm stecken vier ARM-Kerne vom Typ Cortex-A53, die 2,0 GHz schaffen. Außerdem gibt es eine integrierte Grafikeinheit und Zusatzblöcke wie Bildsignalprozessoren. Arduino und Qualcomm bewerben das Board auch für KI-Anwendungen (Edge AI).
Eine eigenständige KI-Einheit hat der QRB2210-Prozessor nicht, allerdings sollen die CPU und die GPU für einige KI-Algorithmen ausreichen, etwa zur Bilderkennung. Nützlich dafür: Der QRB2210 kann zwei Bildsensoren mit jeweils 13 Megapixeln oder einen einzelnen 25-Megapixel-Sensor ansteuern. Ein Hardware-De- und Enkodierer beherrscht H.265 und H.264 für 1080p-Videos mit 30 fps.
Zum Start bringt Arduino eine Variante mit 2 GByte LPDDR4-RAM und 16 GByte NAND-Flash-Speicher (eMMC) für 39 Euro auf den Markt. Sie soll ab heute vorstellbar und ab dem 25. Oktober verfügbar sein. Eine Version mit 4 GByte RAM und 32 GByte Flash soll ab November für 53 Euro vorbestellbar sein und bis zum Jahresende folgen. Ein Funkmodul für Wi-Fi 5 (2,4 + 5 GHz) und Bluetooth 5.0 ist stets dabei.

Alle Komponenten des Arduino Uno Q. Prozessor und Mikrocontroller befinden sich auf gegenüberliegenden Seiten.
(Bild: Arduino)
Alte Technik mit viel Leistung für Arduino-Verhältnisse
Das Cortex-A53-Kerndesign ist bereits 13 Jahre alt, ist aber für viele Bastelprojekte schnell genug. Damals saß er als Effizienzkern in vielen Smartphone-Prozessoren. CPU-seitig ist der Arduino Uno Q grob mit dem Raspberry Pi 3 von 2016 vergleichbar. Dessen Broadcom-BCM2837-Prozessor nutzt ebenfalls vier Cortex-A53-Kerne, die ab Werk mit 1,2 GHz allerdings ein gutes Stück niedriger takten.
Charmant erscheint die Kombination aus Mikrocontroller und Mikroprozessor aus Effizienzsicht. Auf dem integrierten Speicher des STMicro-Chips läuft Arduino Core, basierend auf Zephyr OS. Der Qualcomm-Prozessor kann sich fast komplett schlafen legen, wenn dessen Leistung nicht notwendig ist. Auf ihm laufen Debian-Linux-Betriebssysteme mit Upstream-Support sowie Unterstützung für Docker und Docker Compose.
Das neue Arduino App Lab dient als Entwicklungsumgebung für die CPU, GPU und MCU. Die Arduino-Entwickler betonen, dass sie auch nach der Qualcomm-Übernahme auf Open-Source setzen – Hardware-Komponenten wollen sie unter der Lizenz CC BY-SA 4.0 offenlegen, Software unter GPL3 und MPL.
Wenige Anschlüsse
Der größte Unterschied zu Raspberry-Pi-Einplatinencomputern liegt bei den Anschlüssen. Außer den GPIO-Pinleisten hat der Arduino Uno Q ausschließlich einen USB-C-Anschluss. Der Hersteller sieht den Einsatz eines USB-Hubs für die Stromversorgung (5 Volt, 3 Ampere), HDMI-Bildausgabe (max. 1680 x 720 Pixel mit 60 Hert) und Peripherie vor. Der Anschluss schafft allerdings nur USB-2.0-Geschwindigkeit. Alternativ bekommt der Arduino Uno Q über GPIO-Pins Strom.
Es gibt keine eigenständigen Bildausgänge, keinen SD-Kartenslot zur Speichererweiterung und kein PCI Express (etwa für eine SSD). Qualcomm und Arduino versehen die Platinenunterseite allerdings mit neuen Pinleisten, für die künftig Erweiterungs-Boards erscheinen sollen, Arduino Carriers genannt.
Die Platinenbauform, Positionierung der Header (QWIIC, SPI 3V3) und GPIO-Pinleisten bleiben identisch, sodass bisherige Gehäuse und Zusatz-Hardware weiter passen. Auch die LED-Matrix ist weiterhin mit dabei. Der Arduino Uno Q versteht sich unter anderem auch auf die Interfaces I2C/I3C, CAN, UART, PSSI, JTAG und ADC.

Spezifikationen des Arduino Uno Q.
(Bild: Arduino)
(mma)
Künstliche Intelligenz
c’t-Webinar: Next Level Midjourney | heise online
Die Bild- und Video-KI Midjourney erzeugt visuelle Inhalte für berufliche oder private Anwendungen. Durch präzise Eingaben und zahlreiche Stiloptionen dient Midjourney als flexibles Werkzeug für eigene Gestaltungsideen. Dank neuer Funktionen lassen sich kurze, animierte Videos erstellen, die einfache Szenen oder Abläufe visualisieren.
Weiterlesen nach der Anzeige
In diesem Webinar lernen die Teilnehmer, wie sie ihre Vorstellungen Schritt für Schritt in Midjourney umsetzen. Der Referent zeigt zentrale Funktionen, typische Fallstricke und erkennbare Grenzen des Systems. Dabei liegt der Fokus auf realen Arbeitsabläufen.
Vom starken Prompt zum konsistenten Ergebnis
Die Inhalte des Webinars reichen vom Aufbau wirkungsvoller Prompts über die Bildbearbeitung mit dem Midjourney-Editor bis zu fortgeschrittenen Techniken wie der Verwendung von Referenzbildern für konsistente Charaktere und Stile. Auch das Zusammenspiel mit anderen Tools zur Nachbearbeitung und die Integration in Workflows kommen zur Sprache. Ein eigener Themenblock widmet sich Midjourneys Animationsfunktion.
Die Teilnehmer entwickeln ein Verständnis dafür, wie sie eigene Konzepte visuell ausarbeiten, ohne auf generisches Stockmaterial zurückzugreifen. Die Veranstaltung richtet sich an Anwender, die belastbare visuelle Assets benötigen – vom Marketingteam über Content Creator bis zu Agenturen, Trainern und Künstlern.
Midjourney-Experte gibt Einblicke
Referent Adrian Rohnfelder ist mehrfach ausgezeichneter Profifotograf und Midjourney-Experte. Er verbindet seine kreative Erfahrung mit neuesten KI-Tools und gibt sein Wissen als Dozent und Speaker weiter. Für die Teilnahme sind keine Vorkenntnisse nötig, erste Erfahrungen mit Midjourney sind jedoch von Vorteil.
Das Webinar bietet damit einen praxisorientierten Überblick über KI-gestützte Bild- und Videoproduktion. Teilnehmende erhalten konkrete Anleitungen, um Midjourney effizient in Projekte einzubinden.
Weiterlesen nach der Anzeige
- Termin: 28. Januar 2026
- Uhrzeit: 14:00 bis 17:00 Uhr
- Preis: 59,00 / 69,00 Euro (Frühbucher / Standard)
Zur Teilnahme benötigen Sie lediglich einen aktuellen Browser. Weitere Informationen zum Webinar sowie Details zur Anmeldung finden Sie auf der Webseite der heise academy.
(abr)
Künstliche Intelligenz
Meta Hyperscape: Fotorealistische 3D-Scans jetzt mit Multiplayer-Funktion
Mit Meta Quest 3 lassen sich seit September Räume und ganze Umgebungen scannen und zu erstaunlich realistischen digitalen Kopien verarbeiten, die man später in Virtual Reality besuchen kann. Der Scanvorgang dauert etwa 15 Minuten und setzt keinerlei technisches Vorwissen oder spezielle Ausrüstung voraus. Selbst Außenräume und Landschaften werden eindrucksvoll eingefangen, wie unser Hyperscape-Test zeigte.
Weiterlesen nach der Anzeige
Die Hyperscapes konnten bislang nur deren Ersteller besuchen. Nun rollt Meta eine Multiplayer-Funktion aus, die es Nutzern ermöglicht, andere Menschen in die eigenen Hyperscapes, etwa die der eigenen Wohnung, einzuladen.
Dazu öffnet man die Hyperscape-App, wählt ein Hyperscape aus und lädt Familie oder Freunde direkt oder per Link ein. VR-Nutzer benötigen eine Meta Quest 3 oder Meta Quest 3S und erscheinen als Meta-Avatare. Alternativ kann man das Hyperscape auch über die Smartphone-App „Meta Horizon“ besuchen, eine VR-Brille wird also nicht zwingend benötigt. Die Ersteller eines Hyperscapes können Einladungen jederzeit widerrufen.
Hyperscapes werden jetzt auf Quest 3 gerendert
Technisch hält das Update einige Überraschungen bereit: Die Hyperscapes werden jetzt nicht mehr in der Cloud gerendert und in die VR-Brille gestreamt, sondern lokal auf dem Quest-Gerät berechnet. Dadurch sinkt die Latenz und es wird keine schnelle Internetverbindung mehr vorausgesetzt.
Wichtig aus Gründen der Privatsphäre: Die initiale Verarbeitung der Scan-Daten zu Hyperscapes findet nach wie vor auf Metas Servern statt. Wer seine Privaträume nicht mit Meta teilen möchte, sollte sich dessen bewusst sein.
Ermöglicht wird das lokale Rendering der Hyperscapes durch Metas neue Horizon Engine. Die Hyperscapes werden damit zu privaten Destinationen von Metas Metaverse-Plattform „Horizon Worlds“. Bis zu acht Personen können sich gleichzeitig in einem Hyperscape aufhalten, und Meta arbeitet daran, diese Zahl künftig zu erhöhen.
Weiterlesen nach der Anzeige
Neben dem lokalen Rendering hat Meta zwei weitere Wünsche erfüllt, die wir in unserem Hyperscape-Test äußerten: Für noch mehr Immersion kann man sich nun per Analogstick fließend durch die Hyperscapes bewegen, statt nur per Teleportation. Außerdem wird jetzt Audio unterstützt, wobei noch unklar ist, wie die Audio-Komponente implementiert ist und ob beim Scannen eine Geräuschkulisse aufgenommen wird.
Das Update wird nach und nach an Nutzer ausgerollt und es kann eine Weile dauern, bis es alle erreicht. Hyperscapes, die man vor dem Update erstellt hat, lassen sich weiterhin besuchen, aber nicht mit anderen Nutzern teilen. Nur neu gescannte Orte bieten die Multiplayer-Funktion.
Der nächste Schritt: Hyperscape wird zur Plattform
Die Möglichkeit, ganze Räume auf einfache Weise mit einer VR-Brille zu erfassen und anschließend in hoher Qualität zu rendern, ist derzeit einzigartig auf dem VR-Markt.
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Meta sieht in Hyperscape-Welten eine Möglichkeit, das Metaverse attraktiver zu gestalten. Und es ist leicht zu erkennen, wie eine solche Anwendung nicht nur für die Bewahrung von Erinnerungen und für soziale Aktivitäten mit räumlich entfernten Familienmitgliedern und Freunden von Wert sein könnte, sondern auch im Tourismus, im Immobiliengeschäft, in der Bildung und in Museen Nutzen stiften kann. Dafür müsste Metas App jedoch erst zu einer Plattform werden, sodass man Hyperscapes auch öffentlich teilen kann. Über die Zeit könnte Hyperscape so zu einem YouTube für 3D-Scans realer Orte werden.
Für das Scannen und Teilen von Hyperscapes wird die Hyperscape-App aus dem Meta Horizon Store benötigt.
(tobe)
Künstliche Intelligenz
Windows 11 24H2: Nach Juli-Updates treten nervende Probleme auf
Microsoft hat Nerv-Probleme nach der Installation der Sicherheitsupdates aus dem Juli oder neuerer in Windows 11 24H2 eingeräumt. Die treten insbesondere bei nicht-persistenten Windows-Installationen auffallend in Erscheinung.
Weiterlesen nach der Anzeige
Das erklärt Microsoft in einem Support-Artikel. „Nach dem Ausstatten eines PCs mit einem kumulativen Update aus dem Juli 2025 oder neuer für Windows 11 24H2 (KB5062553) können diverse Apps wie StartMenuExperiencehost, Search, SystemSettings, Taskbar oder Explorer Schwierigkeiten haben“, schreibt Microsoft dort. Das passiere nach dem ersten Nutzer-Log-in nach dem Anwenden des Updates – und bei allen Nutzer-Anmeldungen auf nicht persistenten Betriebssysteminstallationen wie in einer virtuellen Desktop-Infrastruktur (VDI) oder ähnlichen Umgebungen, bei denen App-Pakete bei jedem Log-in installiert werden müssen. Nicht-persistente Installationen kommen etwa in großen Organisationen vor, bei denen kein größerer Grad an Personalisierung des Windows-Desktops nötig ist und in denen sich Nutzerinnen und Nutzer an unterschiedlichen Arbeitsplätzen anmelden können.
Symptome und Fehlermeldungen
Die Fehler treten typischerweise nach Aktualisierungen für mitgelieferte Abhängigkeitspakete auf, die XAML-Komponenten enthalten. Dann können einige Komponenten nicht starten und Fehlermeldungen auf den Bildschirm bringen. Dazu gehören Explorer.exe, ImmersiveShell, ShellHost.exe oder etwa StartMenuExperienceHost. Außerdem können Anwendungsabstürze beim Initialisieren von XAML-Ansichten auftreten oder der Explorer laufen, ohne in der Taskleiste einen Eintrag anzuzeigen. Konkret lassen sich etwa Abstürze des Explorers beobachten, das Startmenü öffnet sich nicht und zeigt eine kritische Fehlermeldung, die Systemeinstellung „Start“ – „Einstellungen“ – „Systems“ startet einfach nicht ohne weitere Rückmeldung oder die ShellHost.exe stürzt ab.
Die Problemursache hat Microsoft inzwischen gefunden und bestätigt. Die betroffenen Apps haben Abhängigkeiten von XAML-Paketen, die nach der Installation des Updates nicht rechtzeitig registriert werden. Zwar arbeitet Microsoft an einer automatischen Lösung für das Problem, liefert im Support-Beitrag aber auch Hinweise, wie IT-Verantwortliche in betroffenen Umgebungen sich behelfen können.
Dazu gehört das manuelle Registrieren der fehlenden Pakete in der Nutzersitzung und ein anschließender Neustart des SiHost. Microsoft stellt dazu drei Befehle zur Verfügung, die die Registrierung übernehmen. Zudem stellt Microsoft ein Powershell-Skript für nicht persistente Umgebungen bereit. Das sollen Admins als Log-on-Skript laufen lassen.
(dmk)
-
UX/UI & Webdesignvor 3 MonatenAdobe Firefly Boards › PAGE online
-
UX/UI & Webdesignvor 1 MonatIllustrierte Reise nach New York City › PAGE online
-
Apps & Mobile Entwicklungvor 3 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
-
Datenschutz & Sicherheitvor 3 MonatenHarte Zeiten für den demokratischen Rechtsstaat
-
Datenschutz & Sicherheitvor 2 MonatenJetzt patchen! Erneut Attacken auf SonicWall-Firewalls beobachtet
-
Online Marketing & SEOvor 3 Monaten„Buongiorno Brad“: Warum Brad Pitt für seinen Werbejob bei De’Longhi Italienisch büffeln muss
-
Online Marketing & SEOvor 3 MonatenCreator und Communities: Das plant der neue Threads-Chef
-
Entwicklung & Codevor 3 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
