Connect with us

Künstliche Intelligenz

Amazon bietet bald ersten Bilderrahmen-TV an


Weiterlesen nach der Anzeige

Bereits seit einiger Zeit bietet Amazon Fernseher mit der sogenannten „Ambient TV“-Funkton an, die Fotos oder Kunstwerke anzeigt, wenn Personen den Raum betreten und auf dem TV gerade keine Inhalte gestreamt werden. Auf der diesjährigen CES präsentiert das Unternehmen nun einen Smart TV, bei dem nach eigenen Angaben diese Funktion noch besser zur Geltung kommen soll.

Das „Amazon Amber Artline“ genannte Modell wurde dafür mit einem matten Display ausgestattet, bei dem Spiegeleffekte laut Hersteller bei allen Lichtverhältnissen reduziert werden. Zudem können Kunden aus zehn leicht installierbaren, magnetischen Rahmen in verschiedenen Farben (darunter Holztöne, Feige und Blau) die Variante wählen, die am besten zu ihrem Stil passt. Ein Rahmen ist im Lieferumfang enthalten, weitere können separat erworben werden.

Technisch betrachtet handelt es sich bei dem Bilderrahmen-TV im Übrigen um einen QLED-Fernseher mit Unterstützung für Dolby Vision, HDR10+ und Wi-Fi 6 sowie einem 3,9 cm dünnen Design.



Amazon bietet zu seinem Fernseher zehn verschiedene Rahmen an, die sich dank Magnetaufhängung leicht installieren und austauschen lassen sollen.

(Bild: Amazon Devices)

Für die Interaktion mit Amazons Sprachassistentin Alexa wurden im Ember Artline Fernfeld-Mikrofone eingebaut. Dank der sogenannten Omnisense-Technologie schaltet sich laut Amazon die Ambient TV-Funktion automatisch ein beziehungsweise aus, wenn Personen den Raum betreten oder verlassen. Amazon Photos ist nahtlos integriert und bietet Zugriff auf mehr als 2.000 kostenlose Kunstwerke.

Amazon Ember Artline wird im Frühjahr in 55″ und 65″ ab1000 Euro erhältlich sein. Interessenten können sich auf der Amazon-Website anmelden und werden benachrichtigt, sobald Amazon Ember Artline vorbestellt werden kann. Samsung hatte zuvor in Las Vegas angekündigt, seinen Bilderrahmen-Fernseher „The Frame“ mit wohnzimmertauglicher Diagonale anzubieten und zudem ein günstigeres Modell ohne externe Anschlussbox herauszubringen.

Weiterlesen nach der Anzeige

heise online ist Medienpartner der CES 2026


(nij)



Source link

Künstliche Intelligenz

Bastel-Projekt: Wie man Bewegungen mit einem 24-GHz-Radarsensor erkennt


Unser Haus steht etwa 40 Meter von der Straße entfernt. Entlang der Einfahrt befinden sich Laternen, die natürlich nicht ununterbrochen leuchten sollen, sondern nur, wenn jemand in die Einfahrt einfährt. Das könnte man mit einem handelsüblichen Infrarot-Bewegungsmelder lösen, der den Strom ein- und wieder ausschaltet.

Das Problem dabei ist jedoch, dass dieser technisch nur auf Bewegungen innerhalb seines begrenzten Erfassungswinkels und -bereichs (typisch 110° bis 180°, Reichweite bis ca. 10–15 Meter) reagiert und meist autark arbeitet, ohne Netzwerk- oder Smarthome-Integration. Dadurch kann man etwa nicht programmieren, dass sich das Licht ebenfalls über einen separaten Türkontakt beim Öffnen der Haustür einschalten soll.

  • Radarsensor mit ESPHome konfigurieren
  • Bewegung, Geschwindigkeit und Position abfragen
  • Unterschied zwischen Bewegungssensor und Radarsensor erklärt

Die Lampen lassen sich erst einmal unproblematisch ins Smarthome integrieren: In meinem Fall hängt in der Gartenhütte ein kleiner Sicherungskasten, in dem ein Shelly Pro den Strom auf der Leitung für die Lampen schalten kann. Der Shelly Pro ist direkt in Home Assistant integriert und kann von dort gesteuert werden. Jetzt stellt sich die Frage: Welche Sensorlösung kann alle oben angesprochenen Voraussetzungen erfüllen?


Das war die Leseprobe unseres heise-Plus-Artikels „Bastel-Projekt: Wie man Bewegungen mit einem 24-GHz-Radarsensor erkennt“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Alps Alpine: Fahrzeugcockpit mit haptischen Rückmeldungen


Der japanische Elektronikhersteller Alps Alpine hat auf der CES 2026 in Las Vegas Komponenten für Fahrzeugcockpits vorgestellt. Insgesamt sollen Kameras, Sensoren, Audioausgabe und haptisches Feedback als integriertes System zusammenwirken und situationsabhängig reagieren.

Weiterlesen nach der Anzeige

Zentrales Element ist ein Kameramodul, das den Fahrzeuginnenraum mit RGB- und Infrarotsensoren sowie Time-of-Flight-Tiefenmessung (ToF) erfasst, einem Verfahren, das dreidimensionale Tiefeninformationen mithilfe von Lichtlaufzeiten ermittelt.

Die Sensordaten nutzt Alps Alpine, um Position, Haltung und Bewegungen von Fahrer und Mitfahrenden zu bestimmen. Laut Hersteller funktioniert das auch bei schwierigen Lichtverhältnissen, etwa bei direkter Sonneneinstrahlung oder Nachtfahrten.

Um Fahrer und Insassen zu überwachen, nutzt Alps Alpine Kameras, die hinter Displays verbaut sind. Störende Linsen, Kameragehäuse oder ähnliche Bauteile sind im Cockpit also nicht zu sehen.

Weiterlesen nach der Anzeige

Weiche Innenraumoberflächen mit integrierten Aktuatoren vibrieren und vermitteln auf diese Weise Informationen über den Tastsinn. So kann beispielsweise das Lenkrad Gefahren taktil vermitteln. Drehregler können unterschiedlich leicht oder schwer reagieren. Die haptischen Signale lassen sich in Intensität sowie Dauer anpassen und sollen visuelle oder akustische Hinweise ergänzen oder ersetzen.

Lesen Sie auch

Audioausgabe, Anzeigeinhalte und Haptik sind softwareseitig synchronisiert. Je nach Fahrsituation verändert das System die Gewichtung der Rückmeldungen, etwa durch reduzierte visuelle Hinweise und verstärkte haptische Signale, wenn das Fahren höhere Konzentration verlangt. Die Logik dafür basiert auf kontextabhängigen Szenarien wie Abbiegevorgängen oder Fahrmoduswechseln.

Die Sensordaten werden laut Hersteller in Echtzeit im Fahrzeug verarbeitet. Alps Alpine setzt dabei auf eine modulare Architektur, die sich in bestehende Fahrzeugplattformen integrieren lässt. Die Komponenten sind für den Einsatz unter automobilen Temperatur-, Vibrations- und Sicherheitsanforderungen ausgelegt. Ein Cockpit als Gesamtkonzept gab es auf der Messe allerdings nicht zu sehen, sondern lediglich Einzelteile wie Reglerkomponenten und das Display mit rückseitig integrierter Kamera.

heise online ist Medienpartner der CES 2026


(akr)



Source link

Weiterlesen

Künstliche Intelligenz

Richtech Dex: mobiler humanoider Roboter für die Industrie


Der US-amerikanische Hersteller von Robotersystemen Richtech Robotics führt auf der CES 2026 seinen mobilen humanoiden Roboter Dex als zentrale Komponente seiner Robotikplattform für industrielle und gewerbliche Anwendungen vor.

Weiterlesen nach der Anzeige

Der weiße Roboter misst 137 cm in der mobilen und 109 cm in der stationären Variante. Er kann maximal 5 Kilogramm tragen. Dex ist allerdings eher für Industrie- und Montageaufgaben konzipiert und nicht als Lastenträger. Er ähnelt eher einem Küchengerät, also klassischer Weißware, als einem Industrieroboter. Richtig „humanoid“ wirkt er nicht.

Der Hersteller zeigt ihn im Zusammenspiel mit anderen Robotern, etwa mit dem Serviceroboter für die Kaffeezubereitung Adam, dem Bar‑Roboter Scorpion, der Getränke zubereitet, und dem autonomen Transportroboter Titan, der je nach Ausführung 200 Kilogramm oder 590 Kilogramm tragen kann.



Die Aufgabe des Serviceroboters Adam ist die Zubereitung von Kaffee. Den Großteil der Arbeit machen dabei die Kaffeemaschinen. Adam reicht Gefäße an.

(Bild: heise medien / André Kramer)

Die mobile Variante von Dex bewegt sich auf Rädern statt auf Beinen. Richtech verspricht dadurch höhere Energieeffizienz, geringeren Wartungsaufwand und stabile Fortbewegung in gemeinsam mit Menschen genutzten Arbeitsumgebungen. Das Fahrwerk hat laut Hersteller einen engen Wendekreis und kann schnell abbremsen.

Der Roboter hat zwei Produktionsarme, an deren Enden sich unterschiedliche Greifer oder Werkzeuge anbringen lassen. Vier Kameras helfen beim Navigieren, Erkennen von Objekten und Überwachen der Tätigkeiten in wechselnden Umgebungen.

Als Recheneinheit dient ein System aus der Jetson-Thor-Reihe von Nvidia. Weil es Sensordaten lokal verarbeitet, soll der Roboter schnell Entscheidungen treffen können. Im mobilen Betrieb erreiche Dex eine Laufzeit von rund vier Stunden pro Akkuladung.

Weiterlesen nach der Anzeige

Richtech trainiert Dex mit einer Kombination aus Simulation und realen Einsatzdaten. Dafür nutzt das Unternehmen offene Simulationsumgebungen wie Isaac Sim und Isaac Lab von Nvidia. In diesen virtuellen Umgebungen lernt der Roboter Arbeitsabläufe, die der Hersteller anschließend in reale Produktionsumgebungen überträgt. So soll sich der Roboter zügig und sicher in sein Arbeitsumfeld integrieren lassen.

Die Steuerungssoftware ist darauf ausgelegt, neue Aufgaben über zusätzliche Trainingsdaten anzulernen. Richtech greife dabei auf Erfahrungen aus mehr als 450 bereits installierten Robotersystemen zurück. Parallel baut das Unternehmen eine eigene Datenbasis aus realen industriellen Anwendungen in den USA auf, die es langfristig auch Dritten zur Verfügung stellen will.

heise online ist offizieller Medienpartner der CES 2026


(akr)



Source link

Weiterlesen

Beliebt