Connect with us

Künstliche Intelligenz

Echo Dot Max, Echo Studio und Echo Show vorgestellt


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Amazon hat die neue Generation seiner Echo-Gerätereihe vorgestellt: den Echo Dot Max, einen neuen Echo Studio, den Echo Show 8 (3. Generation) und den Echo Show 11. Bei der Präsentation betonte Amazons zuständiger Vizepräsident Daniel Rausch, dass alle diese Modelle die technischen Voraussetzungen für seinen neue Sprachassistentin Alexa+ erfüllen.

Amazon hatte Ende Februar in den USA den offiziellen Startschuss für Alexa+ gegeben, nachdem das Unternehmen das überarbeitete digitale Assistenzsystem bereits Ende 2023 erstmals vorgestellt hatte. Es basiert auf einem Sprachmodell für generative künstliche Intelligenz (KI) und soll deshalb wie die bekannten KI-Chatbots ChatGPT, Google Gemini oder Perplexity menschliche Sprache verstehen. Nach der Veranstaltung im Februar war Alexa+ nur in den USA und nur im Rahmen eines Beta-Tests gestartet. Dieser Betatest ist nun abgeschlossen, sodass Alexa für die Allgemeinheit zur Verfügung steht – allerdings bislang nur im US-Heimatmarkt. Deutschland und Österreich sollen irgendwann folgen, einen Termin dafür gibt es aber noch nicht. Fest steht nur, dass es auch hier zuerst eine Betaphase geben wird.

Noch im Februar sagte Panos Panay, Senior Vice President für Amazons Devices und Services, dass Alexa+ mit „fast allen“ Echo-Geräten kompatibel sein wird, die Amazon bisher herausgebracht hat. Die nun vorgestellten Modelle werden laut Amazon allerdings von zwei speziell entwickelten Chips – AZ3 und AZ3 Pro – angetrieben und sollen zudem über einen neuen KI-Beschleuniger verfügen, mit dem KI-Modelle in Zukunft direkt auf den Geräten laufen können. Amazon spricht in diesem Zusammenhang auch von „flüssigeren Interaktionen“, die mit älteren Echos nicht möglich wären. So soll etwa der im Echo Dot Max verwendete AZ3 Hintergrundgeräusche besser herausfiltern und die Zuverlässigkeit, mit der Alexa das Aktivierungswort erkennt, um fast 50 Prozent erhöhen.

Lesen Sie auch

Mit den neuen Geräten wird auch „Omnisense“ eingeführt. Hierbei handelt es sich laut Amazon um eine Technologie, um verschiedene Sensordaten und anderen Informationen zusammenzuführen – darunter die Kamerabilder der neuen Echo-Show-Geräte, Audio, Ultraschall, WLAN-Radar, den Beschleunigungssensor und WLAN-Kanalzustandsinformationen. Ziel sei es, „personalisierte, proaktive und nützliche Alexa-Erlebnisse“ zu ermöglichen.

Bei der Präsentation wurde in einem Beispiel Omnisense genutzt, um Alexa+ damit zu beauftragen, eine bestimmte Person über eine Ring-Kamera zu identifizieren, wenn diese die Küche betritt. In diesem Fall erhält sie eine Meldung, dass sie nicht vergessen soll, den Hund zu füttern.

Der Echo Dot Max zum Listenpreis von 110 Euro soll kraftvollen Sound liefern, der sich automatisch an den Raum anpasst, sowie „fast dreimal so viel Bass wie Echo Dot (5. Generation)“. Im Unterschied zu früheren Echo Dot-Geräten nutzt der Echo Dot Max ein Zwei-Wege-Lautsprechersystem. Der neue Echo Studio für 240 Euro ist im Vergleich zum Vorgängermodell wiederum um 40 Prozent kleiner und kombiniert einen Tieftöner mit drei Breitband-Treibern.

Mit 3D-Sound einschließlich Dolby Atmos warb Amazon schon beim bisherigen Echo Studio, ebenso ließen sich dort zwei Modelle für einen besseren Raumklang im Tandem betreiben. Nun lassen sich bis zu fünf Echo-Studio- oder Echo-Dot Max-Geräte mit kompatiblen Fire-TV-Geräten kombinieren, um ein immersives Surround-Sound-Erlebnis zu schaffen. Alexa soll sich laut Entwickler automatisch um die Einrichtung kümmern und danach den Klang auch an den Raum anpassen. Alexa betont, dass Systeme wie diese ansonsten in der Regel Tausende Euro kosten und die Einrichtung Zeit und Fachwissen erfordert. Mit fünf Echo Studios läge man allerdings auch schon bei rund 1200 Euro – ob es für diesen Preis den Ansprüchen gerecht wird, muss das Alexa-Heimkinosystem im Test beweisen.

[Update 30.09., 20:50 Uhr: Zum Start wird es nicht möglich sein, Echo Studios und Echo Dot Maxes zu einer Heimkinoanlage zu kombinieren, sondern nur mehrere Geräte der jeweiligen Modellreihe. Amazon arbeitet nach eigenen Angaben aber an einem Firmware-Update, das dies ermöglichen wird.]

Die neuen Smart Displays Echo Show 8 und Echo Show 11 kombinieren laut Amazon verschiedene Techniken (darunter ein negatives Flüssigkristall-Design mit senkrecht zur optischen Achse ausgerichteten Molekülen), um Laminierungsschichten zu reduzieren und die Betrachtungswinkel zu maximieren. Inhalte sollen so sowohl in hellen als auch in schwach beleuchteten Räumen so gut lesbar sein. Darüber hinaus wurde auch die sichtbare Bildschirmfläche vergrößert. Die Auflösung der integrierten Videokamera liegt weiterhin wie beim Echo Show 8 (2. Generation) und dem Echo Show 10 bei 13 Megapixel.



Die neun Echo Shows (hier der 11er) sehen von hinten ein wenig aus wie ein Smart Speaker, an den man ein Display montiert hat.

(Bild: Amazon Devices)

Laut Amazon wurde die Klangqualität mithilfe einer komplett neuen Audio-Architektur optimiert. Echo Show 8 und Echo Show 11 verfügen über nach vorne gerichtete Stereo-Lautsprecher, die sich unter den Displays befinden, sowie einen „speziellen Tieftöner für raumfüllendes 3D-Audio“. Passend zum Design und Farbton wird für die Modelle ein optionaler Ständer mit 40°-Neigungs- und 360°-Schwenkfunktion angeboten.

Der neue Echo Show 8 soll 200 Euro kosten, der Echo Show 11 240 Euro. Den Ständer gibt es für 40 Euro. Echo Dot Max und Echo Studio werden ab 29. Oktober, Echo Show 8 und Echo Show 11 ab 12. November ausgeliefert.

Der Autor wurde von Amazon zu dem Event in New York eingeladen. Amazon hat die Reisekosten übernommen.


(nij)



Source link

Künstliche Intelligenz

Inmo Air 3: Smartglasses versprechen vollwertigen Android-Computer zum Aufsetzen


Derzeit buhlt eine Vielzahl von Smartglasses um die Gunst von Gadget-Freunden, darunter auch Modelle mit transparenten Bildschirmen wie die Rokid Glasses oder die in Deutschland (noch) nicht erhältliche Meta Ray-Ban Smartglasses. Das auf Kickstarter angebotene chinesische Konkurrenzmodell Inmo Air 3 geht einen anderen Weg: Das Standalone-Gerät soll zum Betrieb kein drahtlos verbundenes Smartphone benötigen. Stattdessen agiert es auf Wunsch als komplett eigenständiger Computer auf der Nase mit zwei transparenten vollfarbigen Micro-OLED-Displays von Sony.

Weiterlesen nach der Anzeige

Das ab rund 770 Euro erhältliche Gerät unterstützt laut Hersteller über 90 Prozent aller Android-Apps. Die Bedienung funktioniert auf unterschiedlichen Wegen. Ähnlich wie bei Metas Smartglasses reagiert die Brille auf ein Touchfeld am Rand sowie Spracheingaben.

Deutlich interessanter ist der beiliegende Smartring, über den man mit dem Daumen streicht. Er fungiert als Touchpad für eine mausähnliche Bedienung, als eine Art Laserpointer zum Zielen und aus Eingabeknopf. Als Alternative liegt ein etwas größerer Touchpad-Controller bei. Auch das neuronale Armband „Mudra Link“ wird unterstützt.

Als Prozessor arbeitet ein nicht näher spezifizierter „Snapdragon XR“-Chip mit acht Kernen in der Brille. Der Speicherplatz beträgt 8 GByte, der Speicherplatz 128 GByte.

Die 1080P-Auflösung der Displays bei 120 Hertz Bildwiederholrate sollte hoch genug für Text oder den Konsum von Filmen sowie Spielen sein. Die eingebaute Waveguide-Technik ermöglicht aber lediglich ein Sichtfeld von 36 Grad. Auch wenn die Einsatzmöglichkeiten mit bis zu drei virtuellen Bildschirmen an die Apple Vision Pro erinnern, sollte man also kein vergleichbares Bild erwarten. Auf den transparenten Brillengläsern sieht man oft nur einen verhältnismäßig kleinen Ausschnitt. Das Sichtfeld ist aber immerhin größer als beim einzelnen Display der Meta Ray-Ban Display (etwa 20 Grad).

Die 600 Nits Helligkeit reichen laut Hersteller auch für den Einsatz im Freien aus – etwa für Einblendungen eines KI-Assistenten oder bei der Nutzung unterstützter Android-Apps. Getönte Gläser liegen bei und lassen sich via Clip aufstecken. Sie schützen nicht nur vor Sonneneinstrahlung, sondern erhöhen auch beim Medienkonsum den Kontrast des transparenten Bildes. Sehstärke-Linsen lassen sich auf Wunsch mitbestellen.

Weiterlesen nach der Anzeige

Die Möglichkeiten der eingebauten Kamera liegen mit 4K-Auflösung bei 60 Bildern pro Sekunde (fps) deutlich über denen in anderen Smartglasses wie der Oakley Meta Vanguard (2128 × 2832 Pixel bei 30 fps, 1.216 × 1.616 Pixel bei 60 fps). Hier stoppt die Aufnahme erst nach maximal einer Stunde statt schon nach wenigen Minuten wie bei Meta. Die Ultra-Weitwinkel-Linse mit 120 Grad eignet sich auch hier aber eher für Landschaftsaufnahmen als für Fotos und Videos von Personen.

Um das Android-System mit genügend Strom zu versorgen, sind die hinteren Enden der Brillenbügel etwas dicker als bei einigen kompakteren Smartglasses. Das führt auch zu einem etwas höheren Gewicht von rund 135 Gramm (Meta Ray-Ban Display: rund 70 Gramm). Der Akku fasst 660 mAh und soll je nach Nutzung eine Stunde bis sieben Stunden durchhalten.

Wer möchte, kann drahtlos Geräte via Bluetooth oder Wi-Fi verbinden, etwa um vom Smartphone Anrufe entgegenzunehmen oder Spiele vom PC zu streamen. Wer lieber nicht auf das Kickstarter-Angebot eines chinesischen Herstellers zurückgreifen möchte, sollte auch die geplanten Smartglasses von Apple und Google (mit dem neuen Betriebssystem Android XR) im Auge behalten.


(jpw)



Source link

Weiterlesen

Künstliche Intelligenz

diVine: Twitter-Gründer bringt Kurzvideo-App Vine zurück und verbietet KI-Videos


Die bereits vor Tiktok beliebte Kurzvideo-Plattform Vine erlebt eine Rückkehr. Der 2016 von Twitter eingestellte Dienst wird zwar nicht selbst wiederbelebt, am Donnerstag, 13. November 2025 ist aber die daran angelehnte Plattform „diVine“ gestartet. Sie ist im Beta-Stadium für iOS, Android und im Browser verfügbar. Wie beim Vorbild sind auf diVine maximal sechs Sekunden kurze Nutzervideos erlaubt, die im Loop laufen.

Weiterlesen nach der Anzeige

Der von RabbleLabs angebotene Dienst erhält Unterstützung vom Twitter-Mitgründer Jack Dorseys Nonprofit-Organisation „and Other Stuff“. KI-generierte Szenen sind verboten, um „AI Slop“, also künstlich produzierten Inhalten ohne kreativen Wert vorzubeugen.

Um diese Regel zu überprüfen, setzt Anbieter RabbleLabs zur Überprüfung selbst Maschine-Learning-Algorithmen ein. Auch ein Nutzer-Reporting und eine „ProofMode“-Verifikation sollen bei der Durchsetzung helfen. Die in der App aufgenommenen Videos können laut der FAQ zudem einen Prüfmodus durchlaufen, um kryptografisch sicherzustellen, dass eine Smartphone-Kamera das Video aufgenommen hat.

Anders als bei Konkurrenzangeboten wie Tiktok oder Instagram soll diVine die Videos nicht auf zentralisierten Servern speichern. Stattdessen kommt das Nostr-Protokoll zum Einsatz, um Inhalte über ein Netzwerk unabhängiger Relays zu verteilen.

Damit der Feed zu Beginn nicht zu leer wirkt, sollen auch alte Videos aus dem Vine-Archiv verfügbar sein. Ein Mitarbeiter von „and Other Stuff“ arbeitet laut Techcrunch bereits daran, Teile des Vine-Archivs wiederherzustellen. Das von der „Archive Team“-Gruppe erstellte Backup umfasst demnach rund 40 bis 50 GByte.

Zum Zeitpunkt der Veröffentlichung dieses Artikels sind die Beta-Server überlastet, sodass vorerst keine weiteren Anmeldungen möglich sind. Es gibt allerdings eine Möglichkeit, via Mail über eine Besserung der Lage benachrichtigen zu lassen.

Weiterlesen nach der Anzeige


(jpw)



Source link

Weiterlesen

Künstliche Intelligenz

Minds Mastering Machines 2026: Jetzt noch Vortrag für die Konferenz einreichen


Am 22. und 23. April 2026 findet die Minds Mastering Machines in Karlsruhe statt. Bis zum 23. November 2025 suchen die Veranstalter iX und dpunkt.verlag Vorträge für die Fachkonferenz zu Machine Learning und KI.

Weiterlesen nach der Anzeige

Im Mittelpunkt der Minds Mastering Machines stehen weniger die KI-Hype-Themen, sondern Machine Learning in der Praxis. KI im Unternehmen bedeutet nach wie vor zum Großteil das Training Neuronaler Netze und den Einsatz klassischer ML-Methoden.

Vorträge zu aktuellen KI-Themen wie GenAI, LLMs, A2A oder MCP werden ebenfalls behandelt und dabei auf ihren praktischen Nutzen bewertet.

Die Konferenz wendet sich mit ihrem technischen Schwerpunkt an Fachleute, die ML-Projekte in die technische Realität umsetzen, darunter Data Scientists, Data Engineers, Softwareentwickler und Softwarearchitektinnen. Am Vortag der Konferenz sind am 21. April ganztägige Workshops geplant.

Im Call for Proposals suchen die Veranstalter bis zum 23. November Vorträge mit einer Länge von 40 Minuten und ganztägige Workshops unter anderem zu folgenden Themen:

  • Deep Learning
  • GenAI in der Praxis
  • Validierung von ML-Anwendungen
  • LLMs und multimodale Modelle
  • Agentic AI, MCP und A2A
  • Data Engineering: Vom Training zur Produktion
  • Datenschutz, Ethik und Recht

Weiterlesen nach der Anzeige

Besonders gerne gesehen sind Erfahrungsberichte. Das Programm wird Mitte Dezember veröffentlicht. Wer über den Verlauf der Konferenz informiert werden möchte, kann sich für den Newsletter eintragen.

Bis zur Veröffentlichung des Programms sind die Tickets zum besonders günstigen Blind-Bird-Tarif von 999 Euro (alle Preise zzgl. 19 % MwSt.) verfügbar.


(rme)



Source link

Weiterlesen

Beliebt