Connect with us

Apps & Mobile Entwicklung

Diesen Roboter könnt Ihr bereits kaufen – aber bitte tut es nicht! » nextpit


Wird 2026 das Jahr, in dem wir anfangen, humanoide Roboter als Haushaltshilfe zu kaufen? Zumindest den 1X Neo werdet Ihr dann käuflich erwerben können. Wieso das aber gar keine so gute Idee ist, erkläre ich Euch hier.

Ja, humanoide Roboter werden das „next big thing“, wenn man Elon Musk und noch ein paar anderen glauben darf. Der Tesla-Chef sieht ein Marktvolumen von 10 Milliarden Robotern weltweit und will selbst schon in den nächsten Jahren etwa eine Million Tesla-Roboter jährlich dazu beisteuern.

Bislang sehen wir humanoide Roboter aber weder auf den Straßen noch in unseren Wohnungen. Vielleicht ändert sich das mit diesem vom norwegisch-US-amerikanischen Unternehmen 1X vorgestellten Kollegen: Der Roboter namens Neo soll ab 2026 ausgeliefert werden, kann in den USA aber jetzt über die Produktseite von 1X bereits bestellt werden.

Das kann der 1X Neo

Externen Inhalt erlauben

Ich bin damit einverstanden, dass externer Inhalt geladen wird. Personenbezogene Daten werden womöglich an Drittplattformen übermittelt. Nähere Informationen enthält die Datenschutzerklärung.

Der rund 1,65 Meter große und knapp 30 Kilo schwere Roboter kann Gewichte von bis zu 70 Kilogramm anheben und transportiert Gewichte von bis zu knapp 25 Kilo. Er übernimmt einfache Aufgaben wie Aufräumen, Staubsaugen oder Wäschefalten – zumindest in Zukunft. Dazu später mehr.

Der in drei Farben erhältliche Roboter kostet 20.000 US-Dollar oder 489 Dollar monatlich und soll zunächst in den USA erhältlich sein. Er besitzt ein im Wesentlichen aus Aluminium gefertigtes Skelett und unter seiner Bekleidung ein Polymer-Gittergehäuse. Er ist also so soft gestaltet, dass sich ein Mensch bei Kontakt mit ihm möglichst nicht verletzen soll.

Er ist mit einem Large Language Model ausgestattet, kann also Gespräche führen, Termine verwalten oder Einkaufslisten anlegen. Über Kameras (er besitzt Kamera-Augen mit jeweils 8 MP) und Sensoren entwickelt er ein visuelles Gedächtnis, um sich besser an seine Umgebung und die Bewohner:innen anzupassen. Mit 22 dB ist er zudem relativ leise.

Angangs kann der humanoide Roboter nur eine Handvoll Ausgaben erledigen (beispielsweise die Tür öffnen). Er lernt aber mit der Zeit dazu und genau das ist meines Erachtens der fette Haken.

Der Mensch als Versuchskaninchen und Ausbilder

Zum Start braucht Neo noch Hilfe. Er muss quasi erst noch lernen, was in Eurem Haushalt zu tun ist. Das wäre grundsätzlich kein Problem, denn wir wissen ja, dass der Kamerad noch lernt. Schwierig wird es aber, wenn man erfährt, dass der Roboter zumeist anfangs nicht eigenständig agiert, sondern ferngesteuert wird.

Das erinnert wieder an Tesla. Auch dort gab es pro Roboter auch mehr oder weniger versteckt eine Person, die den Humanoiden fernsteuerte. Genauso soll das bei Neo auch laufen: Mitarbeitende von 1X sollen den Roboter per Teleoperation fernsteuern, damit er aus ihren Handgriffen lernt.

Diese Teleoperation ist natürlich nur dann möglich, wenn der Mensch, der den Roboter steuert, auch in die Wohnung sehen kann. Die Kameraaugen ermöglichen der Person also, den Roboter zu lenken und ihm somit neue Tricks beizubringen.

Bitte etwas mehr Privatsphäre, Herr Roboter!

Soll er also Euer Bett machen, sieht der 1X-Mensch mit der Fernbedienung demzufolge in Euer Schlafzimmer. Er sieht Eure Küche, Euer Wohnzimmer und gegebenenfalls auch Euch. Daher meine Frage in die Runde: Möchtet Ihr, dass Euer 20.000 Peitschen teure Roboter sich alles ansehen kann, was in Euren eigenen vier Wänden vor sich geht?

Wir müssen vermutlich damit leben, dass ein solcher Roboter Szenen unseres Lebens erfasst. Ebenso, wie wir im Internet unsere Spuren hinterlassen und ChatGPT unsere Geheimnisse verraten. Aber zumindest für mich macht es noch einmal einen Unterschied, ob Daten möglicherweise irgendwo landen, wo ich sie nicht mehr kontrollieren kann – oder ob sich jemand komplett Fremdes in Echtzeit durch meine Bude bewegt.

Fairerweise sei dazu gesagt: Ihr könnt kontrollieren, wann der Roboter Aufgaben erfüllen soll, außerdem könnt Ihr „No-go-Areas“ einrichten, die der Roboter nicht betreten soll. Aber im Grunde schafft man sich das Teil doch an, damit er einem ständig überall zu Diensten sein kann, oder? Schaut gern ins Video des Wall Street Journal rein. Dort erfahrt Ihr mehr darüber, was Neo schon kann und was nicht.

Externen Inhalt erlauben

Ich bin damit einverstanden, dass externer Inhalt geladen wird. Personenbezogene Daten werden womöglich an Drittplattformen übermittelt. Nähere Informationen enthält die Datenschutzerklärung.

Roboter kaufen oder nicht?

Meiner Meinung nach sollte es andere Wege geben, Robotern Hausarbeit beizubringen als über Teleoperationen. Das allein ist für mich ein Grund, mir diesen Kerl ganz sicher nicht zuzulegen, wenn er in Deutschland erhältlich ist.

Wer sich sagt, dass er aktiv mithelfen möchte, dass Roboter so schnell wie möglich lernen, uns im Haushalt zu unterstützen, kann natürlich zuschlagen. Nötiges Kleingeld und Schmerzfreiheit bei der Privatsphäre vorausgesetzt, versteht sich.

Ich fürchte, trotz Tech-Begeisterung bin ich da zu oldschool. Bevor ich mir diesen Roboter gönne, zahle ich lieber weiter für unsere Putzfrau, die zweimal im Monat unser Chaos beseitigt. Solange die schneller, vielseitiger und günstiger ist als Neo, wird das auch so bleiben.

Nichtsdestotrotz sollt Ihr wissen, dass ich davon überzeugt bin, dass diese Roboter unsere Zukunft sind. Das Konzept und der Look des 1X Neo gefällt mir wirklich gut. Wäre halt nur schön, wenn das Teil fertig entwickelt wäre.



Source link

Apps & Mobile Entwicklung

Nativ vs. DLSS 4.5 vs. FSR AI im Leser-Blindtest


Nativ UHD, DLSS 4.5 oder FSR Upscaling AI? Upsampling oder kein Upsampling? Was findet ihr am schönsten? Wir finden es heraus! Eine Woche lang habt ihr Zeit, in sechs verschiedenen Spielen euren Favoriten zu wählen. Als Basis dienen qualitativ YouTube weit überlegene Side-by-Side-Videos.

Nativ vs. DLSS 4.5 und FSR Upscaling AI im Leser-Blindtest

ComputerBase hat sich in den letzten Wochen intensiv mit dem Thema Upsampling beschäftigt. Der etwas überraschende Start von DLSS 4.5 (Test) war der Grund dafür, Nvidia hat mit der neuen Version die Qualität erneut sichtbar verbessern können. Mehrere Analysen hat die Redaktion dann durchgeführt, in denen DLSS 4.5, DLSS 4, FSR Upscaling AI und „Nativ“ die Hauptrolle gespielt haben und die Redaktion hat das Ergebnis bewertet.

Der Upsampling-Blindtest ist da!

Jetzt wird der Spieß umgedreht: Nicht der Redakteur bewertet das Upsampling, sondern die Leser. Damit das funktioniert, hat die Redaktion einen Blindtest erstellt, der sich in sechs verschiedenen Spielen auf DLSS 4.5 sowie FSR Upscaling AI und damit auf die neuesten Upsampling-Varianten von Nvidia und AMD konzentriert. Als Auflösung hat die Redaktion Ultra HD ausgesucht, als Qualitätsstufe sich für „Quality“ entschieden. Als Dritter im Bunde nimmt „Nativ“ in Form der nativen Auflösung, also Ultra HD, mitsamt dem spieleigenen TAA teil.

Die Eckdaten für den Blindtest
  • Sechs Spiele
  • Ultra HD als Ausgabe-Auflösung
  • DLSS 4.5 und FSR Upscaling AI (FSR 4): Quality
  • Nativ: Ohne Upsampling, aber mit TAA

So vergleichbar wie möglich!

Jedes Spiel kommt dabei mit einer eigenen Testsequenz daher, die die Community bewerten kann. Alle Videos wurden in Ultra HD mit 60 FPS aufgenommen. Es kam eine externe Capture-Karte zum Einsatz. Das Ergebnis ist also nicht vom Encoder der verwendeten Grafikkarte abhängig. Als Videocodec wurde NVENC AV1 mit einer Bitrate von 60 Mbps ausgewählt.

Als Player setzt die Redaktion wie gewohnt auf Nvidias ICAT-Player. Dieser macht nichts anderes als die Videos abzuspielen – die Videos wurden weder vorab von der Redaktion noch vom ICAT-Player in irgendeiner Form bearbeitet.

Die Spiele im Leser-Blindtest

Darum kein YouTube

Warum kein YouTube? Das hat verschiedene Gründe. Einer davon ist, dass der ICAT-Player vom Benutzer konfiguriert werden kann. Die Abspielgeschwindigkeit und der Bildausschnitt können geändert, zudem kann in das Video hinein- oder hinausgezoomt werden. Dafür einfach die linke Maustaste drücken und den Ausschnitt verschieben oder am Mausrad drehen.

Der Hauptgrund ist aber ein anderer: YouTube komprimiert sämtliche Videos sehr stark, was die Bildqualität auch im besten Fall negativ beeinflusst. So ist es nur schwer bis gar nicht möglich, die Bildqualität bestmöglich zu beurteilen. Das bedeutet auch, dass das Video doppelt komprimiert wird. Bei der Videoerstellung, was sich aber kontrollieren lässt. Und eben von YouTube selbst, worauf man aber keinerlei Einfluss hat.

Ein paar Worte zu ICAT

Bei ICAT findet dagegen nur eine Komprimierung bei der Videoerstellung statt, der Player selbst spielt die Videos dann 1:1 ab – völlig unbearbeitet. Das hat aber auch einen Nachteil: Anstatt eines 4K60-Streams müssen bei ICAT in diesem Test drei 4K60-Streams gleichzeitig abgespielt werden, was auch die Videoeinheiten der modernsten Grafikkarten ans Limit bringt. Ältere Grafikkarten werden die Videos eventuell nicht flüssig wiedergeben können.

Und mehr als eine ICAT-Datei zur selben Zeit lassen sich vermutlich nicht öffnen. Hier hilft es nur, ein ICAT-Video über den Schalter „Videovergleich öffnen“ zu öffnen, das Video zu analysieren und die Browserseite mit dem geöffneten Video wieder zu schließen beziehungsweise zur nächsten Artikelseite zu wechseln. Das mag umständlich erscheinen, doch anders sind die Einflüsse auf die Bildqualität zu groß.

So funktioniert der Leser-Blindtest

Jedes einzelne Video ist gleich aufgebaut: Das Video ist in drei gleich große Bildbereiche aufgeteilt, die das jeweilige Spiel mit DLSS 4.5 Quality, mit FSR Upscaling AI Quality und mit der nativen Auflösung inklusive der spieleigenen TAA-Kantenglättung zeigen.

Damit unklar bleibt, welcher Teil des Videos welche Technik benutzt, hören die Videos schlicht auf die Namen „1“, „2“ und „3“. Der ICAT-Player blendet die Namen direkt unter den jeweiligen Videos ein, dort können die Videos mit einem Mausklick aber auch verschoben werden. Standardmäßig ist das Video „1“ auf der linken Seite, Video „2“ in der Mitte und Video „3“ rechts. Die drei Technologien werden immer mal wieder vertauscht. Wer zum Beispiel immer Video „1“ auswählt, bekommt nicht immer dieselbe Technologie.

Unter jedem Video gibt es dann eine Umfrage, an der eine Woche lang teilgenommen werden kann. Als Antwortmöglichkeit stehen „1“, „2“, „3“ oder „Ich finde alle Videos gleich gut“ zur Verfügung. Einmal abgegebene Antworten können im Nachhinein nicht mehr geändert werden.

Nach einer Woche wird ComputerBase die Antworten dann zuordnen und auswerten. Daraufhin wird ein weiterer Artikel erscheinen, der die Ergebnisse analysiert. Wir sind gespannt!



Source link

Weiterlesen

Apps & Mobile Entwicklung

Amazon verkauft beliebte Logitech MX Keys Mini Tastatur mit 20 Prozent Rabatt


Die Logitech MX Keys Mini ist aktuell für kurze Zeit zu einem ziemlich günstigen Preis bei Amazon erhältlich. Wer schon länger mit dem Gedanken spielt, sein Setup aufzuwerten, sollte sich dieses Angebot also nicht entgehen lassen.

Logitech steht für Qualität – und genau deshalb sind die Produkte des Herstellers normalerweise alles andere als Schnäppchen. Gelegentlich tauchen jedoch echte Angebote auf, wie das aktuelle zur MX Keys Mini. Für unter 60 Euro kommt Ihr jetzt an die beliebte Tastatur, wir schauen genauer hin.

MX Keys Mini: Darum ist die Tastatur so beliebt

Die MX Keys-Reihe zählt zweifelsohne zu den beliebtesten Tastaturen für Büroarbeit. Dafür gibt es mehrere Gründe. Einerseits dürfte das minimalistische Design viele Menschen ansprechen. Vor allem die Mini-Serie, ohne NUM-Pad, nimmt kaum Platz weg und nutzt zudem keine unnötigen Bedienelemente. Die leicht eingewölbten Tasten ermöglichen einen flüssigeren Schreibübergang und die Switches können ohne großen Druck bedient werden, was die Gelenke schont.

Eine „Diktierfunktion“ gibt es ebenfalls, mit der Ihr verschiedene Eingaben automatisieren könnt. Da es sich hierbei um ein spezielles Modell für Apple-Geräte handelt, habt Ihr die Möglichkeit, die Tastatur mit mehreren Mac-Computern oder iPads gleichzeitig zu verbinden. Allerdings eignet sie sich auch prima für Windows etc. Ein weiterer Grund für die Beliebtheit ist zudem die Ausdauer der Bluetooth-Tastatur. Denn bis zu 10 Tage Laufzeit bei eingeschalteter Hintergrundbeleuchtung verspricht Logitech. Schaltet Ihr diese aus, sind es sogar bis zu 5 Monate.

Darauf solltet Ihr vor dem Kauf unbedingt achten

Amazon verhökert die Funk-Tastatur gerade für nur 59,99 Euro statt 74,90 Euro. Der Versandriese bietet Euch damit den aktuellen Bestpreis an, Ihr bekommt die Tastatur also aktuell nirgendwo günstiger.

Was haltet Ihr von dem Angebot? Ist die Logitech-Tastatur zu diesem Preis interessant für Euch? Wünscht Ihr Euch mehr solcher Deals? Lasst es uns wissen!





Mit diesem Symbol kennzeichnen wir Partner-Links. Wenn du so einen Link oder Button anklickst oder darüber einkaufst, erhalten wir eine kleine Vergütung vom jeweiligen Website-Betreiber. Auf den Preis eines Kaufs hat das keine Auswirkung. Du hilfst uns aber, nextpit weiterhin kostenlos anbieten zu können. Vielen Dank!



Source link

Weiterlesen

Apps & Mobile Entwicklung

Oryon-CPU-Architekt: Gerard Williams und John Bruno verlassen Qualcomm


Oryon-CPU-Architekt: Gerard Williams und John Bruno verlassen Qualcomm

Knapp fünf Jahre nach der Übernahme von Nuvia durch Qualcomm verlässt CPU-Chefarchitekt Gerard Williams das Unternehmen. Zu seinen Entwicklungen gehören drei Generationen Oryon-Kerne, die Qualcomms aktuelle Snapdragon-Prozessoren für Notebooks und Smartphones antreiben. Zuvor war er bei Apple und Arm angestellt.

Zu den letzten öffentlich bekannten Entwicklungen von Gerard Williams und dem CPU-Team von Qualcomm gehören die Oryon-CPU-Kerne des Snapdragon X Elite (1. Generation), Snapdragon 8 Elite (2. Generation) sowie Snapdragon X2 Elite (Extreme) und Snapdragon 8 Elite Gen 5 (3. Generation). Die neue CPU sorgte dafür, dass Qualcomm sich von den Mikroarchitekturen von Arm abkoppeln und einen deutlich leistungsfähigeren, aber zugleich effizienten Prozessor auf die Beine stellen konnte.

Oryon war zuvor das Phoenix-CPU-Design

Was bei Qualcomm derzeit Oryon genannt wird, war vorher das Phoenix-CPU-Design von Nuvia, das für einen stromsparenden, schnellen Arm-Server-Prozessor zum Einsatz kommen sollte. Williams hatte Nuvia im Frühjahr 2019 gemeinsam mit John Bruno (Google, Apple, AMD, ATi) und Manu Gulati (Broadcom, Apple, Google) gegründet. Noch bevor das geplante Produkt auf den Markt kommen konnte, erfolgte Anfang Januar 2021 die Übernahme durch Qualcomm für 1,4 Milliarden US-Dollar.

Williams war vorher bei Apple und Arm

Das Trio und vor allem Williams ist insbesondere für die Zeit bei Apple bekannt. Williams war für 9 Jahre Senior Director in Platform Architecture und damit Chefarchitekt aller CPU- und SoC-Entwicklungen ab dem Apple A7, dem ersten 64-Bit-Arm-Prozessor für Smartphones. Er leitete die Entwicklungen aller CPU-Kerne wie Cyclone, Typhoon, Twister, Hurricane, Monsoon, Vortex, Lightning und Firestorm. Williams war auch für die Mac-Plattformen M1 Pro, M1 Max und M1 Ultra verantwortlich.

Vor Apple war Williams für über 12 Jahre bei Arm angestellt und hatte es dort zum erlesenen Kreis eines sogenannten Fellow geschafft, der im Regelfall höchsten Engineering-Position und Ehrung in US-Tech-Unternehmen. Bei Arm hatte Williams unter anderem den Cortex-A8 (Tiger) und Cortex-A15 (Eagle) entwickelt. Vor Arm war Williams Design Team Lead bei Texas Instruments und Praktikant bei Intel.

Auch John Bruno hat Qualcomm verlassen

Neben Williams ist zu Ende Januar offiziell auch Nuvia-Mitgründer John Bruno bei Qualcomm ausgeschieden. Der weitere Mitgründer Manu Gulati ist seinem Linked-In-Profil zufolge weiterhin als VP of Engineering bei Qualcomm angestellt.

Direkt ins nächst Chip-Abenteuer will sich Williams allerdings nicht stürzen. In einem Linked-In-Beitrag gibt er an, jetzt erst einmal Zeit mit der Familie verbringen, sein Haus neu streichen und sich dann einer langen Liste von Dingen widmen zu wollen.



Source link

Weiterlesen

Beliebt