Digital Business & Startups

Diese Roboter machen dein Bett schneller als du selbst


In einem neuen Video des US-Startups Figure AI betreten zwei humanoide Maschinen ein schlicht eingerichtetes Schlafzimmer – und räumen auf.

Brett Adcock, CEO von Figure AI, setzt auf eine Zukunft mit „Allzweck-Humanoiden“.
Bloomberg/Getty Images

Wer morgens schon am Bettenmachen scheitert, könnte diese Aufgabe bald an einen Roboter abgeben: In einem neuen Video des US-Startups Figure AI betreten zwei humanoide Maschinen ein schlicht eingerichtetes Schlafzimmer – und räumen auf, als gehörte es zu ihrer Morgenroutine.

Während der eine einen Mantel aufhängt und einen Laptop zuklappt, zieht der andere die Bettdecke glatt und richtet die Kissen aus. Fast lautlos koordinieren sich die beiden per Kopfnicken und machen das Bett in weniger als zwei Minuten.

In einem Blogbeitrag beschrieb Figure diesen Meilenstein als „eine wichtige erste Demonstration einer Zukunft, von der wir hoffen, dass sie alltäglich wird: intelligente Humanoide, die sich miteinander abstimmen, um gemeinsame Ziele in menschlichen Umgebungen zu erreichen.“

Ein Bett zu machen mag für Menschen eine einfache Aufgabe sein, aber für Roboter ist das extrem schwierig. Laut Figure AI machen drei Herausforderungen diese Aufgabe besonders schwierig.

Lest auch

Dieser humanoide Roboter spielt Klavier und kocht wie wie ein Mensch, laut Startup

Humanoide für den Haushalt

Erstens sind zwei Humanoide in einem Raum nicht einfach zwei parallel arbeitende Roboter: Jede Aktion, die ein Roboter ausführt, muss vom anderen verstanden werden. Zweitens hat die Bettdecke keine feste Form und es gibt keine klare Trennung zwischen der Seite des einen und der des anderen Roboters. Jeder Roboter muss vorhersehen, was der andere tun wird, und sich ständig anpassen, während sich der Stoff unter ihrem Griff faltet, drapiert und verschiebt. Drittens müssen sich die Roboter im Raum bewegen und zwischen Aufgaben wechseln.

„Um es klar zu sagen: Es gibt keine explizite Kommunikation zwischen diesen Robotern, sie koordinieren ihre Handlungen vollständig visuell, beispielsweise durch Kopfnicken“, schrieb Corey Lynch, AI-Direktor bei Figure AI, auf X und betonte, dass das Video in 1-facher Geschwindigkeit abgespielt wurde und dass die Roboter vollständig autonom agierten, ohne Fernsteuerung.

Figure AI teilte mit, dass es Helix 02, das Anfang des Jahres vorgestellte Modell, mit neuen Daten trainiert habe, damit die Roboter komplexere Aufgaben bewältigen können, darunter das Öffnen von Türen, das Verschieben von Möbeln und das Drapieren von Kleidung. Es wurde nicht bekannt gegeben, wann der Humanoid für Verbraucher erhältlich sein wird.

Lest auch

Figure AI sammelt rund 630 Millionen Euro ein – KI-Roboter kommen bei BMW zum Einsatz

Figure AI hat mehr als 1 Milliarde US-Dollar eingesammelt und wird mit 39 Milliarden US-Dollar bewertet. Das Unternehmen steht in Wettbewerb mit Tesla, das seinen eigenen humanoiden Roboter, Optimus, entwickelt.

Figure-AI-CEO glaubt an selbstlernende Roboter-Spezies

2025 gab Brett Adcock, CEO von Figure AI, bekannt, dass das Unternehmen bei der Entwicklung von KI-Modellen für Roboter nicht mehr mit OpenAI, einem Investor von Figure AI, zusammenarbeite. Adcock beendete die Partnerschaft nach weniger als einem Jahr, nachdem OpenAI ihm mitgeteilt hatte, dass es plane, Humanoide intern weiterzuentwickeln.

Adcock wolle eine „neue Spezies“ von Robotern zu entwickeln, die sich fortpflanzen und Wissen untereinander austauschen können. „Ich glaube, das wird noch zu unseren Lebzeiten geschehen“, sagte er.

Lest auch

Mein KI-Startup bezahlt Leute dafür, dass sie sich beim Müllrausbringen filmen – und ist jetzt 150 Millionen wert

Auch andere Startups trainieren Roboter für Hausarbeiten. So berichten KI-Trainings-Startups wie Encord und Micro1 von einem sprunghaften Anstieg der Nachfrage durch Robotikunternehmen, die nach hochwertigen Trainingsdaten suchen. Das erfordert, dass Menschen sich selbst dabei filmen, wie sie Aufgaben wie Wäsche zusammenlegen oder Geschirrspüler beladen.





Source link

Beliebt

Die mobile Version verlassen