Künstliche Intelligenz

OpenClaw trifft auf Smart Glasses: Freihändiges Vibe Coding direkt im Blickfeld


Von Vibe Coding spricht man, wenn ein großes Sprachmodell den Quellcode generiert und der menschliche Beitrag sich weitgehend auf das Formulieren von Anweisungen beschränkt. Entsprechend sind für Vibe Coding nicht zwingend Programmierkenntnisse erforderlich.

Weiterlesen nach der Anzeige

Der Programmierer und Computerbrillen-Enthusiast Jake Ledner demonstriert in einem Video, wie Vibe Coding auf Smart Glasses aussehen könnte. In dem Video spaziert er durch New York, während er dem KI-Agenten OpenClaw über sein Meta Ray-Ban Display und das darauf installierte WhatsApp Sprachanweisungen gibt. Der Chatverlauf erscheint direkt im Sichtfeld, sodass er den Fortschritt über von OpenClaw gesendete Screenshots verfolgen kann. Der KI-Agent läuft auf einem Mac Studio in Ledners Wohnung und nutzt OpenAIs Coding-Werkzeug Codex, um den Programmcode zu schreiben.

Im Video lässt Ledner OpenClaw seiner KI-Kalorienzähler-App „TrackGPT“ eine Speicherfunktion für häufige Mahlzeiten hinzufügen. Nach Freigabe spielt der Agent den Code automatisch ein und der neue „Speichern“-Button geht in der App live.

„Im Grunde kann heute jeder von überall aus Apps entwickeln, mit OpenClaw, OpenAI Codex und Meta Ray-Ban Smart-Glasses“, sagt Ledner im Video, das er zunächst auf X veröffentlichte, das mittlerweile aber auch auf LinkedIn verfügbar ist.

Ganz so einfach, wie es Ledner suggeriert, ist es freilich noch nicht: OpenClaw birgt derzeit erhebliche Sicherheitsrisiken und setzt idealerweise eine dedizierte Recheneinheit voraus, was für viele Nutzer kaum praktikabel sein dürfte. Die Meta Ray-Ban Display ist zudem bislang nur in den USA erhältlich. Sie kam dort im September 2025 auf den Markt und kostet rund 800 US-Dollar. Ob und wann ein internationaler Marktstart erfolgt, ist offen. Möglicherweise wartet Meta auf die zweite Generation des Wearables, die laut einem aktuellen Bericht noch in diesem Jahr erscheinen könnte.

Eine weitere Einschränkung bei der Meta Ray-Ban Display ist, dass Drittentwickler derzeit keinen Zugriff auf das Display haben. Aus diesem Grund nutzt Ledner WhatsApp, um mit OpenClaw zu kommunizieren. Metas Messenger-Dienst ist eine der wenigen Apps, die die Smart Glasses aktuell unterstützen.

Weiterlesen nach der Anzeige

An der fehlenden Display-Berechtigung könnte sich allerdings schon bald etwas ändern: Oscar Falmer, der bei Meta die Entwicklerbetreuung im Wearables-Bereich verantwortet, reagierte auf das Video und stellte den Display-Zugriff für Drittentwickler für dieses Jahr in Aussicht. Damit könnten künftig Apps entstehen, die direkt auf OpenClaw oder eine vergleichbare, künftige KI-Funktion von OpenAI zugreifen. Dessen Schöpfer Peter Steinberger wurde gerade erst von dem Unternehmen verpflichtet.

Unabhängig von Meta werden künftig weitere Smart Glasses mit Display erscheinen, die ähnliche Eigenschaften wie die Meta Ray-Ban Display haben. Google plant beispielsweise, noch in diesem Jahr ein entsprechendes Produkt vorzustellen.


(tobe)



Source link

Beliebt

Die mobile Version verlassen