Künstliche Intelligenz
Einkaufen in der AR-Brille: Snap zeigt neue Bezahlmöglichkeiten und KI-Tools
Weiterlesen nach der Anzeige
Beim diesjährigen Lens Fest in Santa Monica stellte Snap-Mitgründer und CTO Bobby Murphy wieder zahlreiche Neuerungen für Entwickler vor. Im Mittelpunkt stehen KI-gestützte Werkzeuge, einfache Bezahlfunktionen und die Vorbereitung auf die erste AR-Brille für Konsumenten, die 2026 erscheinen soll.
Commerce Kit für Specs und eigene Cloud
Seit Herbst letzten Jahres können Entwickler die fünfte Generation der Snap Spectacles mieten, um eigene Anwendungen für die AR-Brille – sogenannte „Lenses“ – zu programmieren. Jetzt steht fest, dass sie ihre Lenses nicht für künftige Hardware anpassen müssen. Die Kompatibilität mit dem bisherigen Format bleibt laut Snap vollständig erhalten. Als gemeinsame Basis dient das kürzlich vorgestellte Betriebssystem Snap OS 2.0. Bilder, technische Details oder gar einen konkreten Veröffentlichungstermin der nächsten AR-Brille „Specs“ bleibt Snap aber nach wie vor schuldig.
Mit „EyeConnect“ gibt es immerhin eine neue Funktion für gemeinsame AR-Erlebnisse: Ein kurzer Blick auf eine andere Person soll reichen, um automatisch eine geteilte Lens zu starten. Ein wichtiger Baustein für ein funktionierendes AR-Ökosystem sind die Monetarisierungsmöglichkeiten für Entwickler. Hier soll das neue „Commerce Kit“ Abhilfe leisten, das den Verkauf digitaler Güter oder Premium-Funktionen direkt in Specs-Lenses ermöglichen soll. Die technische Grundlage bildet die neue „Snap Cloud“, eine Infrastruktur auf Basis von Supabase. Sie bietet APIs, Echtzeitfunktionen, Speicher für rechenintensive AR-Projekte und soll laut Snap mit besonderem Fokus auf Datenschutz entwickelt worden sein.
Lens Studio AI vereinfacht die Entwicklung
Auch KI ist für Snap ein wichtiges Thema, wenngleich der Snapchat-Betreiber auch kein eigenes Modell entwickelt. Stattdessen integriert das Unternehmen eine generative Textoberfläche in die eigene Entwicklerumgebung. Mit „Lens Studio AI“ sollen Entwickler in natürlicher Sprache beschreiben können, was sie umsetzen möchten – die KI erzeugt daraufhin Code, schlägt Assets vor oder hilft bei der Fehlersuche.
Das System nutzt laut Snap große Sprachmodelle wie GPT‑5‑High. Über das neue Blocks-Framework stehen mehr als 50 modulare Komponenten bereit, darunter Sticker und animierte Bitmojis. Lens Studio kann künftig auch direkt im Browser oder auf mobilen Geräten genutzt werden. Eine kollaborative Oberfläche mit Chat und visueller Bearbeitung soll die Zusammenarbeit erleichtern.
Weiterlesen nach der Anzeige
Zudem sollen zwei neue Module die Erstellung realistischerer Inhalte ermöglichen: „Realistic StyleGen“ verbessert Licht, Texturen und Materialien, während „Enhanced FaceGen“ präzisere Gesichtsanpassungen erlaubt – etwa für Avatare oder digitale Charaktere. Beide Werkzeuge arbeiten in Echtzeit und sollen die Entwicklung beschleunigen. Neu ist auch „AI Clips“, ein Tool zur automatischen Erstellung kurzer Videos aus Bildern. Diese Clips lassen sich anschließend anpassen oder mit eigenen Inhalten kombinieren.
(joe)