Künstliche Intelligenz
Luma: KI-Agent erzeugt Audio, Videos und Bilder
Die KI-Plattform Luma generiert nach Angaben des Herstellers Luma AI kreative Projekte wie Videos oder Printkampagnen – vom Konzept über Zwischenstufen wie Storyboards bis hin zur Ausgestaltung mit diversen KI-Modellen.
Weiterlesen nach der Anzeige
Kreative, die beispielsweise für ein Videoprojekt zuerst ein Skript in ChatGPT, dann ein Bild als Ausgangspunkt in Midjourney, anschließend einzelne Videoclips in Runway ML generieren, Hintergrundmusik im Web oder einer Bibliothek suchen und letztlich alles in Adobe Premiere Pro zu einem Video verbinden, sollen all das nun mithilfe von KI erledigen können.
KI-Agenten organisieren laut Hersteller den Workflow für Text, Bild, Video und Audio über KI-Modelle verschiedener Anbieter hinweg. Neben dem von Luma AI selbst entwickelten Videomodell Ray3.14 unterstützt der Agent auch die Videogeneratoren Google Veo 3, OpenAI Sora 2 und Kling AI 2.6, die Bildgeneratoren Nano Banana Pro, Seedream und GPT Image 1.5 sowie die Musik-, Audioeffekt- und Stimmengeneratoren von ElevenLabs.
Luma richtet sich an kreative Teams in Agenturen und Marketing-Abteilungen, die schnell Inhalte produzieren wollen oder müssen, ohne sich mit komplexen Prozessen dahinter auseinanderzusetzen.
Werkzeuge und Workflow
Luma steht als Web-App zur Verfügung. Nach Anlegen eines neuen Projekts formulieren Nutzer einen Prompt und laden Quellen wie Bilder, Textdateien, PDF-Dokumente, Audio- oder Videodateien (MOV, MP4) hoch. Der Agent analysiert das Material, erstellt einen Plan und holt weiteres Feedback ein. Dahinter steckt die von Luma entwickelte KI Uni-1.
Luma generiert eine Art Storyboard und stellt Rückfragen im Chat. Schließlich gibt Luma das Ergebnis je nach Projekt in den Formaten PNG, JPEG, MP4 oder MP3 aus. Videoprojekte bestehen dabei je nach eingesetztem Modell aus 4 bis 12 Sekunden langen Einzelclips. In der Regel unterstützen die Modelle maximal 1080p-Auflösung. Der Luma-Agent skaliert sie bis zu 4K.
Weiterlesen nach der Anzeige

Nach Eingabe des Prompts formuliert der KI-Agent einen Plan in verschiedenen Phasen.
(Bild: Luma AI)
Die Technik hinter Uni-1
Hinter Luma steckt das Modell Uni-1, ein decoderbasierter, autoregressiver Transformer, der Sprache und Bildtoken in einem gemeinsamen Tokenraum verarbeitet. Diese Transformervariante wird in vielen großen Sprachmodellen (LLMs) eingesetzt.
Das Modell ist in der Lage, in natürlicher Sprache zu schlussfolgern und innerhalb desselben Rechendurchlaufs visuelle Inhalte zu rendern. Statt getrennte Systeme Schritt für Schritt anzusteuern, plant, visualisiert und erzeugt Uni-1 Ergebnisse in einem Prozess – laut Anbieter ein Ansatz, der menschlicher Intelligenz näherkommt als unabhängig voneinander arbeitende Modelle.
Preise und Verfügbarkeit
Laut Hersteller ist das Produkt ab sofort verfügbar. Ein Abo kostet 30, 90 oder 300 US-Dollar im Monat. Nutzer bekommen dafür 10.000, 40.000 respektive 150.000 Credits. Die Kosten für einzelne Videoclips hängen vom eingesetzten Videomodell ab. Nutzer sollten beim Abschätzen der Kosten beachten, dass Luma auch größere Projekte mit mehreren Clips auf einmal generiert.
(akr)
Künstliche Intelligenz
Huawei AI Glasses setzen auf ein bewährtes Konzept
Huawei hat eine KI-Brille für den chinesischen Markt vorgestellt. Das Wearable mit dem schlichten Namen „Huawei AI Glasses“ orientiert sich in Ausstattung und Design an den Ray-Ban Meta-Brillen: Es verfügt über eine Kamera, Mikrofone und Lautsprecher, die unauffällig in ein möglichst schlankes, modisches Brillengestell integriert sind.
Weiterlesen nach der Anzeige
Das Produkt kommt in drei Ausführungen: halbrandig mit Titanfassung sowie als vollrandige Sonnen- und Sehstärkenbrille. Mit rund 47 Gramm sind die Smart Glasses nur geringfügig leichter als die Ray-Ban Meta-Brillen.
Auch bei den technischen Eigenschaften gibt es kaum Unterschiede: In beiden Fällen kommt eine 12-MP-Kamera zum Einsatz. Huawei gibt auf der chinesischen Produktseite eine maximale Fotoauflösung von 4096 × 3072 Pixeln sowie eine maximale Videoauflösung von 1920 × 1440 Pixeln bei 30 Bildern pro Sekunde an. Die aktuelle, zweite Generation der Ray-Ban Meta schafft bei der gleichen Bildrate 3K-Videos.
Bei der Batterielaufzeit nennt Huawei bis zu neun Stunden Musikwiedergabe oder acht Stunden Telefonie mit einer Akkuladung. Ähnliche Werte erreichen auch die neuen Ray-Ban Meta-Brillen. Geladen werden die Huawei AI Glasses über ein USB-C-Kabel mit magnetischen Kontakten statt über ein mitgeliefertes Ladecase. Das ermöglicht die Nutzung während des Ladevorgangs.
Konkurrenz innerhalb und außerhalb Chinas
Das Wearable läuft mit Huaweis Betriebssystem HarmonyOS und ist dadurch mit Smartphones und anderen mobilen Geräten des Herstellers verzahnt. Für KI-Funktionen setzt Huawei auf den eigenen Sprachassistenten Xiaoyi sowie einen selbstentwickelten Chip, der die KI-Interaktionen beschleunigen soll. Zu den multimodalen Fähigkeiten der Brille zählen unter anderem die Schätzung und Nachverfolgung von Kalorien, das Bezahlen per QR-Code sowie Übersetzungen in eine Vielzahl von Sprachen.
Die Huawei AI Glasses kommen am 25. April auf den chinesischen Markt und sind ab 2499 Yuan erhältlich, was umgerechnet rund 315 Euro entspricht. Damit liegen sie auf dem Preisniveau der weiterhin verkauften ersten Generation der Ray-Ban Meta-Brillen (die zweite Generation kostet rund 100 Euro mehr). Ob Huaweis KI-Brille später auch hierzulande erscheint, ist nicht bekannt. Für das Unternehmen dürfte das Produkt zunächst als Testballon dienen, zumal das tatsächliche Marktpotenzial von KI-Brillen noch immer schwer abzuschätzen ist.
Weiterlesen nach der Anzeige
heise online XR-Briefing abonnieren
Jeden zweiten Montag, liefern wir Ihnen die wichtigsten Entwicklungen der XR-Branche. Damit Sie alles im Blick behalten.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
In China werden Metas KI-Brillen nicht verkauft. Konkurrenz gibt es dennoch: Auf dem heimischen Markt bieten unter anderem Alibaba, Xiaomi und Rokid ähnliche Smart Glasses an. Weltweit führt Meta mit großem Abstand. Laut Marktforschern baute Meta seine Marktführerschaft im zweiten Halbjahr 2025 auf 82 Prozent aus. Insgesamt verkaufte Meta gemeinsam mit seinem Brillenpartner EssilorLuxottica im vergangenen Jahr rund sieben Millionen Smart Glasses und damit mehr als dreimal so viele wie im Vorjahr.
(tobe)
Künstliche Intelligenz
Rsbuild 2.0: Schnelleres Bundling, ESM-first und Node 20
Rsbuild 2.0 ist da: Das Major-Release des Build-Tools setzt auf Rspack 2.0, modernisiert zahlreiche Defaults – unter anderem in Richtung ESM-first und Node 20 – und reduziert die Zahl der Abhängigkeiten deutlich. Neue APIs erweitern die Kommunikation zwischen Dev-Server und Client. Gleichzeitig bricht die Version mit mehreren Altlasten: CommonJS-Builds und ein paar Webpack-Abhängigkeiten fallen weg.
Weiterlesen nach der Anzeige
Rsbuild ist ein Build-Tooling-Layer auf Basis des Rust-basierten Bundlers Rspack und Teil des Rstack-Ökosystems. Zu diesem gehören unter anderem Rspress, Rslib und Rstest, die sich eine gemeinsame Build- und Plugin-Architektur teilen.
Rspack 2.0 als Fundament, modernere Defaults
Im Zentrum von Rsbuild 2.0 steht das Upgrade auf Rspack 2.0. Projekte profitieren damit von schnellerem Bundling und neuen Optimierungsmöglichkeiten. Rspack verfolgt einen webpack-kompatiblen Ansatz, arbeitet durch seine Rust-Implementierung aber deutlich schneller.
Parallel dazu modernisiert Rsbuild seine technische Basis. Das Core-Paket erscheint nur noch als ES-Modul, ein CommonJS-Build entfällt. Die Zielplattformen steigen: Für Node.js gilt nun Version 20 als Standard, die Browser-Targets orientieren sich an einem Baseline-Stand von Mai 2025. Das verringert den Bedarf an Transpiling und Polyfills und führt zu kleineren Bundles. Für Node-Ziele erzeugt Rsbuild außerdem standardmäßig unminifizierte ES-Module – Stacktraces bleiben so besser lesbar.
React Server Components und Server-Client-Kommunikation
Neu ist ein experimenteller Support für React Server Components (RSC). Das Plugin rsbuild-plugin-rsc integriert serverseitig gerenderte Komponenten, die Datenabruf und Rendering kombinieren und so weniger JavaScript an den Client schicken. Es baut auf nativer Rspack-Unterstützung auf und nutzt die Environments-API von Rsbuild, um Client- und Server-Kontext gemeinsam zu verwalten. Das Modern.js-Framework setzt das Plugin bereits ein; eine Integration mit TanStack Start ist geplant.
Im Zuge dieser Arbeiten erweitert Rsbuild die Kommunikation zwischen Dev-Server und Browser. Über den bestehenden HMR-Kanal lassen sich jetzt gezielt Nachrichten austauschen: Der Server schickt per hot.send ein Event, das der Client über import.meta.webpackHot.on empfängt. So kann etwa ein serverseitiger Prozess den Client zu einem gezielten Update veranlassen, ohne die gesamte Seite neu zu laden. Ein zusätzlicher WebSocket ist dafür nicht nötig.
Weiterlesen nach der Anzeige
Flexiblerer Server und neues Code-Splitting
Auch die Server-Konfiguration gewinnt an Flexibilität. Die neue Option server.setup erlaubt es, Initialisierungslogik, Middleware oder eigene Endpunkte direkt in der Rsbuild-Konfiguration zu definieren – sowohl für den Dev- als auch den Preview-Server. Das bisherige setupMiddlewares bleibt vorerst erhalten, gilt aber als veraltet.
Beim Code-Splitting führt Rsbuild ein neues splitChunks-Modell ein, das die bisherige Option performance.chunkSplit ergänzt und perspektivisch ersetzen soll. Die Konfiguration orientiert sich nun direkt an Rspack und bietet vordefinierte Presets, etwa um jedes npm-Paket in einen eigenen Chunk aufzuteilen.
Sicherheits-Defaults und weniger Abhängigkeiten
Bei den Sicherheits-Defaults ändert sich ebenfalls einiges: Der Dev-Server lauscht standardmäßig nur noch auf localhost statt auf allen Interfaces. Das verhindert, dass Entwicklungsserver unbeabsichtigt im lokalen Netzwerk erreichbar sind. Außerdem steigt die Proxy-Middleware auf eine neue Version um, die HTTP/2 unterstützt und bekannte Sicherheitslücken schließt.
Die Abhängigkeiten schrumpfen deutlich. Pakete wie core-js für Polyfills oder das Module-Federation-Runtime gehören nicht mehr zur Standardinstallation. Die Zahl der mitgelieferten Dependencies sinkt laut Projekt von 13 auf 4.
Logging, Templates und Breaking Changes
Darüber hinaus unterstützt Rsbuild jetzt benutzerdefinierte Logger pro Instanz. Damit lassen sich Log-Level und Ausgabeformate feiner steuern, ohne den globalen Logger zu verändern. Auch die Projekt-Templates wurden überarbeitet: Neue Projekte können optional den React Compiler nutzen, und ein auf TypeScript-Go basierender Linter steht experimentell bereit. Vorlagen für React 18 und Vue 2 in create-rsbuild hat das Team entfernt.
Mit Version 2.0 gehen mehrere Breaking Changes einher. Neben dem Wegfall von Node 18 und CommonJS entfernt das Projekt sämtliche Webpack-spezifischen Komponenten und ändert diverse Defaults. Für die Migration stellt das Team eine Anleitung bereit; viele Anpassungen lassen sich nach eigenen Angaben automatisieren.
Alle Informationen zur neuen Rsbuild-Version finden sich in den Release Notes auf der GitHub-Projektseite und in der Ankündigung der Entwickler.
(fo)
Künstliche Intelligenz
Anthropic nimmt testweise Claude Code aus dem Pro-Tarif
Bei Anthropic gibt es teilweise Änderungen für neue Kunden: Das KI-Unternehmen hat testweise auf einigen Webseiten Claude Code aus dem Pro-Tarif genommen. Außerdem berichtet ein Neukunde, dass er sich mit Persona identifizieren musste, einem US-Unternehmen, das Ausweisdaten und Gesicht von Personen kontrolliert.
Weiterlesen nach der Anzeige
Eine Reihe von Nutzern haben in Blogs oder bei Reddit mitgeteilt, dass auf der Preisübersicht von Claude zum Pro-Tarif die Code-Komponente fehlt. Diese ist gerade für Entwicklerinnen und Entwickler interessant. Ein Anthropic-Manager beschwichtigt bei X, dass es sich nur um einen Test gehandelt habe, der zwei Prozent aller Neuanmeldungen betroffen habe. Ob diese zwei Prozent dennoch Zugriff auf Claude Code erhalten oder wie es insgesamt mit den Tarifen weitergeht, sagt er nicht. Eine Antwort auf eine Anfrage von heise developer steht noch aus.

Ein Anthropic-Manager beschwichtigt, dass nur zwei Prozent der Neukunden betroffen seien.
Viele LLM-Coding-Firmen haben den Umfang ihres Angebots in letzter Zeit begrenzt, da gerade Agenten wie OpenClaw die Kapazitäten offensichtlich an den Rand bringen: Anthropic selbst hat die Nutzung von externen Tools wie OpenClaw eingeschränkt, ähnlich wie Google für Gemini CLI. Microsoft stoppte die Neuanmeldung für GitHub Copilot Pro komplett und nahm alle rechenaufwendigen Opus-Modelle aus den Tarifen für Endanwender. Opus liefert allgemein die besten Ergebnisse zum Coden und Entwickler sind nun gezwungen, in Business-Tarife zu wechseln, was für Einzelentwickler schwierig ist.
Künftig Identifizierung mit US-Dienstleister?
Ein einzelner Bericht eines X-Accounts legt nahe, dass Anthropic bei ihm eine Identifizierung per US-Dienstleister Persona verlangt hat. Persona fordert ein Ausweisdokument und ein Live-Foto zur Identifizierung. Der Dienst ist durchaus umstritten; Anbieter wie Discord haben sich wieder von ihm getrennt.
In den aktuellen, heute gesichteten Datenschutzrichtlinien von Anthropic findet sich kein Hinweis auf Persona. Zu diesem Thema läuft ebenfalls eine Anfrage von heise developer bei Anthropic.
Weiterlesen nach der Anzeige
Auch Sicherheitsforscher, deren Experimente Anthropic standardmäßig zunächst blockiert, müssen sich seit Neuestem registrieren, um weiterarbeiten zu können. Persona ist hierbei zwar nicht vorgesehen, aber ein Business-Zugang mit Organisations-ID. Auch hier werden Einzelentwickler ausgeschlossen.
(who)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
