Connect with us

Apps & Mobile Entwicklung

Veo 3 und Flow: Wie sich Googles neues KI-Video-Modell im Alltag schlägt


Google Video-Modell Veo 3 lässt sich seit Freitag auch über die neue Flow-App nutzen. ComputerBase hat das Modell ausprobiert und im Alltagstest zeigt sich: Der Fortschritt im Vergleich zu den Tests mit OpenAIs Sora und Adobes Firefly-Modell vom März sind bemerkenswert. An einigen Ecken hakt es aber immer noch.

Google Flow: Das wird benötigt

Um Flow nutzen zu können, wird ein Google-AI-Pro-Abo benötigt, das 21,99 Euro pro Monat kostet. Die Abrechnung erfolgt dann über ein Credit-System. Pro-Abonnenten erhalten jeden Monat 1.000 KI-Guthabenpunkte, Google AI Ultra-Abonnenten 12.500 KI-Guthabenpunkte.

Wie viele Guthabenpunkte verbraucht werden, hängt vom Modell ab. Veo 3 ist aufwändiger als Veo 2, neben besserer Qualität bietet es aber auch Audio-Inhalte. Hinzu kommen nochmals die Unterschiede der Fast- und Quality-Varianten, die sich ebenfalls bemerkbar machen, wie die Testläufe zeigen.

Nutzen lässt sich Veo 3 auch über die Gemini-App, dann ist der Funktionsumfang aber eingeschränkt.

Veo 3 im Alltagstest

Um zu prüfen, wie sich Veo 3 im Alltag schlägt, nutzt ComputerBase die Video-Aufgaben vom Test aus dem März.

  • Neues AI-Tool: Was mit der Video-KI in Adobe Firefly möglich ist

Der Testlauf erfolgt zunächst mit Veo 3 Fast. Es ist auch das Standard-Modell in der App.

Text zu Video bei Veo 3

Erste Aufgabe ist erneut, eine Zeitraffer-Aufnahme von der Frankfurter Skyline in der Dämmerung zu erstellen. Das funktioniert, anhand der Hochhäuser und dem Fluss ist auch ersichtlich, dass es sich um Frankfurt handeln könnte. Markante Gebäude wie der Messeturm, den Adobes Firefly-KI darstellt, fehlen aber bei Veo 3.

Der Fuchs im Fluss wird in bemerkenswerter Qualität generiert, an einigen Stellen zuckt das Tier aber, Animationen beim Schütteln wirken unrund. Auffällig ist auch die Qualität der Wasserdarstellung und die Klangkulisse, die Veo 3 generiert. Diese wirkt bisweilen verzögert, beeindruckend ist es dennoch.

Abstrakte Konzepte wie das Training von KI-Modellen zu illustrieren, konnten bereits Sora und Firefly im März ordentlich lösen. Dasselbe gilt nun auch für Veo 3, ohne jedoch aufzufallen.

Veo 3 Fast und Quality im Vergleich

Interessant ist der Vergleich von Veo 3 Fast zu Veo 3 Quality. Das zeigt sich etwa bei der Aufnahme eines Mannes in einem Cyberpunk-Setting im Blade-Runner-Stil. Der komplette Prompt für dieses Video lautet: Dark cyberpunk setting in the style of Blade Runner with neon lights: 34-year-old blond man with sidecut and slicked-back hair, synthetic blue eyes, three-day beard, leather jacket and leather boots, walking through a street.

Schon bei Veo 3 Fast ist das Ergebnis wesentlich runder als das, was Sora und Firefly im März generierten. Die Fortschritte bei der Entwicklung der Modelle sind bemerkenswert, nach Artefakten und Fehlern muss genauer geschaut werden. Mit Veo 3 Quality wirkt das Ergebnis nochmals realistischer.

Besonders auffällig ist der Fortschritt von Veo 3 Quality bei der Aufgabe, den Einbau einer Grafikkarte als Video umzusetzen. Erstmals passt nun der Ablauf, die Karte wird korrekt eingesteckt. Realistisch wirkt es nach wie vor nicht, kleinere Fehler wie die Darstellung beim Mainboard-Slot existieren ebenfalls, aber der Prozess an sich passt. Bei Sora und Firefly wurde die Grafikkarte hingegen einfach nur abgelegt.

Bislang wurden Videos basierend auf Text generiert. Eine weitere Möglichkeit ist, die Aufnahme mit einem Bild zu starten. Möglich ist sowohl den ersten als auch den ersten und letzten Frame zu wählen. So lassen sich etwa Übergänge gestalten.

Wird ein Bild als Grundlage genutzt, hat Veo 3 Quality ebenfalls Vorteile, weil etwa – wie bei dieser Hundeaufnahme – die Details beim Gras erhalten bleiben. Veo 3 Fast ist in dieser Hinsicht noch nicht so ausgereift. Zusätzlich gibt es Unterschiede bei der Klanggenerierung wie einem unpassend wirkenden Bellen, das nicht zur Maulbewegung des Hundes passt.

Googles restriktive Vorgaben bei Veo 3

Einige Hinweise zu den Einschränkungen bei Veo 3: Prompts funktionieren nur auf Englisch. Ebenso wenig ist es möglich, Videos basierend auf Aufnahmen zu erstellen, die echte Personen zeigt. Ein Bild von sich selbst animieren, geht also nicht. Ebenso verweigert Veo 3 bei Aufnahmen mit Menschenmassen eine Video-Generierung. Daher war es etwa nicht möglich, das Bild eines Marktplatzes animieren zu lassen. Im konkreten Fall verweigerte Flow sogar direkt den Upload. Googles Sicherheitsmaßnahmen sind also restriktiver als die bei anderen Modellen.

Was aber etwa geht: ein Bild von sich im Ghibli-Stil umsetzen und das animieren lassen.

Bemerkenswerter Fortschritt

Was der Testlauf schon zeigt: Wie rasant sich die Modelle in vier Monaten weiterentwickeln, ist bemerkenswert, die Fortschritte von Veo 3 sind deutlich zu erkennen. Wie die Qualität ausfällt, hängt stark vom jeweiligen Prompt ab. Generell gilt: Je komplexer, desto besser. Hinweise zum Aufbau liefert Google selbst mit einem Ratgeber-Beitrag, hilfreich sind auch Tipps auf X-Kanälen wie dem von Emily. Dort gibt es eine Vielzahl an Videos samt der Prompts, die als Basis zum Experimentieren genutzt werden können.

Was bei Flow aber noch auffällt, ist das frühe Entwicklungsstadium. Veo 3 verweigert regelmäßig, ein Video zu generieren, dann erfolgt automatisch der Wechsel auf Veo 2 – mit der schlechteren Qualität und ohne Ton. Die Vorgaben bei Bild-Uploads sind restriktiv, das Storyboard-Tool für den Video-Schnitt bietet nur wenige Funktionen und wechselt bei der zweiten Szene regelmäßig auf das Veo-2-Modell. Einfach mal schnell ein komplexes Video erstellen, ist mit dem Tool aktuell nicht ohne Weiteres möglich. Selbst bei Veo 3 ist also noch einiges an Aufwand nötig, um Inhalte zu generieren, die wie die viralen Videos aussehen.

Anwendungsbereich: Social Media, kleine Clips – und AI Slop

Anwendungszweck bleibt damit vor allem der Social-Media-Bereich. Mit den Kurzvideos Stockmaterial für Reels generieren, so etwas funktioniert und die Qualität dafür ist auch bereits vielversprechend.

Allerdings richtet das auch einen Blick auf etwas, das auf Social-Media-Plattformen mittlerweile den Alltag bestimmt: AI Slop – also billig generierte KI-Inhalte, die den Feed überfluten. Welche Ausmaße das auf Plattformen wie Pinterest hat, zeigte etwa John Oliver in einer Ausgabe von Last Week Tonight. Die synthetischen Inhalte sind bereits ein Problem und mit Tools wie Veo 3 dürfte es sich eher noch verschärfen.



Source link

Apps & Mobile Entwicklung

A19 (Pro), N1 und C1X: Diese neuen Chips treiben iPhone 17, 17 Pro und Air an


A19 (Pro), N1 und C1X: Diese neuen Chips treiben iPhone 17, 17 Pro und Air an

Apple iPhone 17, iPhone 17 Pro und iPhone Air werden von neuen Prozessoren der A19-Serie angetrieben, setzen aber auch an anderer Stelle auf „Apple Silicon“ – also Chips aus Apples eigenen Laboren. Neben der 2. Generation Modem (Apple C1X) hat Apple am Abend auch einen Netzwerk-Chip für iPhone (Apple N1) vorgestellt.

Apple A19 und A19 Pro: die neuen SoCs

Die neuen A19-Chips werden weiterhin in 3 nm bei TSMC gefertigt, Apple spricht von „der 3. Generation 3-nm-Fertigung“. Die 2-nm-Fertigung von TSMC ist dieses Jahr noch nicht so weit. Sie hatte im Frühling den ersten Tape-Out mit Chips von AMD gefeiert.

Der neue Apple A19 für das iPhone 17 belässt es bei einer 6-Core-CPU (2 Performance- und 4 Efficiency-Kerne) und 5 GPU-Cores, der Apple A19 Pro kommt im iPhone Air auf dieselbe Konfiguration, im iPhone 17 Pro sind hingegen 6 GPU-Cores aktiv. Informationen zum Cache der Kerne liegen noch nicht vor, hier dürfte sich mit Blick auf die Performance-Kerne der Vorgänger aber ebenfalls ein Unterschied zeigen.

Sowohl im A19 als auch im A19 Pro finden sich AI-Coprozessoren nicht mehr nur als separater Funktionsblock im Chip (weiterhin 16 Kerne), sondern sind auch integraler Bestandteil der GPU-Kerne. Ebenfalls überarbeitet wurden die Cache-Architektur der GPU. Sie nutzt die Dynamic-Caching-Architektur der 2. Generation, die Apple mit dem M3 eingeführt hatte.

Apple A19 und A19 Pro verfügen über AI-Einheiten in der GPU
Apple A19 und A19 Pro verfügen über AI-Einheiten in der GPU

Zur Stunde sind die detailliertere Informationen auf der bereits aktualisierten Apple Webseite, die die Unterschiede zwischen A19 und A19 Pro herausarbeiten, noch rar.

Apple C1X: die zweite Generation Mobilfunkmodem

Neue A-SoCs waren erwartet worden, eine zweite Generation Mobilfunkmodem hingegen noch nicht. Doch nur sechs Monate nach dem ersten Einsatz im iPhone 16e (Test) hat Apple mit dem Apple C1X bereits eine Überarbeitung vorgestellt, die doppelt so hohe Datenraten bei weniger Verbrauch ermöglichen soll.

Die kommt allerdings nur im iPhone Air zum Einsatz, iPhone 17 und iPhone 17 Pro dürften noch auf Modems vom Qualcomm setzen.

Apples 2. Generation Mobilfunkmodem tritt vorerst nur im iPhone Air an
Apples 2. Generation Mobilfunkmodem tritt vorerst nur im iPhone Air an

Apple N1: WiFi, Bluetooth und Thread

Eine Premiere feiert der Apple N1: Apples erster eigener WiFi-, Bluetooth- und Thread-Chip für iPhone. Er beherrscht WiFi 7 und Bluetooth 6.0 und soll im Vergleich zu Drittanbieter-Lösungen besonders effizient sein. Alle drei neuen iPhone nutzen diesen Chip.

Mit dem Apple N1 präsentiert Apple einen ersten WiFi-Bluetooth-Chip für iPhone
Mit dem Apple N1 präsentiert Apple einen ersten WiFi-Bluetooth-Chip für iPhone



Source link

Weiterlesen

Apps & Mobile Entwicklung

Mercedes GLC EQ 2026: Dieses Elektro-SUV sprengt alle Grenzen!


Mercedes GLC EQ 2026: Dieses Elektro-SUV sprengt alle Grenzen!
Entdeckt den neuen Mercedes GLC 2026: vollelektrisches Premium-SUV mit bis zu 713 km Reichweite, 800-Volt-Schnellladen & MBUX Hyperscreen.[mehr]



Source link

Weiterlesen

Apps & Mobile Entwicklung

Neue MLC-Inference-Benchmarks: Nvidia GB300 vaporisiert Rekorde, AMDs MI355X debütiert


Neue MLC-Inference-Benchmarks: Nvidia GB300 vaporisiert Rekorde, AMDs MI355X debütiert

Bild: Nvidia

Inferenz ist das große Thema bei AI, neben Nvidias GB300 ist hier auch AMD mit Instinct MI355X erstmals bei MLCommons vertreten. Während Nvidia seine eigenen Rekorde, die erst im letzten halben Jahr von GB200 aufgestellt wurden, vaporisiert, zeigt auch AMDs Wachstumskurve deutlich nach oben. Auch Intel liefert Ergebnisse.

Intel mit Arc Pro und Xeon 6

Die neue Intel Arc Pro B60 48GB Turbo hat es nämlich auch in die Liste geschafft. Sie soll eine Alternative für kleinere Projekte sein, dafür aber eben auch über den Preis punkten. Vier dieser Karten bieten 192 GByte VRAM für ein Workstation-System, damit lassen sich laut Intel Llama2-70b-Modelle bei verschiedenen Nutzern ausführen. Das soll laut Intels Pressemeldung dazu führen, dass im Bereich Performance pro Dollar gegenüber der RTX Pro 6000 oder L40S ein viel besseres Gesamtpaket verkauft wird.

Parallel dazu verweist Intel erneut darauf, dass man das einzige Unternehmen ist, welches auch Inference-Benchmarks von CPUs einreicht. Die neuen Xeon 6 sind hierbei im Schnitt von fünf Anwendungen 1,9 Mal schneller als die fünfte Generation.

AMD nun mit drei Generationen Instinct vertreten

Von AMD werden keine Epyc-Ergebnisse übermittelt, hier liegt der Fokus auf Instinct MI325X und den neuen 355X mit 1.400 Watt, aber auch der weiteren Optimierung auf MI300X. Nach viel Kritik in der Vergangenheit hat es AMD nun auch geschafft, Partner wie Asus, Dell, GigaComputing, MangoBoost, MiTAC, Quanta Cloud Technology, Supermicro und Vultr zu Einreichungen von Ergebnissen mit AMD-Hardware zu bewegen.

Es geht aufwärts bei AMD Instinct
Es geht aufwärts bei AMD Instinct (Bild: AMD)

Dies soll gleichzeitig Vertrauen schaffen und der Kundschaft zeigen, dass man sich auf AMD verlassen kann. Denn Benchmarks bei MLCommons einzureichen, ist kein Selbstläufer, jede der teilnehmenden Parteien kann sich die Ergebnisse vor der Veröffentlichung ansehen und Fragen dazu stellen, erst wenn Probleme ausgeräumt sind, werden die Ergebnisse auch veröffentlicht.

Mehr Support mit MI325X
Mehr Support mit MI325X (Bild: AMD)
MI355X vs. 325X
MI355X vs. 325X (Bild: AMD)
Instinct MI325X holt endlich H200 ein
Instinct MI325X holt endlich H200 ein (Bild: AMD)

Nvidia spielt noch in einer anderen Liga

In der Oberklasse ist auch Nvidia mit seiner 1.400-Watt-Lösung GB300 erstmals am Start. Das ist nur wenige Monate nach den ersten Tests mit GB200 und zeigt, wie schnell sich der Markt doch zu Blackwell Ultra hin entwickelt hat. Der neue Datentyp FP4 ist die neue Nvidia-Bastion, nur MI355X kann dies auch, AMD vermarktet dort aber lieber FP6.

Blackwell Ultra alias GB300 fegt Hopper vom Platz
Blackwell Ultra alias GB300 fegt Hopper vom Platz (Bild: Nvidia)

Nvidias Stärke ist weiterhin, dass auch 16 Partner mit ihrer Hardware Ergebnisse zeigen, die nahezu stets auf gleicher Höhe zu Nvidias Werten liegen. Da die Serversysteme bei neuen Nvidia-Lösungen aber die gleiche Basis haben und mitunter sogar aus den gleichen Fabs kommen, liegt dies schnell auf der Hand. Vor allem die Möglichkeiten, die Blackwell-Systeme bieten, sollen nun weiter ausgeschöpft werden, erklärt Nvidia in einem Blog-Beitrag.

Nvidia zeigt die Optimierungsmöglichkeiten von GB200-Systemen
Nvidia zeigt die Optimierungsmöglichkeiten von GB200-Systemen (Bild: Nvidia)

Wie sich die Kontrahenten in ML Commons schlagen, gibt die Pressemeldung preis.



Source link

Weiterlesen

Beliebt