Connect with us

Künstliche Intelligenz

KI-Update Deep-Dive: Videogeneratoren zwischen Hype und holpriger Realität


KI-Videogeneratoren werden oft als das nächste große Ding in der Medienproduktion gefeiert, ein Werkzeug, das auf Knopfdruck beeindruckende Filmszenen erschaffen kann. Doch wie gut ist die Technologie wirklich, wenn man sie jenseits der polierten Demo-Videos betrachtet? André Kramer, Experte von der c’t, hat fünf aktuelle Modelle – Sora von OpenAI, Firefly von Adobe, Kling AI, Luma AI und Runway ML – auf den Prüfstand gestellt. Sein Fazit: Die Realität sieht noch deutlich anders aus als der Hype. Die Vorstellung von langen, perfekten Videos, die einfach so entstehen, entspricht nicht dem aktuellen Stand.


Eigenwerbung Fachdienst heise KI PRO

Eigenwerbung Fachdienst heise KI PRO

Wer auf Hollywood-reife Blockbuster per Texteingabe hofft, wird enttäuscht. Die von Kramer getesteten Modelle erzeugen derzeit lediglich kurze Clips. „Also die Videogeneratoren, die es auf dem Markt gibt und die ich getestet habe, erzeugen fünf Sekunden lange Videoclips“, erklärt Kramer. Einige schaffen zehn Sekunden, doch das sei oft nur eine Verlängerung des Bestehenden. Die Ursache liegt in der Funktionsweise der Modelle, die ähnlich wie Bildgeneratoren arbeiten, aber das gesamte Video als Einheit betrachten. Ein weiterer wichtiger Punkt: „Es wird überhaupt kein Audio mit erzeugt. Also es sind wirklich Stummfilme.“

Die Animation von Standbildern zu Videos bringt zudem eigene Herausforderungen mit sich. Während ein Bild nur stimmig aussehen muss, erfordert ein Video Kontinuität – eine große Hürde für die KI. Kramer nennt Beispiele: „Wenn ein Kind einen Burger isst, dann muss ein Stück abgebissen sein.“ Oder bei einem Hubschrauber, der ein Gebäude umfliegt, darf sich das Gebäude nicht verformen. Probleme mit Geometrie und Physik sind häufig. Auch die „Kinderkrankheiten“ der Bildgeneratoren, wie die Darstellung von Händen oder die korrekte Anzahl von Fingern, finden sich in den Videos wieder. Kramer berichtet von einer Hochzeitsszene, in der Finger und Hände, „einfach all over the place sind“. Selbst bei Action-Szenen können kuriose Ergebnisse entstehen: „In drei Fällen hatte ich einen Kampfjet mit Hubschrauberflügeln.“

Im Test zeigten sich deutliche Qualitätsunterschiede zwischen den fünf Kandidaten. „Kling AI und OpenAIs Sora haben bei weitem die besten Resultate abgeliefert“, fasst Kramer zusammen. Adobe Firefly, Luma und das ältere Runway-Modell im Test fielen „sehr weit dahinter zurück“ – wobei von Runway inzwischen bereits ein neueres Modell verfügbar ist, das im Test noch nicht berücksichtigt werden konnte. Interessant sei die Herangehensweise von Runway, deren Clips oft sehr ruhig und fast in Zeitlupe wirkten. Diese „kluge Selbstbeschränkung“ führe zwar zu weniger Dynamik, aber auch zu weniger Fehlern und mache die Ergebnisse durchaus kommerziell nutzbar, etwa für ästhetische Aufnahmen von Rauch oder Wasser.

Die Qualität des Ergebnisses hängt darüber hinaus stark vom Prompt ab. Kramers Ratschlag: „Nicht zu kompliziert denken.“ Je komplexer die gewünschte Szene, desto größer die Wahrscheinlichkeit, dass die KI scheitert oder unerwartete Elemente vermischt. Text in Bildern ist ebenfalls schwierig. Am besten funktionieren Klischees und wiederkehrende Motive, insbesondere solche mit angloamerikanischem Hintergrund. Szenen wie ein Motel in der Wüste gelingen eher als spezifisch europäische oder skandinavische Ästhetiken. Dies zeige, dass die Modelle „bekanntes Reproduzieren“ und in ihrer Kreativität noch begrenzt sind.


KI-Update

KI-Update

Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.

Für den professionellen Einsatz in der Filmproduktion sind die Generatoren laut Kramer derzeit nur bedingt geeignet. Für komplexe Szenen oder gar „Reshoots“ nach Testvorführungen seien sie noch nicht präzise genug. Mögliche Nischen seien etwa die Animation eines Gebäudefotos, wenn keine echte Aufnahme verfügbar ist, oder Workarounds bei Zeitdruck. Kramer sieht die aktuelle Qualität oft noch als „unfreiwillig komisch“.

Die einfache Bedienung wirft zudem ethische Fragen auf, insbesondere im Hinblick auf Deepfakes. Die getesteten kommerziellen Dienste versuchen dem entgegenzuwirken. „Diese Modelle […] kommen in der Regel entweder aus den USA oder wie Kling AI aus China und da ist systembedingt der Einsatz für pornografische Zwecke ausgeschlossen“, erklärt Kramer. Auch die Generierung von Material mit Prominenten oder Politikern werde meist blockiert. Ein weiteres sensibles Thema ist das Trainingsmaterial und das Recht am Bild. Adobe setze auf eigene, lizenzierte Inhalte aus seinem Stock-Dienst, was die generierbaren Motive einschränke, aber rechtliche Sicherheit biete. Andere Dienste nutzten das gesamte Internet, was zwar mehr Vielfalt ermögliche, aber auch zu Klagen wegen Urheberrechtsverletzungen führe. Das generierte Material selbst sei in der Regel urheberrechtsfrei, da die „kreative Schöpfungshöhe“ durch einen Prompt nicht erreicht werde.

Insgesamt zeigen die getesteten KI-Videogeneratoren eine faszinierende, aber noch unreife Technologie. Die Entwicklung schreitet rasant voran, neue, leistungsfähige Modelle erscheinen in schneller Abfolge, oft ganz überraschend. Neben der reinen Generierung von Clips sieht Kramer Potenzial in pragmatischeren Anwendungen wie der automatischen Videoübersetzung mit Lippensynchronisation oder der Animation von Charakteren per Video-Input. Es bleibt abzuwarten, welche Fortschritte die nächste Generation bringen wird.


(igr)



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Künstliche Intelligenz

Vielfalt der Perspektiven auf die Welt: Die Bilder der Woche 24


Die Welt ist voller spannender Motive – manchmal spektakulär, manchmal ganz still und verborgen. Unsere Galeriefotografinnen und -fotografen laufen mit offenen Augen durch die Welt und haben die unterschiedlichsten Motive eingefangen. Es treffen stimmungsvolle Lichtspiele auf spannende Perspektiven – von fliegenden Delfinen bis zu leuchtenden Spinnennetzen.


Das Titelbild der Ausgabe 01 2025 des Foto-Magazins c't Fotografie

Das Titelbild der Ausgabe 01 2025 des Foto-Magazins c't Fotografie



(Bild: JeanFP)

Aus dieser Perspektive ragt eines der Kölner Kranhäuser auf interessante Weise in die Komposition hinein. Der Schwarz-Weiß-Effekt betont die architektonischen Linien und Kontraste ganz besonders. JeanFP gelingt es, die markante Bauform auf interessante Weise einzufangen.



(Bild: Thomas Becher)

Vor Madeira springt ein Delfin aus dem Wasser und scheint für einen Moment schwerelos durch die Luft zu gleiten. Thomas Becher hat diesen Augenblick in seinem Bild Flying Dolphin eingefangen. Die Szene ist voller Dynamik und führt uns die Eleganz der Meeresbewohner vor Augen.



(Bild: khan)

Die untergehende Sonne taucht ein Spinnennetz, das sich zwischen den Halmen spannt, in warmes Licht und lässt seine feinen Fäden schimmern. Auch die Gräser im Hintergrund leuchten golden und bilden zusammen mit dem Netz ein stimmungsvolles Bild, dem Galeriefotograf khan den Titel Das Netz 1 – WWW gegeben hat.



(Bild: JensonR)

Galeriefotograf JensonR hat dieses eindrucksvolle Porträt einer Schneeeule eingefangen. Mit aufgerissenem Schnabel und weit geöffneten Augen scheint das Tier seine Emotionen zu zeigen und den Betrachter eindringlich anzublicken. Die leuchtend gelben Augen heben sich markant vom weißen Gefieder ab und verleihen dem Bild eine kraftvolle Ausdrucksstärke.



(Bild: NAlois)

Vor dem Hintergrund der untergehenden Sonne hebt sich eine einzelne Mohnblüte ab, während die Sonne selbst nur als verschwommener, orangefarbener Fleck zu sehen ist. Fotograf NAlois hat dieser stimmungsvollen und harmonischen Aufnahme den durchaus kreativen Titel Mohnuntergang gegeben.



(Bild: mangela)

Mit dem richtigen Zoom-Objektiv können Zoos für Tierfotografen ein echtes Motiveldorado sein. Auf dem Bild Zusammen sind wir viele von mangela wartet eine Gruppe Erdmännchen gespannt auf die Fütterung. Das Licht kommt von vorne, beleuchtet ihre Gesichter und formt aus der Gruppe einige interessante Silhouetten.



(Bild: Klicker3D)

Eine Glühbirne reduziert auf Form und Licht. Schwarz-weiß, klar, minimalistisch. Klicker3D setzt auf Kontraste und Spiegelungen und macht die Ästhetik des Einfachen mit fadenscheinig auf subtile Weise sichtbar.

Alle Bilder dieser Woche finden Sie hier noch einmal in der Übersicht:


Samstag: Kranhäuser…. (Bild:

JeanFP

)


(vat)



Source link

Weiterlesen

Künstliche Intelligenz

Experimentelle Kamera-App soll iPhone-Fotos deutlich besser machen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit einer experimentellen Kamera-App will Adobe einigen Dauerkritikpunkten an der Smartphone-Fotografie zu Leibe rücken. Project Indigo, so der Name der zunächst für das iPhone erschienenen App, soll das Bildrauschen signifikant reduzieren, Fotos mehr nach einer SLR-Kamera aussehen lassen und sogar helfen, Spiegelungen, wie beim Fotografieren durch Fensterscheiben, zu entfernen. Die App ist jetzt zunächst für das iPhone erschienen.

Die kostenlose App von Adobe Labs nutzt dazu Computational Photography in einem laut den Projektentwicklern erheblich größerem Maße, als das die Smartphone-Hersteller selbst machen. Wie andere Dritt-Kamera-Apps gibt Project Indigo den Nutzern zudem auf Wunsch auch manuelle Kontrollen an die Hand.

Das Herzstück der alternativen Kamera-App ist das Kombinieren von deutlich mehr Bildern als bei den Standard-Kamera-Apps. Während die meisten Smartphone-Kameras bereits mehrere Aufnahmen kombinieren, geht Adobe mit bis zu 32 Einzelbildern in schneller Folge noch weiter. Diese Aufnahmen werden von der Software ausgerichtet und zu einem finalen Foto verschmolzen. Auf diese Weise soll das Bildrauschen deutlich reduziert werden, was vor allem bei vergrößerten Tele-Aufnahmen und bei schlechter Beleuchtung deutlich sichtbar werden soll. Mit der manuellen Einstellung können Fotografen selbst einstellen, wie viele Einzelbilder kombiniert werden sollen. Gleichzeitig unterbelichtet die App stärker als andere Kamera-Apps, um ausgefressene Lichter zu vermeiden.

Den typischen Smartphone-Look mit überhellten, kontrastarmen Bildern, übersättigten Farben und starker Glättung will Adobe mit seiner App ebenfalls überwinden. Stattdessen setzt man auf eine natürlichere Bildwiedergabe, die dem Stil einer Spiegelreflexkamera näherkommt. Die App verzichtet hierfür weitgehend auf aggressive lokale Tonmappierung, die verschiedene Bildbereiche unterschiedlich stark aufhellt oder abdunkelt. Die entstandenen Bilder eigneten sich dadurch besser für große Bildschirme und die Nachbearbeitung, heißt es.

Project Indigo bietet manuelle Kontrollen über ISO, Belichtungszeit, Fokus und Weißabgleich. Ein weiteres Augenmerk liegt auf der Langzeitbelichtung. Besonders interessant: Project Indigo kann die Vorteile der Computational Photography auch in RAW-Dateien (DNG-Format) nutzen. Die Dateien enthalten bereits die kombinierten Einzelbilder, bieten aber trotzdem volle Flexibilität für die Nachbearbeitung.

Beim digitalen Zoom, ab zweifacher Vergrößerung beim Hauptobjektiv, setzt Project Indigo auf Multi-Frame Super-Resolution. Das iPhone 16 Pro Max, das über eine 5x-Tele-Kamera verfügt, soll damit auch bei 10-facher Vergrößerung gute Aufnahmen liefern können.

An der Adobe-App sind mit Marc Levoy und Florian Kainz zwei Entwickler beteiligt, die bereits die Pixel-Kamera-App von Google mitentwickelt haben, die aufgrund ihrer HDR+-Verarbeitung und des Super-Resolution-Zoom viel Beachtung in der Fachwelt erhielt.

Project Indigo steht kostenlos im App Store für iPhone 12 Pro/Pro Max und neuer sowie iPhone 14 und neuer zur Verfügung. Eine Android-Version ist geplant, ebenso wie ein Portrait-Modus, Panorama-Aufnahmen und Videofunktionen.


(mki)



Source link

Weiterlesen

Künstliche Intelligenz

Microsoft: Support-Ende für klassisches Outlook für macOS


Microsoft erinnert im Microsoft365-Message-Center aktuell daran, dass das klassische Outlook unter macOS in Kürze weitgehend Geschichte ist. Zuerst wird die Admin-Vorlage entfernt, mit der man den Schalter zur Rückkehr zum klassischen Outlook in der Web-App „neues Outlook“ einstellen kann.


Nachricht im Microsoft365-Admin-Panel

Nachricht im Microsoft365-Admin-Panel

Im Microsoft365-Admin-Panel erinnert Microsoft an das Abschalten des klassischen Outlooks unter macOS.

(Bild: Screenshot)

In Kurzform schreibt Microsoft in einer Nachricht (MC1098932, Zugangsberechtigung erforderlich), dass der Hersteller ab Mitte August die Admin-Einstellung für das Zurückspringen zum klassischen Outlook in Outlook für Macs in Rente schicken will. Zudem macht Microsoft das „neue Outlook“ zum Standard im aktuellen Microsoft365-Kanal, und die Möglichkeit zum Zurückspringen zum klassischen Client soll Mitte Oktober 2025 gänzlich entfallen.

Ab Mitte August soll im aktuellen Kanal von Microsoft365, also ab Version 16.100 oder neuer, das neue Outlook für Mac der Standard werden. Die Admin-Einstellung „EnableNewOutlook“, die die Voreinstellung des Umschalters zwischen neuem und klassischem Outlook-Client konfiguriert, entfällt. Outlook-Nutzerinnen und -Nutzer sollen ab Build 16.102 in der Mitte Oktober gar nicht mehr zum klassischen Client wechseln können.

Auf einer eigenen Webseite erörtert Microsoft zudem den Fahrplan für Outlook auf Mac-Desktops. Wer ein Microsoft365-Abo nutzt, kann spätestens ab Oktober 2025 kein klassisches Outlook mehr nutzen. Klassisches Outlook für Mac ohne Abo verliert ebenfalls die Unterstützung, sofern User es als Standalone-Version Outlook für Mac 2024, als Outlook-App aus den Office Home und Business 2024 oder neuer oder als Outlook-App aus dem Apple-App-Store gekauft haben. Das klassische Outlook aus Office LTSC 2024 hingegen will Microsoft bis zum 9. Oktober 2029 supporten.

Ende vergangenen Jahres hat Microsoft angekündigt, auch Kunden mit Microsoft365-Enterprise-Lizenzen auf den „neues Outlook“ genannten Client umzustellen. Das soll ab April 2026 passieren. Admins haben jedoch die Möglichkeit, zum klassischen Client zurückzukehren.


(dmk)



Source link

Weiterlesen

Beliebt