Apps & Mobile Entwicklung
Zwischen digitalem Goldrausch und Angst
Sitzt Ihr bequem im Kinosessel? Popcorn bereit? Gleich geht das Licht aus und der Film beginnt. Euch erwartet – Spoileralarm! – ein bunter Mix aus Science-Fiction, Action und Drama – hoffentlich gefolgt von einem Happy-End. Film ab!
Im Zentrum dieses Umbruchs steht eine Figur, die nicht einmal wirklich existiert – zumindest nicht im klassischen Sinn: Tilly Norwood, eine zu 100 Prozent KI-generierte Schauspielerin. Ihre Schöpferin, Eline Van der Velden, verkauft sie als „die nächste Scarlett Johansson oder Natalie Portman“ und behauptet frech: Das Publikum interessiere sich am Ende nur für die Geschichte – nicht für den Herzschlag des Stars.
Doch die Wut, die Tilly in Hollywood ausgelöste, ist echt. Die Schauspielergewerkschaft SAG-AFTRA verurteilte die KI-Figur scharf: „Sie ist keine Schauspielerin.“ Für die Gewerkschaft ist Tilly ein digitaler Charakter, erschaffen aus den Stimmen, Gesichtern und Bewegungen unzähliger echter Schauspieler:innen – ohne deren Zustimmung, ohne Bezahlung.
Die große Frage, die sich für mich daraus ergibt, lautet: Wie weit darf die Traumfabrik das Spiel mit der Effizienz treiben, ohne dabei ihren menschlichen Kern und ihren Zauber zu verlieren?
Der digitale Goldrausch: Niemand braucht mehr fette Budgets
Für Tech-Nerds, Start-ups und Indie-Filmemacher fühlt sich die KI-Revolution wie ein Befreiungsschlag an. Jahrzehntelang war Hollywood ein geschlossener Club, dominiert von Studios, fetten Millionen-Budgets und Gatekeepern. Nun reicht theoretisch schon ein Laptop, ein KI-Tool und eine Idee – und man kann Inhalte in einer Qualität produzieren, die früher Millionen verschlungen hätte.
Das Ende der Budget-Diktatur
Zahlen zeigen, wie dramatisch die Entwicklung ist: Morgan Stanley schätzt, dass generative KI die Produktionskosten der Medienbranche um rund zehn Prozent, bei TV- und Filmprojekten sogar um bis zu 30 Prozent senken könnte. Ein Werbespot, der einst locker’ne Million Dollar und drei Monate Produktionszeit kostete, lässt sich heute mit KI für 2.000 US-Dollar und drei Tage Arbeit realisieren.
Für kleine Studios oder Werbefirmen bedeutet das: Sie können Projekte stemmen, die früher undenkbar gewesen wären. Blockbuster-Ästhetik ohne Blockbuster-Budget. Genau das meint Eline Van der Velden, wenn sie sagt: „Kreativität darf nicht länger vom Budget abhängen.“ Ach, und wenn wir schon über Geld reden. Hollywood-Stars verdienen sich pro Film eine goldene Nase.
Es sind zwar wirklich nur wenige Superstars, aber dennoch: Ein Robert Downey Jr. hat für seine Avengers-Filme zuletzt 75 Millionen Dollar pro Film kassiert. Als Filmemacher würde ich mir überlegen, ob ich künftig nicht auf Robert verzichte und einen KI-Helden caste, wenn es das Budget um 75 Milliönchen drücken könnte.

Virtuelle Sets statt teurer Drehorte
Parallel dazu revolutioniert Virtual Production (VP) die Arbeit am Set. Riesige LED-Volumes – wie die 5.000 Quadratmeter große Anlage von Versatile – ersetzen aufwändige Drehorte und Green Screens. In Echtzeit werden digitale Welten projiziert, die sofort in der Kamera sichtbar sind.
Das bedeutet: Regisseur:innen können Lichtstimmungen ändern, Hintergründe austauschen oder Kamerawinkel variieren, ohne das Set verlassen zu müssen. KI generiert dabei ganze Landschaften und sogar Statistenmassen. Szenen, die früher Dutzende Komparsen gebraucht hätten, entstehen nun mit ein paar Klicks. Serien, Werbung, Musikvideos – alle profitieren von der Möglichkeit, virtuelle Umgebungen immer wieder neu einzusetzen.
Ihr müsst Euch ja nur Tools wie Sora 2 ansehen und bekommt eine Idee davon, was künftig jeder von uns allein schon auf dem Handy realisieren kann. Schaut hier einfach mal in die ersten zwei, drei Minuten der Präsentation von OpenAI rein (oder – fast noch besser – dieses „Blooper“-Video dazu:
Lokalisierung in Lichtgeschwindigkeit
Ein weiterer heißer Bereich ist das Voice Cloning. Firmen wie Respeecher oder CAMB.AI klonen Stimmen so detailgetreu, dass Intonation, Emotion und Akzente erhalten bleiben. Filme, die bisher monatelang für Synchronisation in andere Sprachen gebraucht hätten, lassen sich nun in 48 Stunden in über 100 Sprachen lokalisieren.
Praxisbeispiele? Im Film The Brutalist half KI dabei, Adrien Brodys ungarischen Akzent zu verfeinern. In Emilia Pérez wurde die Stimme der Hauptdarstellerin erweitert, um sie emotional flexibler wirken zu lassen. Erwähnte ich, dass beide Filme Oscar-prämiert wurden? Das Schimpfen über KI in Hollywood ist laut – aber die Technologie ist längst angekommen und auch zumindest in diesem Bereich akzeptiert.
KI dient nicht nur als Kostensenker, sondern auch als kreativer Assistent – ein Werkzeug, das menschliche Leistung ergänzt, wo deren Grenzen erreicht sind. Es steht zu befürchten, dass dadurch der Job der Synchronsprecher:innen aussterben könnte. Aber wenn ein Film dafür weltweit in allen Sprachen dieselbe Stimme der Hauptdarsteller:innen hat, qualitativ ans Original heranreicht, deutlich günstiger und schneller ist als die klassische Alternative? Doch, dann kann ich nachvollziehen, dass sich Studios für den KI-Weg entscheiden, auch wenn ich das mit etwas Wehmut sage.
Im Video seht Ihr ein schönes Beispiel dafür, was längst mit künstlicher Intelligenz möglich ist:
Die Angst vor der Schauspielkunst aus dem Rechner
Doch je größer der technische Fortschritt, desto lauter werden die Ängste. Die US-Kreativwirtschaft beschäftigt rund 2,3 Millionen Menschen. Drehbuchautor:innen, Schauspieler:innen, Cutter:innen, Synchronsprecher:innen – sie alle fragen sich: Wird KI meine Arbeit ersetzen?
Der Aufstand gegen die KI-Schauspielerin
Der Fall Tilly Norwood steht dabei sinnbildlich. Van der Velden nennt sie „ein Kunstwerk“. Doch viele sehen in ihr einen Angriff auf die Essenz der Schauspielkunst. Die SAG-AFTRA betont: Tilly hat keine Lebenserfahrung, keine Emotionen, sondern nur „gestohlene“ Performances. Schauspielerin Mara Wilson (bekannt aus Matilda) brachte es auf den Punkt, als sie sagte: „Und was ist mit den Hunderten junger Frauen, deren Gesichter zu Tillys Gesicht zusammengefügt wurden? Konnte man keine von ihnen engagieren?“
Andere rufen längst unverhohlen dazu auf, Agenturen zu boykottieren, die KI-Stars wie Tilly vertreten wollen. Das Schreckensszenario, das wie ein riesiges Damoklesschwert über Hollywood baumelt: Studios ersetzen Statisten durch digitale Doubles und – schlimmer noch – erschaffen Superstars, die nie altern, nie krank werden, keine Starallüren haben und nie einen Vertrag nachverhandeln.
Die Streiks von 2023 haben zumindest erste Leitplanken gesetzt: Schauspieler:innen müssen explizit zustimmen, wenn digitale Kopien ihres Gesichts oder Körpers erstellt werden. Doch wie lange reicht dieser Schutz? Wird er verhindern können, dass wir schon bald unzählige Legenden wie Marilyn Monroe, Humnphrey Bogart, Charlie Chaplin und James Dean auf der Kinoleinwand wiederbegrüßen können? Oder dass jeder reale Actor im Film ständig durchtrainiert und mit jugenldichem Aussehen dargestellt wird, wie auch immer er in echt aussieht?
Urheberrecht und Trainingsdaten
Der eigentliche Konflikt spielt sich dabei übrigens unsichtbar ab – in den Trainingsdaten der Modelle. Autoren, Journalisten, Schauspieler und Musiker verklagen derzeit Konzerne wie OpenAI und Google, weil deren KI-Systeme mit urheberrechtlich geschütztem Material trainiert wurden – ohne Erlaubnis, ohne Entlohnung.
Die Tech-Firmen hingegen argumentieren: Wenn sie diese Daten nicht nutzen dürften, verlöre man den Anschluss im globalen KI-Wettlauf, vor allem gegenüber China. Ein zynisches, aber realistisches Kalkül. Deswegen haben es Initiativen wie Red Lines auch so schwer: Niemand will bei der Entwicklung vom Gas gehen, weil sonst der falsche das Game gewinnen könnte.
Über 400 Hollywood-Stars – darunter Cate Blanchett, Ben Stiller und Sir Paul McCartney – fordern, dass KI-Entwicklung nicht auf Kosten der Kreativen geht. Denn auch wenn eine KI täuschend echt wirkt: Sie versteht nicht, sie empfindet nicht. Sie imitiert. Ein KI-Song baut nie auf die wirkliche Erfahrung einer verschmähten Liebe. Programmierte Filmtränen können perfekt wirken, aber ihnen liegt kein jemals erlebter Schmerz zugrunde.
Globale Ethik und Regulierung
Bei der Regulierung seht Ihr aktuell sehr schön, wie unterschiedlich die Welt auf diese Fragen reagiert:
Die EU zum Beispiel stuft generative KI als „Hochrisikotechnologie“ ein und fordert Transparenzpflichten. China will ab 2025 vorschreiben, dass alle KI-generierten Inhalte – inklusive geklonter Stimmen – gekennzeichnet werden müssen. Frankreich geht einen Sonderweg: Das CNC (die dortige Regulierungsbehörde) unterstützt nur Produktionen, die sich verpflichten, menschliche Stimmen einzusetzen, um die kulturelle Authentizität zu wahren.
… und die USA unter Donald Trump schließlich … okay, reden wir nicht darüber! Natürlich gibt es für einen Donald Trump weder offensichtliche Gefahren noch Grenzen. Hoffen wir, dass sich die Branche da auch weiterhin wehren kann – auch gegen 100-Prozent-Zölle auf ausländische Filme!
Es ist klar: Selbst wenn die Technik unvermeidlich wirkt, muss es menschliche Kontrolle geben. Ohne Regeln droht der Missbrauch – von Deepfakes bis hin zur Ausbeutung der Arbeitskraft ganzer Branchen.
– Intermission –
Puh, langer Text! Deswegen geht jetzt kurz das Saallicht an und wir machen kurz Pause. Schnappt Euch ein Eis oder ’nen Drink, füllt das Popcorn auf und vertretet Euch kurz die Beine. Gönnt dem Gehirn diese kleine Auszeit.
Alle wieder da? Alles klar, Licht aus, weiter geht’s!
Jenseits der Leinwand – Personalisierung, Interaktion und die Zukunft des Konsums
Lasst uns jetzt mal über einen ganz anderen Aspekt reden: KI verändert nicht nur, wie Filme produziert werden. Sie verändert auch, wie wir sie konsumieren. Die Zuschauer:innen von morgen sind keine passiven Konsumenten mehr – sie werden zu Mitgestaltenden.
Netflix, Spotify und Co. kennen uns längst besser, als uns lieb ist. Sie wissen, wann wir pausieren, welche Szenen wir mehrfach anschauen, bei welchem Tonfall wir abschalten. Und natürlich weiß Netflix, welche Storys gut funktionieren, welche Genres uns besonders ansprechen und aus welchen Elementen sich unsere Favoriten-Serien oder -Filme zusammensetzen.
Personalisierung auf Steroiden
Die nächste Stufe, auf die wir uns einstellen müssen: Inhalte, die sich in Echtzeit anpassen. Netflix testet bereits dynamische Thumbnails, die je nach Nutzerprofil unterschiedlich ausfallen. Start-ups wie Fable arbeiten an Plattformen wie Showrunner, mit der Ihr per Texteingabe ganze Episoden bestehender Serien generieren könnt.
Eure Lieblingscharaktere sterben zu früh? Kein Problem, die KI schreibt sie einfach weiter. Wenn der Fable-CEO Edward Saatchi davon spricht, das „Netflix der KI“ werden zu wollen, wisst Ihr, wohin die Reise geht! Das Ergebnis? Es könnte eine endlose, personalisierte Storyschleife sein – maßgeschneidert auf jede nur irgendwie denkbare Vorliebe.
Auch das Erzählen selbst wandelt sich: In VR-Filmen könnt Ihr nicht nur zuschauen, sondern handeln, navigieren, Entscheidungen treffen. Jede Sichtung wird einzigartig. Globale Premieren könnten vielleicht schon bald als virtuelle Events stattfinden: Ihr sitzt als Avatar im selben „Kino“ wie Regisseur:innen und Stars, diskutiert live, vielleicht gestaltet Ihr sogar einzelne Aspekte der Geschichte mit.
KI wird so zum Co-Piloten des Storytelling, während Regisseur:innen und Autor:innen die kreative Richtung vorgeben. Das macht mir aber auch Hoffnung, dass neue Talente sich hier mit ganz frischen Ansätzen beweisen werden.
Wir haben die Bühne selbst gebaut – und darum hat KI so leichtes Spiel
Es wäre zu einfach, die Verantwortung allein auf Silicon Valley oder experimentierfreudige Studios zu schieben. Der Nährboden für KI in Hollywood wurde längst durch uns alle bereitet – durch das, was wir konsumieren, einfordern und mitproduzieren. Ich empfinde es so ähnlich wie in der Musikindustrie.
Da sind zunächst mal die fetten Blockbuster. Die großen Studios setzen seit Jahren auf ein kalkuliertes Rezept: bekannte Marken, wiederkehrende Held:innen, Fortsetzungen und Reboots. Das Überraschungsmoment ist rar geworden, während Franchises von Fast & Furious bis Marvel eher Content-Maschinen als Kunstwerke sind. Eine KI muss das nur noch imitieren – die Vorlagen sind längst standardisiert.
Dann gibt’s CGI bis zum Anschlag: Kulissen, Massen, Raumschiffe – das Digitale hat doch längst das Analoge verdrängt. KI setzt diesen Trend lediglich fort. Oder lasst uns über Storytelling reden: Ob Drei-Akt-Struktur, Heldenreise oder das obligatorische Happy-End – Hollywood hat sich selbst in Strukturen eingesperrt, die sich bestens für maschinelles Lernen eignen. Algorithmen lieben Muster, und wir liefern sie am laufenden Band.
Aber hey, auch wir haben das System geprägt. Wir fordern Spektakel, schnelle Schnitte, klare Archetypen. Serien werden nach ersten Quoten gekappt, Songs nach 20 Sekunden geskippt. Wenn Aufmerksamkeit das knappste Gut ist, dann ist es kein Wunder, dass Content auf Tempo, Wiedererkennbarkeit und einfache Befriedigung getrimmt wird.
Das Paradoxe: Genau diese Mechanismen, die uns heute langweilen oder ermüden, sind die perfekte Steilvorlage für KI. Sie braucht kein Genie, um das Mittelmaß zu reproduzieren. Die wirkliche Herausforderung – und das, was KI (noch) nicht kann – ist das Risiko, die Eigenart, das Unvorhersehbare.
Fazit: Die Zukunft ist hybrid – und menschlich
Das bringt mich jetzt endlich zu meinem Fazit: Also ja – der KI-Zug ist längst abgefahren. Studios, die jetzt noch zögern, warten auf einen Bus, der nie kommt. Die Frage ist nicht, ob KI Hollywood verändert – sondern wie.
Auf der einen Seite lockt eine nie dagewesene Demokratisierung: Jeder kann Filme machen, Kosten sinken, Kreativität sprüht. Auf der anderen Seite stehen die ganz realen Ängste vor Jobverlust, Dehumanisierung und dem Ausverkauf von Urheberrechten.
Die Antwort kann jedoch nicht sein, KI zu verteufeln – sondern sie klug zu integrieren. Als Werkzeug, nicht als Ersatz. Notwendig sind klare Standards: Wir brauchen einerseits Transparenz und Kennzeichnung. Jeder, der zuschaut, muss wissen, wann KI im Spiel ist. Andererseits benötigen wir Consent und faire Bezahlung. Kreative müssen zustimmen und entlohnt werden, wenn ihre Arbeit als Grundlage dient.
Wir stehen am Beginn einer neuen Ära, am ehesten vielleicht noch vergleichbar mit der Einführung des Tonfilms in den 1920ern. KI wird zum Sidekick des Regisseurs, der Ideen Wirklichkeit werden lässt. Aber das Herz, der Puls, die Seele der Geschichten – sie bleiben menschlich. Denn Algorithmen können zwar Daten neu arrangieren. Aber sie können nicht fühlen, nicht hoffen, nicht träumen. Und wo sollte Träumen Voraussetzung sein, wenn nicht in der Traumfabrik Hollywood?
Was ich persönlich glaube, was passieren wird? Wir werden zweierlei erleben: KIs, die wie aus der Stalinorgel geballert maßgeschneiderte Blockbuster abliefern. Damit wir die richtige Untermalung haben, während wir uns im Kinosessel die Bäuche mit Popcorn und Nachos mit Käse vollschlagen.
Und es wird diejenigen geben, die die Kunst in den Vordergrund stellen. Die ungewöhnliche Story. Die kruden Charaktere. Den besonderen Moment. Das echte Gefühl. Und beides wird sein Publikum finden, davon bin ich überzeugt!
Happy-End, jetzt Abblende und Abspann. Bleibt noch einen Moment sitzen, damit Ihr die Post-Credit-Scenes nicht verpasst. Tretet nicht ins Popcorn und kommt gut heim! Der nächste Kinoabend kommt bestimmt!
Apps & Mobile Entwicklung
Nvidia Blackwell Ultra: Microsoft nimmt GB300-Cluster mit 4.608 GPUs in Betrieb
Nach Nvidia Hopper und ersten Blackwell-Beschleunigern rückt jetzt die Ausbaustufe Blackwell Ultra in den Markt vor. Bei Microsoft Azure ist jetzt das weltweit erste Supercomputing-Cluster auf Basis von Nvidias GB300 NVL72 mit 4.608 GPUs in Betrieb genommen worden. Die Racks sind dicht gepackt und setzen auf Flüssigkeitskühlung.
Erstes Supercomputing-Cluster mit Blackwell Ultra
Immer dann, wenn eine neue Generation von Nvidia die Serienreife erlangt hat, in größeren Stückzahlen produziert wird und schließlich zu den ersten wichtigen Abnehmern gelangt ist, kommt es zu entsprechenden Partnerankündigungen von beiden Seiten. Wie Microsoft auf dem Azure-Blog und Nvidia selbst im einem weiteren Beitrag nun bekannt gegeben haben, ist bei Microsoft Azure jetzt das weltweit erste Supercomputing-Cluster auf Basis von Nvidias GB300 NVL72 mit insgesamt 4.608 GPUs in Betrieb genommen worden. Die neu hinzugekommene Rechenleistung wird exklusiv OpenAI zur Verfügung gestellt.
Entwickelt für anspruchsvolles Inferencing
Den Mid-Cycle-Refresh auf Blackwell Ultra hatte Nvidia zur GTC im März angekündigt und für die zweite Jahreshälfte in Aussicht gestellt. Entwickelt wurde Blackwell Ultra unter anderem für die höheren Anforderungen beim Inferencing von AI-Reasoning-Modellen, die schnell mehrere Hunderttausend Tokens pro Anfrage verarbeiten und ausgeben müssen. Bei OpenAI soll Blackwell Ultra für besonders anspruchsvolle Inferencing zum Einsatz kommen, wie Nvidia auf dem Firmenblog erklärt.
50 Prozent mehr HBM3e
Um diesen Anforderungen gerecht zu werden, erweitert Nvidia den Speicher von Blackwell Ultra für jede B300-GPU auf 288 GB HBM3e, ausgehend von 192 GB HBM3e bei Blackwell mit der B200-GPU. Blackwell Ultra soll laut Nvidia die 1,5-fache FP4-Inferencing-Leistung im Vergleich zu Blackwell liefern, das Unternehmen spricht von 15 PetaFLOPS für FP4 Dense, also ohne die Sparsity-Beschleunigung, mit der 30 PetaFLOPS möglich sind.
Dicht gepackte Racks mit Flüssigkeitskühlung
Die neue Generation gibt es in zwei Ausführungen: GB300 NVL72 und HGX B300 NVL16. Bei GB300 NVL72 handelt es sich um eine Weiterentwicklung des bekannten Racks von GB200 NVL72, das 72 Blackwell-GPUs mit 36 Grace-CPUs mit Arm-Architektur in einem dicht gepackten Serverschrank mit Flüssigkeitskühlung vereint. HGX B300 NVL16 ist die Variante im 8U-Chassis mit luftgekühlten GPUs und x86-Prozessoren, die sich einfacher in bestehende Rechenzentren und Serverschränke integrieren lässt, die noch nicht komplett auf Flüssigkeitskühlung ausgelegt sind.

Bei Microsoft Azure stehen jetzt 64 Racks des Typs GB300 NVL72. Das bedeutet pro Rack: 72 GPUs, 21 TB HBM3e, 130 TB/s NVLink-Bandbreite, 36 CPUs, 40 TB LPDDR5X und 800 Gbit/s Scale-out-Bandbreite mit Quantum-X800 InfiniBand. Pro Rack kommen 18 Compute-Trays mit jeweils vier GPUs und zwei CPUs zum Einsatz, außerdem sind neun NVLink-Switches pro Rack verbaut. Das resultiert zusammengefasst in einer Leistung von 1,44 ExaFLOPS für FP4 Tensor Core pro VM. Bei Azure werden die neuen VMs als ND GB300 v6 bezeichnet und folgen auf die im März dieses Jahres angekündigten ND GB200 v6 mit GB200 NVL72.
Apps & Mobile Entwicklung
Android 16: Samsung Galaxy A16 erhält One UI 8
Samsung hatte mit der Verteilung des Updates auf Android 16 und auf die eigene Benutzeroberfläche One UI 8 für das Galaxy A16 zwar bereits in der vergangenen Woche begonnen, wie üblich war die neue Firmware zunächst jedoch nur im Heimatland Südkorea verfügbar. Inzwischen hat auch die weltweite Verteilung begonnen.
Damit führt Samsung das vor einiger Zeit eingeschlagene Tempo bei seinen Software-Aktualisierungen fort, nachdem die 5G-Version des Einsteiger-Smartphones erst Mitte Juni das Update auf Android 15 und One UI 7 erhalten hatte.
Das nun veröffentlichte Update trägt die Versionsnummer A166PXXU5CYI8, ist rund zwei Gigabyte groß und enthält die nicht mehr ganz taufrischen Sicherheitsupdates vom 1. September 2025. Da Samsung seine Updates immer in Wellen verteilt, kann es bei einigen Nutzern noch etwas dauern, bis die Benachrichtigung zur Aktualisierung angezeigt wird. Alternativ lässt sich die neue Version nach ihrer Bereitstellung auch als Image über die Samsung-Website herunterladen und mithilfe der ODIN-Software manuell installieren.
Apps & Mobile Entwicklung
Project Moohan: Samsung Galaxy XR bietet 4K pro Auge und wiegt 545 Gramm
Das Project Moohan von Samsung soll Gerüchten zufolge Ende Oktober unter der Bezeichnung Galaxy XR auf den Markt kommen. Die XR-Brille hat Samsung schon des Öfteren gezeigt, die meisten Details standen aber noch aus. Jetzt liegen erste technische Daten etwa zur Auflösung und zum Gewicht vor. Die Brille läuft mit Android XR.
Samsung und Google hatten die gemeinsamen Mixed-Reality-Bestrebungen Ende letzten Jahres angekündigt. Im Nachgang der Keynote zur Galaxy-S25-Serie ließ sich das Headset im Januar dieses Jahres dann erstmals aus nächster Nähe betrachten. Alle Details wollte Samsung bislang allerdings noch nicht offenlegen, obwohl die vollständige Ankündigung Gerüchten zufolge noch diesen Monat erfolgen soll.
26 Prozent mehr Pixel als bei Apple
Bei Android Headlines gibt es weitere Einblicke in das Headset, darunter auch Angaben zur technischen Ausstattung. Demnach verbaut Samsung zwei Micro-OLED-Displays mit einer Auflösung von 4K pro Auge und insgesamt 29 Millionen Pixeln. Zum Vergleich: Apple nennt für die Vision Pro insgesamt 23 Millionen Pixel.
Für die All-in-One-Lösung setzt Samsung der Webseite zufolge auf den Qualcomm Snapdragon XR2+ Gen 2, das aktuelle Flaggschiff-SoC von Qualcomm für XR-Produkte. War das eine Stufe kleinere Modell Snapdragon XR2 Gen 2 noch für 3K-Auflösung pro Auge ausgelegt, kann der Snapdragon XR2+ Gen 2 mit bis zu 4,3K-Auflösung umgehen. 4,3K × 4,3K lassen sich dabei mit bis zu 90 FPS pro Auge ausgeben. Von der gleichen GPU und CPU wurden dafür die Taktraten um 15 Prozent respektive 20 Prozent angehoben.
Android XR mit One UI XR
Das von Google entwickelte Android XR soll bei der Galaxy XR um den von Samsung entwickelten Aufsatz One UI XR ergänzt werden. Android Headlines liegen Screenshots der Benutzeroberfläche vor, die bekannte Apps wie etwa Kamera, Galerie, Browser, Netflix, Chrome, Google Maps, Google Fotos, YouTube und den Play Store zeigen.
Leichter als die Apple Vision Pro
Wichtig für All-in-One-Headsets ist auch, dass sie sich komfortabel tragen lassen, was ein entsprechend niedriges Gewicht und sinnvoll gestaltete Haltebügel bedingt. Die Samsung Galaxy XR wird mit 545 Gramm angegeben, was rund 10 Prozent leichter wäre als die 600 bis 650 Gramm schwere Apple Vision Pro – das Gewicht variiert abhängig von Lichtdichtung und Kopfband. Auch bei Samsung kommt eine externe Batterie zum Einsatz, um das Gewicht direkt am Kopf zu minimieren. Für das externe Modul, das linksseitig mit der Brille verbunden wird, liegt noch kein Gewicht vor. Bei Apple wiegt die Batterie 353 Gramm.
Samsung, Apple und Meta mit gleicher Laufzeit
Bei der Laufzeit dürften Samsung Galaxy XR und Apple Vision Pro gleichauf liegen. Denn exakt wie bei Apple soll auch das Samsung-Pendant auf 2 Stunden für die allgemeine Nutzung und 2,5 Stunden rein für die Videowiedergabe kommen. Die Meta Quest 3 (Test) liegt mit durchschnittlich 2,2 Stunden ebenfalls auf ähnlichem Niveau. Bei Meta ist der Akku hingegen integriert und die gesamte Quest 3 wiegt lediglich 515 Gramm.
Die Galaxy XR soll wie die Quest 3 mit eigenen Controllern auf den Markt kommen. Apple setzt vollständig auf das Hand-Tracking, sofern man nicht zu einem Drittanbieter greift. Das Hand- und Eye-Tracking ermöglicht auch die Galaxy XR, wie die Sensoren für das Inside-Out-Tracking an der Unter-, Vorder- und Innenseite der Brille verdeutlichen.
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 4 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 2 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows