Künstliche Intelligenz
Sora ist tot und Kamerahersteller sind sich einig – die Fotonews der KW 13/26
Manchmal räumt die Tech-Branche schneller auf, als sie Chaos anrichten kann. OpenAI, das Unternehmen, das noch vor wenigen Monaten mit seinem KI-Videogenerator Sora die kreative Welt revolutionieren wollte, hat das Tool diese Woche kurzerhand eingestampft. Nicht leise, nicht schrittweise – sondern mit einem Social-Media-Post, der sich liest wie eine Abschiedsrede auf einer Betriebsfeier, bei der niemand wirklich traurig ist.
Weiterlesen nach der Anzeige
(Bild: heise )
Vom Wunderkind zur Nebenquest
Die Geschichte von Sora ist so kurz wie lehrreich. Im September kam Sora 2 mit großem Tamtam auf den Markt, im März ist Schluss. Nicht nur die App verschwindet, wie das Wall Street Journal berichtet – das gesamte Projekt wird beerdigt. CEO Sam Altman höchstpersönlich teilte seinen Mitarbeitern mit, dass OpenAI keine Produkte mehr unterstützen wird, die auf generativen Videomodellen basieren. Sogar die Videofunktion in ChatGPT steht auf der Streichliste.
Der Grund? OpenAI bereitet offenbar einen Börsengang vor und will sich auf das konzentrieren, womit sich tatsächlich Geld verdienen lässt: Produktivitäts- und Unternehmensanwendungen. Fidji Simo, die für Anwendungen zuständige Chefin, hatte schon letzte Woche gewarnt, man müsse aufhören, sich von „Side Quests“ ablenken zu lassen. Sora war offenbar genau das – eine Nebenmission, die mehr Ressourcen verschlang, als der Markt an Nachfrage hergab.
Besonders pikant: Disney hatte im Zuge einer Vereinbarung zugesagt, eine Milliarde Dollar in OpenAI zu investieren, inklusive Lizenzierung beliebter Disney-Figuren für generative KI-Apps. Mit dem Ende von Sora ist auch dieser Deal vom Tisch. Disney gab sich diplomatisch: man „respektiere die Entscheidung“, aber eine Milliarde Dollar respektiert man eben auch. Wir berichteten über Soras kreatives Potenzial, nun darf man sich fragen: War der Künstler Boris Eldagsen mit seinem experimentellen Sora-Video am Ende einer der wenigen, die dem Tool tatsächlich etwas Sinnvolles abgewinnen konnten?
c’t Fotografie Zoom In abonnieren
Ihr Newsletter mit exklusiven Foto-Tipps, spannenden News, Profi-Einblicken und Inspirationen – jeden Samstag neu.
E-Mail-Adresse
Ausführliche Informationen zum Versandverfahren und zu Ihren Widerrufsmöglichkeiten erhalten Sie in unserer Datenschutzerklärung.
Generative KI gehört nicht in eine Kamera
Weiterlesen nach der Anzeige
Während OpenAI also seine KI-Video-Ambitionen beerdigt, haben die großen Kamerahersteller auf der CP+ eine bemerkenswert einheitliche Position bezogen. Canon, Nikon, Sony, Fujifilm, OM System, Panasonic und Sigma sind sich in einer Frage, in der man kaum Einigkeit erwartet hätte, einig: Generative KI hat in einer Kamera nichts verloren.
Das ist, man muss es so sagen, möglicherweise das erste Mal in der Geschichte der Fotobranche, dass alle sieben großen Marken exakt dieselbe Meinung vertreten. Sigma-CEO Kazuto Yamaki bringt es auf den Punkt: „Fotografie dreht sich nicht nur um das Ergebnis, sondern um die Freude am Prozess.“ Wenn es nur ums Bild ginge, könnten KI-generierte Bilder Fotos ersetzen – aber genau das sei eben nicht der Fall.
Nikon betont den menschlichen Faktor der Kreativität und verweist auf die Risiken, die generative KI für das Konzept der Originalität birgt. Canon warnt vor Fälschungen und fordert bessere Authentizitätsnachweise. Fujifilm will klar unterscheiden können, ob ein Bild generiert oder fotografiert wurde. OM System sieht KI als Hilfsmittel – etwa bei Rauschreduzierung oder Bildkomposition –, aber nicht als Bilderzeuger. Panasonic betont, dass gerade bei Videoproduktionen das Motiv real sein müsse.
Wohlgemerkt: Niemand lehnt KI grundsätzlich ab. Autofokus-Erkennung, Motivverfolgung, Rauschreduzierung – all diese Prozesse profitieren von maschinellem Lernen, und die Hersteller nutzen es ausgiebig. Die rote Linie verläuft dort, wo aus Nichts etwas erzeugt wird, wo also nicht mehr fotografiert, sondern fabriziert wird. Dass ausgerechnet die Smartphone-Hersteller ihre Produktvorstellungen zunehmend um genau diese Fähigkeit herum inszenieren, quittieren die Kamera-Chefs mit einvernehmlichem Kopfschütteln.
Canon setzt auf KI – aber die richtige Art
Dass die Ablehnung generativer KI keineswegs Technikfeindlichkeit bedeutet, zeigt Canon in einem separaten Gespräch auf der CP+. Go Tokura, Executive Vice President und Chef der Imaging Group, sieht in Deep Learning und KI sogar den Motor für die nächsten großen Durchbrüche in der Kameratechnik.
Die Rede ist von KI-gestütztem Weißabgleich, der Motiverkennung nutzt, von KI-basierter Rauschreduzierung in der Software und von digitalen Objektivkorrekturen, die zusammen mit optischen Maßnahmen die Bildqualität verbessern. Besonders spannend: Canon sieht Potenzial, durch KI-basierte Bildverarbeitung die ewige Spannung zwischen hoher Auflösung und hoher Geschwindigkeit aufzulösen. Die EOS R1 bietet bereits ein KI-Upscaling im Body, und Canon deutet auch an, dass künftige Produkte beides vereinen könnten – viele Megapixel und hohe Serienbildraten.
„Software kann bis zu einem gewissen Grad helfen“, sagt Tokura. „Durch Deep-Learning-Technologie können wir diesen Bereich verbessern.“ Das klingt weniger nach Revolution als nach konsequenter Evolution – aber genau das ist es, was Fotografen von ihren Werkzeugen erwarten: besser werden, ohne die Grundidee zu verraten.
Braucht die Fotografie überhaupt noch Profis?
Weniger diplomatisch, dafür umso provokanter geht es in einem Essay auf Fstoppers zu. Der finnische Fotograf und Autor Alvin Greis stellt dort die Frage, ob Fotografie überhaupt noch als Beruf behandelt werden muss – und seine Antwort ist, vorsichtig formuliert, nicht das, was Berufsfotografen gerne hören.
Seine These: Professionelle Fotografie existierte historisch vor allem als eine Form der Risikokontrolle. Teure Ausrüstung, begrenztes Wissen, keine sofortige Rückmeldung – all das machte einen Profi nötig, nicht weil die Aufgaben so komplex waren, sondern weil es keinen anderen Weg zu einem brauchbaren Ergebnis gab. Die Eintrittsbarriere war höher als die tatsächliche Anforderung. Professionelle Fotografie, so Greis, habe „weit mehr Raum eingenommen, als die Aufgaben tatsächlich erforderten“.
Der Vergleich mit dem Schreibmaschinenberuf ist dabei ebenso treffend wie schmerzhaft: Tippen war einmal ein Beruf – nicht, weil Schreiben Spezialisten erforderte, sondern weil Fehler teuer und schwer rückgängig zu machen waren. Sobald Tastatur, Undo-Funktion und Textverarbeitung das Risiko eliminierten, verschwand der Beruf. Greis sieht die Fotografie auf einem ähnlichen Weg.
Natürlich hat die These ihre Grenzen, und die Kommentarspalte auf Fstoppers zeigt das deutlich. Hochzeitsfotografen weisen darauf hin, dass es bei einer Trauung keine zweite Chance gibt. Porträtfotografen betonen, dass Vertrauen und Menschenkenntnis keine App ersetzen kann. Ein pensionierter Porträtist aus Toronto berichtet, dass er mit Anfragen überhäuft wird, weil die Ergebnisse neuer Fotografen und KI schlicht „überverarbeitet“ seien.
Greis räumt ein, dass professionelle Fotografie dort weiter existiert, wo sie tatsächlich nötig ist – bei Hochzeiten, bei komplexen Produktionen, überall dort, wo Wiederholbarkeit und Zuverlässigkeit gefragt sind. Aber er besteht darauf: Das ist ein schmaler Bereich, nicht die breite Masse fotografischer Aufgaben.
Man muss dem Essay nicht unbedingt zustimmen, um ihn als Denkanstoß wertvoll zu finden. Denn die Frage, was einen Fotografen zum Profi macht, wenn die technischen Barrieren fallen, ist berechtigt – auch wenn die Antwort komplizierter ist, als es ein ökonomisches Modell nahelegt. Wer am Wochenende Lust auf eine kontroverse Lektüre hat: Der vollständige Essay auf Fstoppers lohnt sich, schon allein wegen der Kommentare.
Die Woche in einem Satz
OpenAI lernt, dass nicht jede KI ein Produkt braucht, die Kamerahersteller lernen, dass Einigkeit möglich ist, und die Fotobranche lernt – mal wieder –, dass die spannendsten Fragen nicht die nach der nächsten Kamera sind, sondern die nach dem Sinn des Ganzen. Also: Gehen Sie raus und fotografieren Sie. Mit einer echten Kamera. Die Pixel sind echt, die Emotionen auch – und das ist mehr, als jede KI von sich behaupten kann.
Lesen Sie auch
(tho)
Künstliche Intelligenz
Google stellt Gemini Intelligence für Android vor
Mit Gemini Intelligence verpasst Google Android neue KI-Funktionen, mit denen das mobile Betriebssystem ein „intelligentes System“ werden soll. Die Neuerungen basieren auf den ersten agentischen Fähigkeiten, die Google für die Galaxy-S26- und Pixel-10-Reihen für den US-Markt angekündigt hatte. Diese habe Google verfeinert und um neue Features erweitert.
Weiterlesen nach der Anzeige
Laut Google soll Gemini Intelligence im Laufe des Sommers schrittweise eingeführt werden, „beginnend mit den neuesten Samsung Galaxy- und Google Pixel-Smartphones“. Im Laufe dieses Jahres sollen die neuen Funktionen auf allen Android-Geräten verfügbar sein, auch auf Smartwatches, in Autos, smarten Brillen und Laptops. Google bestätigte gegenüber heise online, dass die KI-Funktionen auch in Deutschland bereitgestellt werden sollen – ein Datum nannte das Unternehmen jedoch nicht.
Überarbeitete Designsprache für Gemini Intelligence
Im Vorfeld wurde nach einem ersten Teaser gemutmaßt, dass Google sich hinsichtlich der Designsprache an Apples Liquid Glass orientieren könnte. Dies schmetterte Android-Ökosystem-Chef Sameer Samat rasch ab. Allerdings zieht mit Gemini Intelligence eine überarbeitete Designsprache ein, die auf Material 3 Expressive aufbaut, die Google mit Android 16 eingeführt hatte.
Erste Screenshots und Animationen legen zwar nahe, dass Google ein wenig mehr Transparenz und gläserne Akzente zu setzen scheint. Google beschreibt das neue visuelle System als ansprechend und funktional, während gezielte Animationen eingesetzt werden, um Ablenkungen zu reduzieren, sodass Nutzer sich ganz auf die jeweilige Aufgabe konzentrieren können.
Automatisierte mehrstufige Aufgaben
Weiterlesen nach der Anzeige
Gemini Intelligence soll Nutzerinnen und Nutzern dabei helfen, „mühsame Aufgaben zu automatisieren, damit Sie sich auf das Wesentliche konzentrieren können“, schreibt Google in seiner Ankündigung. Die Funktionen zur mehrstufigen Automatisierung, die zuerst auf dem Galaxy S26 und dem Pixel 10 für beliebte Essens- und Mitfahr-Apps verfügbar waren, habe Google optimiert, „um sicherzustellen, dass jede Interaktion nahtlos verläuft“.
Diese agentischen Fähigkeiten sollen bald nicht mehr nur für Essensbestellungen und Fahrdienste nutzbar sein, sondern auch für weitere Dinge: Als Beispiele nennt das Unternehmen etwa die Reservierung eines Platzes für Sportkurse (Konkret: ein Platz in der ersten Reihe eines Spinning-Kurses) oder einen Kursplan in Gmail zu finden und die benötigten Bücher in den Warenkorb zu legen.

Die App-Automatisierung werde noch leistungsfähiger, wenn man sie um Bildschirm- oder Bildkontext ergänze. Anstelle „manuell zwischen Apps zu wechseln und Daten zu kopieren, kann Gemini visuellen Kontext in sofortige Aktionen umsetzen“, erklärt Google. So könne man Gemini mit einem langen Druck auf den Power-Button damit beauftragen, eine lange Einkaufsliste in der Notizen-App in den Warenkorb zu legen und für die Lieferung zusammenzustellen. Ebenso soll es möglich sein, ein Foto einer analogen Reisebroschüre zu machen und Gemini damit zu beauftragen, „eine ähnliche Tour auf Expedia für eine Gruppe von sechs Personen“ zu suchen. Die Fortschritte der Suche könne man dann in Echtzeit in den Benachrichtigungen verfolgen. Google stellt ferner klar, dass man die Kontrolle behält: „Gemini handelt nur auf Ihren Befehl hin und stoppt in dem Moment, in dem die Aufgabe erledigt ist. Alles, was für Sie übrig bleibt, ist die abschließende Bestätigung.“
Eigene Widgets per „Vibe Coding“
Was Nothing kann, kann Google offenbar erst recht: Mithilfe von Gemini Intelligence macht das Unternehmen erste Schritte in Richtung generativer Bedienoberflächen. Den Anfang machen dabei nutzergenerierte Widgets. Mit der Funktion „Create My Widget“ können Nutzer mit natürlicher Sprache vorgeben, was das Widget können soll, die KI soll den Rest erledigen.

Gemini Intelligence ermöglicht die Erstellung von Widgets per Sprache.
(Bild: Google)
Laut Google könne man mit der Funktion „vollständig benutzerdefinierte Widgets erstellen, indem Sie einfach in natürlicher Sprache beschreiben, was Sie möchten“. Als Beispiel führt Google etwa ein Widget an, das Nutzern wöchentlich „drei proteinreiche Rezepte für die Essensvorbereitung“ vorschlägt. Radfahrer können sich zudem ein Widget erstellen lassen, das Windgeschwindigkeit und Regenwahrscheinlichkeit anzeigt. Die generierten Widgets lassen sich in der Größe anpassen. Die Widgets lassen sich nicht nur auf Android-Smartphones, sondern auch auf Wear-OS-Uhren mit Support für Gemini Intelligence verwenden.
Bessere Spracherkennung
Gemini Intelligence soll außerdem dabei helfen, gesprochenen Text aufzupolieren. Während Nutzer mit Gboard auf Android Sprache schon verhältnismäßig schnell und präzise in Text umwandeln können, muss man das Eingesprochene bisweilen nachträglich optimieren, um „Ähs“, weitere Füllwörter und Wiederholungen zu entfernen.

Rambler: Die Gemini-Intelligence-Funktion poliert Spracheingaben.
(Bild: Google)
Mit der neuen Funktion „Rambler“ (von englisch „Rambling“ – „abschweifende Sprechweise“) soll das Eingesprochene automatisch feingeschliffen werden: „Rambler erfasst die wichtigen Teile und fügt sie zu einer prägnanten Nachricht zusammen“, erklärt Google. Die Funktion zeigt Nutzern, wenn das Feature aktiviert ist; das Gesprochene werde nur zur Transkription in Echtzeit verwendet und nicht gespeichert.
Rambler erkenne zudem mehrere Sprachen gleichzeitig. Dies wird mithilfe des mehrsprachigen Modells von Gemini realisiert, sodass Rambler nahtlos zwischen Sprachen in einer einzigen Nachricht wechseln könne. „Ganz gleich, ob Sie Englisch mit Hindi oder einer anderen Kombination mischen – Rambler versteht den Kontext und die Nuancen und sorgt dafür, dass Ihre Nachricht genau so klingt wie Sie – nur noch ausgefeilter“, heißt es.
Formulare schneller ausfüllen
Neu oder verbessert ist die Funktion „Autofill with Google“: Mithilfe der vor einigen Monaten in einigen Ländern (nicht EU) eingeführten Gemini-Funktion „Personal Intelligence“ soll Android künftig noch mehr Textfelder in Apps und Chrome automatisch ausfüllen können. Erst im November letzten Jahres hatte Google eine Erweiterung der Autofill-Funktion für Chrome angekündigt.

Gemini Intelligence soll Autofill von Formularen verbessern.
(Bild: Google)
Laut Google sollen sich relevante Informationen aus verbundenen Apps nutzen lassen, um Nutzern das Ausfüllen von Formularen abzunehmen. Die Verbindung von Gemini mit „Autofill with Google“ ist rein freiwillig, das heißt, sie entscheiden, ob und wann sie die Verbindung zu Gemini herstellen möchten – und sie können diese Verbindung jederzeit in Ihren Einstellungen aktivieren oder deaktivieren.

Gemini Intelligence – Chrome wird smarter.
(Bild: Google)
In Chrome für Android ziehen zudem neue Gemini-Funktionen ein: Nutzer können damit etwa Inhalte im Internet recherchieren, zusammenfassen und vergleichen. Eine automatische Browsersuche in Chrome soll außerdem alltägliche Aufgaben übernehmen, „sei es die Terminvereinbarung oder die Reservierung eines Parkplatzes“, so das Unternehmen. Angesichts dessen, dass bisherige Gemini-Funktionen für Chrome hierzulande noch nicht angeboten werden, ist fraglich, ob es diese zeitnah nach Europa schaffen werden.
Sicherheit und Datenschutz
In einem weiteren Beitrag erklärt Google, dass man für Gemini Intelligence ein „Höchstmaß an Datenschutz“ gewährleiste, das auf drei Kernprinzipien basiere. So sollen Nutzer bei der Verwendung stets die volle Entscheidungsgewalt darüber behalten, wie und wann die KI agiert. Unter anderem seien Funktionen wie das automatisierte Ausfüllen von Formularen oder App-Automatisierungen strikt Opt-in. Nutzer können einzelne Komponenten jederzeit in den Einstellungen aktivieren oder deaktivieren. Ferner führt Gemini Aufgaben nur auf Anweisung bei freigegebenen Apps und erfordert eine Bestätigung vor Käufen. Ob Daten geteilt werden, entscheidet der Nutzer aktiv selbst.

Google verspricht für Gemini Intelligence Transparenz und Sicherheit.
(Bild: Google)
Zudem kommen Google zufolge Isolations-Technologien zum Einsatz: Für „proaktive“ Funktionen (wie das in Deutschland nicht verfügbare Magic Cue) kommen Technologien wie der „Private Compute Core, Private AI Compute und geschützte virtuelle Maschinen (KVM) zum Einsatz“, erklärt das Unternehmen. Ferner umfasse die Architektur Hardware-, Prozess- und Server-Isolation, um Datenlecks zu verhindern. Überdies werden Schutzmaßnahmen gegen moderne Angriffe wie Prompt Injection direkt in Android integriert, versichert Google.

Gemini Intelligence: Benachrichtigungen zu laufenden Automationen lassen sich nicht wegwischen.
(Bild: Google)
Weiter sollen Nutzer den Überblick behalten, während Gemini eine App-Schnittstelle automatisiert. Sie sollen mit der Funktion „View progress“ Aktionen live verfolgen können. Ein quittierbarer Benachrichtigungs-Verlauf zeigt an, wenn die KI im Hintergrund aktiv ist. Darüber hinaus zeigt das Android-Privacy-Dashboard künftig an, welche KI-Assistenten in den vergangenen 24 Stunden aktiv waren und welche Apps sie genutzt haben. Außerdem seien wichtige Teile der Sicherheitsarchitektur Open-Source und werden von Dritten auditiert, um die Sicherheitsversprechen unabhängig zu verifizieren.
Gemini Intelligence zieht mit Android 17 ein, das im Laufe des Juni freigegeben werden soll. Wann das große Update konkret erscheint, verrät Google noch nicht.
Lesen Sie auch
(afl)
Künstliche Intelligenz
Android 17 bringt AirDrop-Support für weitere Geräte und neue Funktionen
Android 17 ist im Grunde fertig, nun hat Google im Zuge der Android Show I/O Edition neben agentischen KI-Funktionen in Form von Gemini Intelligence weitere neue Funktionen angekündigt, die mit dem großen Update in das mobile Betriebssystem einziehen. Unter anderem landet AirDrop-Support über Quick-Share auf Geräten weiterer Hersteller, zudem kommen Kreative auf ihre Kosten.
Weiterlesen nach der Anzeige
AirDrop und WhatsApp-Support
Im November 2025 hatte Google überraschend die Möglichkeit angekündigt, Daten über Quick Share auf iPhones, Macs und iPads zu übertragen – auf der Apple-Seite kommt dafür der Systemdienst AirDrop zum Einsatz. Zuerst hatte Google die Funktion nur für seine Pixel-10-Serie freigeschaltet, mittlerweile bieten auch Samsung und Oppo AirDrop-Support für einige Geräte an.

Laut Google landet AirDrop-Support auf diesen Geräten.
(Bild: Google)
Im Zuge der Android Show sagte Google, dass jetzt auch weitere Unternehmen ihre Geräte mit AirDrop-Unterstützung ausstatten werden. Laut dem Unternehmen sollen Geräte von OnePlus, Vivo, Xiaomi und Honor im Laufe dieses Jahres die Funktion erhalten.
Falls man kein kompatibles Gerät besitze, könne man ab heute Quick Share auf jedem Android-Smartphone nutzen, um einen QR-Code zu generieren, mit dem man Inhalte sofort über die Cloud mit iOS-Geräten teilen könne. Überdies plane Google Quick Share auch für weitere Apps verfügbar zu machen, darunter WhatsApp.
Einfacherer Datenumzug zwischen Android und iOS
Weiterlesen nach der Anzeige
Überdies wird mit Android 17 der Übertragungsprozess von iOS auf Android vereinfacht. Man habe mit Apple zusammengearbeitet, damit Nutzerdaten bequemer von einem auf ein anderes Ökosystem geschaufelt werden können. Angekündigt hatten die beiden Unternehmen den Datenumzug schon Ende 2025; die EU begrüßte dies. Apple hatte den leichten Datenumzug schon mit iOS 26.3 umgesetzt.
Laut Google lassen sich so Passwörter, Fotos, Nachrichten, Lieblings-Apps, Kontakte und sogar die Anordnung des Startbildschirms drahtlos vom iPhone auf ein neues Android-Gerät übertragen. Dieser neue drahtlose Prozess, der auch die Übertragung von eSIMs unterstützt, soll noch in diesem Jahr zunächst auf Samsung-Galaxy- und Google-Pixel-Geräten eingeführt werden.
Weniger Doomscrolling
Google versucht mit der neuen System-Funktion „Pause Point“ Nutzer dazu zu bringen, ihre App-Nutzung zu hinterfragen. Die optionale Funktion gibt Nutzerinnen und Nutzern beim Öffnen einer „ablenkenden App“ eine 10-sekündige Atempause, in der sie sich fragen können: „Warum bin ich hier?“ Während dieser Pause könne man eine kurze Atemübung machen oder einen Timer stellen. Nutzer sollen sich ebenso Lieblingsfotos ansehen oder zu alternativen App-Vorschlägen wechseln können, „wie zum Beispiel einem Hörbuch“.

Pause Point: Google will Nutzer vom Doomscrolling abbringen.
(Bild: Google)
Nach der Aktivierung von Pause Point könne man die Funktion nicht einfach abschalten, sondern das Gerät müsse neu gestartet werden.
Tools für Kreative
Mit Android 17 will Google es Kreativen einfacher machen, Inhalte zu produzieren. So könne man künftig Reaktionsvideos erstellen, ohne zwischen Apps wechseln oder einen Greenscreen einrichten zu müssen. Hierfür führt Google „Screen Reactions“ ein. Damit könne man sich selbst und den Smartphonebildschirm gleichzeitig aufnehmen. Diese Funktion wird im Laufe dieses Sommers zunächst auf Pixel-Geräten verfügbar sein.

Android-Funktion Screen-Reactions für Kreative.
(Bild: Google)
Zudem habe Google sich mit Meta zusammengetan, um Fotos in höherer Qualität auf Instagram zu teilen. Künftig lassen sich Ultra-HDR-Inhalte aufnehmen und wiedergeben. Außerdem erhält die App eine integrierte Videostabilisierung für ruckelfreie Videos. Auch Aufnahmen bei Dunkelheit sollen durch die Integration von „Night Sight“ besser zur Geltung kommen.
Zudem habe man den „Prozess von der Aufnahme bis zum Hochladen komplett optimiert, um sicherzustellen, dass deine Fotos und Videos atemberaubend scharf bleiben, wenn du auf ‚Posten’ klickst,“ schreibt Google.
Auch die Edits-App habe Google mit Meta zusammen speziell für Android überarbeitet. In der App könne man Rohmaterial mithilfe von geräteinterner KI in Sekundenschnelle in professionell aufbereitete Inhalte verwandeln, verspricht Google. Zudem unterstützt Edits künftig Tontrennung: Die Edits-App „erkenne nun Audiospuren – Wind, Geräusche und Musik – und trennt sie voneinander, um die gewünschten Töne zu verstärken und unerwünschte zu entfernen“.
Instagram für Android-Tablets – offenbar nicht nur für Android 17
Auch an die Tablets haben Google und Meta gedacht: Denn Instagram ist nun vollständig für Android-Tablets optimiert, „und nutzt den Platz auf dem großen Bildschirm optimal aus“. Schon im September vergangenen Jahres hatte Instagram eine für iPads optimierte App veröffentlicht. Kreative erhalten außerdem Zugriff auf Adobe Premiere, die im Laufe des Sommers auf Android landen wird.

Instagram gibt es nun auch für Android-Tablets.
(Bild: Google)
Die Premiere-App liefere unter anderem „Zugang zu exklusiven Vorlagen und Effekten, um YouTube Shorts direkt in der App zu erstellen und zu veröffentlichen“, erklärt das Unternehmen. Zudem zieht das professionelle Videoformat APV (Advanced Professional Video) ein, das unter anderem eine höhere Speichereffizienz biete. Es wurde gemeinsam mit Samsung entwickelt und ist ab sofort auf dem Samsung Galaxy S26 Ultra und dem iVvo X300 Ultra verfügbar; Support für weitere Android-Topmodelle mit Snapdragon 8 Elite-Prozessoren sollen im Laufe dieses Jahres folgen.
Wann Google die fertige Version von Android 17 veröffentlicht, hat das Unternehmen noch nicht verraten. Android 16 erschien im vergangenen Jahr einige Wochen nach der Android Show I/O Edition 2025 Anfang Juni. Zu weiteren neuen Funktionen von Android 17 gehören unter anderem App-Bubbles, getrennte WLAN- und Mobilfunk-Kacheln in den Schnelleinstellungen und Schutz gegen Angriffe durch Quantencomputer.
(afl)
Künstliche Intelligenz
Android Auto: Mehr Gemini-KI und immersive Navigation kommen
Weiterlesen nach der Anzeige
Im Zuge der Android Show: I/O Edition hat Google viele Neuerungen rund um Android Auto und Android Automotive angekündigt. Nachdem Google im vergangenen Jahr den Wechsel vom Google Assistant zu Gemini verkündete, bringt das diesjährige Update erneut mehr KI ins Auto, allerdings hat Google noch mehr in petto.
Neuer Anstrich
Android Auto erhält in diesem Jahr zunächst den Material-3-Expressive-Anstrich, den Google mit Android 16 QPR1 auf Smartphones und Wear-OS-Uhren losgelassen hatte. Dazu gehören neue Schriftarten, flüssigere Animationen und neue Hintergrundbilder.

Android Auto erhält die Designsprache Material 3 Expressive.
(Bild: Google)
Zudem hat Google Android Auto so konzipiert, dass Nutzerinnen und Nutzer es stärker personalisieren können. Das Update bringt unter anderem Widgets und Google Maps im Vollbildmodus auf das Armaturenbrett. Überdies ist Android Auto endlich so flexibel anpassbar, dass es auf jeden Fahrzeugbildschirm passt – „egal ob es sich um ein ultrabreites Rechteck, einen Kreis oder eine Sonderform handelt“.

Android Auto passt sich nun an verschiedene Bildschirmformen an.
(Bild: Google)
Neu ist Google zufolge auch die Möglichkeit, Verknüpfungen zu den Lieblingskontakten, einen Garagentoröffner, eine Wetterübersicht und vieles mehr auf den Bildschirm zu bringen.
Weiterlesen nach der Anzeige

Android Auto: Das Update bringt immersive Navigation in Google Maps. Unklar ist, ob sie auch nach Deutschland kommt.
(Bild: Google)
Darüber hinaus hält die Anfang dieses Jahres angekündigte immersive Navigation für Google Maps Einzug ins Auto. Damit lässt sich Kartenmaterial mitsamt Gebäuden, Überführungen und Gelände in einer 3D-Ansicht anzeigen. Laut Google werden mit der Ansicht wichtige Details wie Fahrspuren, Ampeln und Stoppschilder hervorgehoben. Dies soll dabei helfen, einfacher durch schwierige Strecken zu navigieren.
Gemini Intelligence
Wie Google erklärt, ist der neue Assistent Gemini in Android Auto mittlerweile weit verbreitet. Künftig könne zudem der im Zuge der Android Show angekündigte proaktive Assistent Gemini Intelligence auch im Auto verwendet werden, sofern das Smartphone über diese Funktion verfüge.
So könne man etwa während der Fahrt das Abendessen bestellen, etwa mit DoorDash. Sage man etwa: „Bestelle meine üblichen Fisch-Tacos bei DoorDash zum Abholen, aber verdoppele die Bestellung“, könne die KI den Befehl ausführen. Der Nutzer muss die Bestellung abschließend bestätigen. Laut Google soll Gemini Intelligence auch in Deutschland verfügbar sein, einen konkreten Zeitraum hat das Unternehmen jedoch noch nicht genannt.
Entertainment
Auch im Entertainment-Bereich schickt Google neue Features ins Rennen: Bei Fahrzeugen mit entsprechender Ausstattung können Inhalte in Full-HD-Auflösung mit 60 fps wiedergegeben werden. Laut Google sind nicht näher spezifizierte Modelle von BMW, Ford, Genesis, Hyundai, Kia, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo dabei.
Zudem sollen Videos beim Beenden des Parkmodus zur Rückkehr in den Fahrmodus nicht einfach unterbrochen werden. Stattdessen wechseln sie künftig nahtlos in einen Audio-Modus – zumindest in Apps, die Hintergrundaudio unterstützen. Für Filme oder Serien sicher nicht sinnvoll, aber für Video-Podcasts. Des Weiteren erhält Android Auto Unterstützung für räumlichen Klang per Dolby Atmos in unterstützten Apps. Laut Unternehmen sind Fahrzeuge von BMW, Genesis, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo an Bord.

Google verpasst Android Auto aktualisierte Mediaplayer.
(Bild: Google)
Zudem frischt Google die Medien-Apps wie YouTube Music und Spotify mit neuen Designs auf. Damit sollen sie im Auto benutzerfreundlicher sein.
Android Automotive mit Google-Diensten
Abseits der Android-Auto-Neuerungen ziehen auch in Googles Infotainment-System Android Automotive mit Google-Diensten einige der oben genannten Neuerungen ein. So bringt Google unter anderem die überarbeiteten Medien-Apps und den nahtlosen Übergang von Video zu Audio in Fahrzeuge mit Android Automotive. Zudem soll das Infotainment-System Zugriff auf Konferenz-Apps wie Zoom erhalten.

Gemini soll mit dem Android Automotive Update hilfreicher in Sachen Fahrzeugwissen werden.
(Bild: Google)
Google erklärt weiter, dass Apps wie Gemini und Maps in Fahrzeugen mit Google-Play-Integration noch besser funktionieren, da man eng mit den Autoherstellern zusammenarbeite. Damit sei eine tiefere Integration in die Hardware von Fahrzeugen möglich. Daher könne Gemini künftig etwa Fragen beantworten, „die speziell auf Ihr aktuelles Fahrzeug zugeschnitten sind – beispielsweise die Identifizierung einer mysteriösen Kontrollleuchte auf dem Armaturenbrett oder die Auskunft, ob der Fernseher, den Sie abholen möchten, in Ihren Kofferraum passt“.
Ferner soll die immersive Navigation in Google Maps in kompatiblen Fahrzeugen mithilfe der Live-Spurführung präziser sein. Diese funktioniere vollständig im Fahrzeug und analysiere die Straße über die Frontkamera des Fahrzeugs. Die Live-Spurführung erkenne überdies, auf welcher Spur man sich befinde, und könne in Echtzeit Hinweise geben, wann man die Spur wechseln oder abfahren müsse.
Die Updates für Android Auto und für Fahrzeuge mit integriertem Google-System (Android Automotive) sollen im Laufe dieses Jahres freigegeben werden.
(afl)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
