Künstliche Intelligenz
KI-Update Deep-Dive: Wenn der KI-Vorwurf das Studium beendet
Keine einheitlichen Regeln für KI-Nutzung
Weiterlesen nach der Anzeige
Künstliche Intelligenz ist aus dem Bildungsalltag nicht mehr wegzudenken. Eine aktuelle britische Studie zeigt: Studierende nutzen KI-Tools, um sich Konzepte erklären zu lassen, Material zusammenzufassen oder Ideen zu strukturieren. Doch während die Technologie längst Einzug in Hörsäle und Klassenzimmer gehalten hat, fehlen klare rechtliche Rahmenbedingungen. Die Folge: Ein regelrechter Flickenteppich an Regelungen – mit möglicherweise sogar gravierenden Konsequenzen für Betroffene.

„Wir haben unseren berühmten Föderalismus und damit einen Flickenteppich“, erklärt Sibylle Schwarz, Gründungspartnerin der Kanzlei elseschwarz in Wiesbaden und auf Beamten- und Bildungsrecht spezialisiert. „Das Bundesland entscheidet, wie das Schulgesetz beziehungsweise das Hochschulgesetz aussieht.“ Während manche Hochschulen KI in Prüfungen pauschal verbieten, schweigen sich andere komplett aus. Selbst innerhalb einer Universität können die Regeln variieren: „Es kann sogar einem Studierenden passieren, dass er gar nicht die Uni wechseln muss, sondern einfach nur seine Vorlesung. […] Der eine Prof verbietet es komplett, ein anderer erlaubt es vielleicht.“
Das Kasseler Urteil: Ein Präzedenzfall mit Folgen
Ende Februar fällte das Verwaltungsgericht in Kassel ein Urteil – das erste dieser Art in Deutschland. Ein Informatikstudent hatte seine Bachelorarbeit eingereicht, doch die Universität Kassel stufte die Arbeit als nicht bestanden ein. Begründung: Der Verdacht auf KI-Nutzung. Zudem wurde eine Wiederholungsprüfung ausgeschlossen. „Der Informatikstudent hat keinen Hochschulabschluss und den kann er auch nicht mehr erreichen“, sagt Schwarz.
Das Verwaltungsgericht bestätigte in seinem Urteil die Auffassung der Universität, dass KI als „fremde Hilfe“ zu werten sei. „Täuschung ist anzunehmen, wenn der Prüfling keine eigenständige Leistung abgegeben hat, sich also fremder Hilfe, der Hilfe eines Dritten oder unzulässiger Hilfsmittel bedient hat“, zitiert Schwarz die gängige Definition. KI werde dabei wie ein „Dritter“ behandelt – ähnlich wie ein Tischnachbar, von dem abgeschrieben wird. Das Verwaltungsgericht hat das Rechtsmittel der Berufung zugelassen.
Doch wie wird ein KI-Einsatz überhaupt nachgewiesen? Die Hochschulen setzen auf KI-Erkennungssoftware, die bekanntermaßen unzuverlässig ist. „Wenn man den KI-Output nimmt und ein bisschen menschlich ändert, dann springt der KI-Detektor nicht mehr an“, erklärt Schwarz. Daher dienen die Ergebnisse solcher Tools oft auch nur als erster Anhaltspunkt. Im nächsten Schritt prüfen Lehrende die Arbeiten manuell – etwa auf ungewöhnliche Formulierungen oder fachfremde Begriffe.
Weiterlesen nach der Anzeige
Die Beweisführung folgt dabei dem Prinzip des „ersten Anscheins“: „Wenn zwei Klassenarbeiten identisch sind, dann guckt man mal, wo haben die beiden Prüflinge denn gesessen, saßen die nebeneinander?“ Doch dieser Ansatz stößt bei KI an Grenzen. Im Fall des Kasseler Studenten ist noch nicht bekannt, wie die Universität den KI-Einsatz konkret nachwies. „Da werden wir die schriftliche Urteilsbegründung abwarten müssen“, sagt Schwarz.
Für Studierende ist die Situation prekär: „Wir haben jetzt März 2026 und wir haben ungefähr sechs Entscheidungen zur Schule als auch Hochschule. In allen hat der Prüfling verloren.“ Die Konsequenzen sind drastisch: Ohne Abschluss drohen schlechtere Jobchancen und existenzielle Nachteile. „Da kratzen wir ziemlich an dem Grundrecht auf freie Berufswahl“, warnt Schwarz.
Ruf nach klaren Regeln durch die Politik
Aktuell fehlt es an klaren Vorgaben. „Es müsste ausdrücklich formuliert werden, welche KI, welches Tool, vielleicht welchen Nutzungszweck wir eben nicht als Täuschung verstanden wissen wollen“, fordert Schwarz. Statt konkrete einzelne Tools wie ChatGPT zu benennen, plädiert sie für eine Regelung nach Nutzungszwecken: „Recherche, Rechtschreibkorrektur, Übersetzung, Ideenfindung, Lernunterstützung.“ So ließe sich etwa die Nutzung von KI für Übersetzungen oder Rechtschreibprüfungen explizit erlauben – während das Generieren kompletter Texte verboten bliebe.
Ein weiteres Problem sieht die Rechtsexpertin in der Ungleichbehandlung zwischen Lehrenden und Lernenden. „Wenn die Lehrkräfte […] KI-Tools nutzen, dann applaudieren alle. Wenn jetzt aber eine Schülerin oder ein Schüler […] ein solches Sprachmodell zu Hause nutzt, dann ist es Täuschung“, kritisiert Schwarz. Hier fehle ein ganzheitliches Konzept, wie KI sinnvoll in den Bildungsprozess integriert werden kann.
Letztlich liegt die Verantwortung bei der Politik. „Wenn etwas wesentlich für die Verwirklichung der Grundrechte ist, dann muss das das Parlament durch ein Gesetz klären“, betont Schwarz. Doch der Föderalismus erschwert einheitliche Lösungen: „16 Bundesländer, die Schulgesetze machen, 16 Bundesländer, die Hochschulgesetze machen.“ Bis dahin bleibt Studierenden nur, sich möglichst genau zu informieren – und im Zweifel lieber einmal zu viel nachzufragen.
Bis klare Regeln geschaffen sind, bleibt Studierenden nur eines: Transparenz. Wer KI nutzt, sollte dies offen kommunizieren – und sich im Idealfall die Erlaubnis der betreuenden Lehrkraft einholen. Denn eines zeigt der Fall aus Kassel deutlich: Ohne klare Regeln riskieren Studierende nicht nur schlechte Noten, sondern ihren gesamten Bildungsweg.
(igr)
Künstliche Intelligenz
Google stellt Gemini Intelligence für Android vor
Mit Gemini Intelligence verpasst Google Android neue KI-Funktionen, mit denen das mobile Betriebssystem ein „intelligentes System“ werden soll. Die Neuerungen basieren auf den ersten agentischen Fähigkeiten, die Google für die Galaxy-S26- und Pixel-10-Reihen für den US-Markt angekündigt hatte. Diese habe Google verfeinert und um neue Features erweitert.
Weiterlesen nach der Anzeige
Laut Google soll Gemini Intelligence im Laufe des Sommers schrittweise eingeführt werden, „beginnend mit den neuesten Samsung Galaxy- und Google Pixel-Smartphones“. Im Laufe dieses Jahres sollen die neuen Funktionen auf allen Android-Geräten verfügbar sein, auch auf Smartwatches, in Autos, smarten Brillen und Laptops. Google bestätigte gegenüber heise online, dass die KI-Funktionen auch in Deutschland bereitgestellt werden sollen – ein Datum nannte das Unternehmen jedoch nicht.
Überarbeitete Designsprache für Gemini Intelligence
Im Vorfeld wurde nach einem ersten Teaser gemutmaßt, dass Google sich hinsichtlich der Designsprache an Apples Liquid Glass orientieren könnte. Dies schmetterte Android-Ökosystem-Chef Sameer Samat rasch ab. Allerdings zieht mit Gemini Intelligence eine überarbeitete Designsprache ein, die auf Material 3 Expressive aufbaut, die Google mit Android 16 eingeführt hatte.
Erste Screenshots und Animationen legen zwar nahe, dass Google ein wenig mehr Transparenz und gläserne Akzente zu setzen scheint. Google beschreibt das neue visuelle System als ansprechend und funktional, während gezielte Animationen eingesetzt werden, um Ablenkungen zu reduzieren, sodass Nutzer sich ganz auf die jeweilige Aufgabe konzentrieren können.
Automatisierte mehrstufige Aufgaben
Weiterlesen nach der Anzeige
Gemini Intelligence soll Nutzerinnen und Nutzern dabei helfen, „mühsame Aufgaben zu automatisieren, damit Sie sich auf das Wesentliche konzentrieren können“, schreibt Google in seiner Ankündigung. Die Funktionen zur mehrstufigen Automatisierung, die zuerst auf dem Galaxy S26 und dem Pixel 10 für beliebte Essens- und Mitfahr-Apps verfügbar waren, habe Google optimiert, „um sicherzustellen, dass jede Interaktion nahtlos verläuft“.
Diese agentischen Fähigkeiten sollen bald nicht mehr nur für Essensbestellungen und Fahrdienste nutzbar sein, sondern auch für weitere Dinge: Als Beispiele nennt das Unternehmen etwa die Reservierung eines Platzes für Sportkurse (Konkret: ein Platz in der ersten Reihe eines Spinning-Kurses) oder einen Kursplan in Gmail zu finden und die benötigten Bücher in den Warenkorb zu legen.

Die App-Automatisierung werde noch leistungsfähiger, wenn man sie um Bildschirm- oder Bildkontext ergänze. Anstelle „manuell zwischen Apps zu wechseln und Daten zu kopieren, kann Gemini visuellen Kontext in sofortige Aktionen umsetzen“, erklärt Google. So könne man Gemini mit einem langen Druck auf den Power-Button damit beauftragen, eine lange Einkaufsliste in der Notizen-App in den Warenkorb zu legen und für die Lieferung zusammenzustellen. Ebenso soll es möglich sein, ein Foto einer analogen Reisebroschüre zu machen und Gemini damit zu beauftragen, „eine ähnliche Tour auf Expedia für eine Gruppe von sechs Personen“ zu suchen. Die Fortschritte der Suche könne man dann in Echtzeit in den Benachrichtigungen verfolgen. Google stellt ferner klar, dass man die Kontrolle behält: „Gemini handelt nur auf Ihren Befehl hin und stoppt in dem Moment, in dem die Aufgabe erledigt ist. Alles, was für Sie übrig bleibt, ist die abschließende Bestätigung.“
Eigene Widgets per „Vibe Coding“
Was Nothing kann, kann Google offenbar erst recht: Mithilfe von Gemini Intelligence macht das Unternehmen erste Schritte in Richtung generativer Bedienoberflächen. Den Anfang machen dabei nutzergenerierte Widgets. Mit der Funktion „Create My Widget“ können Nutzer mit natürlicher Sprache vorgeben, was das Widget können soll, die KI soll den Rest erledigen.

Gemini Intelligence ermöglicht die Erstellung von Widgets per Sprache.
(Bild: Google)
Laut Google könne man mit der Funktion „vollständig benutzerdefinierte Widgets erstellen, indem Sie einfach in natürlicher Sprache beschreiben, was Sie möchten“. Als Beispiel führt Google etwa ein Widget an, das Nutzern wöchentlich „drei proteinreiche Rezepte für die Essensvorbereitung“ vorschlägt. Radfahrer können sich zudem ein Widget erstellen lassen, das Windgeschwindigkeit und Regenwahrscheinlichkeit anzeigt. Die generierten Widgets lassen sich in der Größe anpassen. Die Widgets lassen sich nicht nur auf Android-Smartphones, sondern auch auf Wear-OS-Uhren mit Support für Gemini Intelligence verwenden.
Bessere Spracherkennung
Gemini Intelligence soll außerdem dabei helfen, gesprochenen Text aufzupolieren. Während Nutzer mit Gboard auf Android Sprache schon verhältnismäßig schnell und präzise in Text umwandeln können, muss man das Eingesprochene bisweilen nachträglich optimieren, um „Ähs“, weitere Füllwörter und Wiederholungen zu entfernen.

Rambler: Die Gemini-Intelligence-Funktion poliert Spracheingaben.
(Bild: Google)
Mit der neuen Funktion „Rambler“ (von englisch „Rambling“ – „abschweifende Sprechweise“) soll das Eingesprochene automatisch feingeschliffen werden: „Rambler erfasst die wichtigen Teile und fügt sie zu einer prägnanten Nachricht zusammen“, erklärt Google. Die Funktion zeigt Nutzern, wenn das Feature aktiviert ist; das Gesprochene werde nur zur Transkription in Echtzeit verwendet und nicht gespeichert.
Rambler erkenne zudem mehrere Sprachen gleichzeitig. Dies wird mithilfe des mehrsprachigen Modells von Gemini realisiert, sodass Rambler nahtlos zwischen Sprachen in einer einzigen Nachricht wechseln könne. „Ganz gleich, ob Sie Englisch mit Hindi oder einer anderen Kombination mischen – Rambler versteht den Kontext und die Nuancen und sorgt dafür, dass Ihre Nachricht genau so klingt wie Sie – nur noch ausgefeilter“, heißt es.
Formulare schneller ausfüllen
Neu oder verbessert ist die Funktion „Autofill with Google“: Mithilfe der vor einigen Monaten in einigen Ländern (nicht EU) eingeführten Gemini-Funktion „Personal Intelligence“ soll Android künftig noch mehr Textfelder in Apps und Chrome automatisch ausfüllen können. Erst im November letzten Jahres hatte Google eine Erweiterung der Autofill-Funktion für Chrome angekündigt.

Gemini Intelligence soll Autofill von Formularen verbessern.
(Bild: Google)
Laut Google sollen sich relevante Informationen aus verbundenen Apps nutzen lassen, um Nutzern das Ausfüllen von Formularen abzunehmen. Die Verbindung von Gemini mit „Autofill with Google“ ist rein freiwillig, das heißt, sie entscheiden, ob und wann sie die Verbindung zu Gemini herstellen möchten – und sie können diese Verbindung jederzeit in Ihren Einstellungen aktivieren oder deaktivieren.

Gemini Intelligence – Chrome wird smarter.
(Bild: Google)
In Chrome für Android ziehen zudem neue Gemini-Funktionen ein: Nutzer können damit etwa Inhalte im Internet recherchieren, zusammenfassen und vergleichen. Eine automatische Browsersuche in Chrome soll außerdem alltägliche Aufgaben übernehmen, „sei es die Terminvereinbarung oder die Reservierung eines Parkplatzes“, so das Unternehmen. Angesichts dessen, dass bisherige Gemini-Funktionen für Chrome hierzulande noch nicht angeboten werden, ist fraglich, ob es diese zeitnah nach Europa schaffen werden.
Sicherheit und Datenschutz
In einem weiteren Beitrag erklärt Google, dass man für Gemini Intelligence ein „Höchstmaß an Datenschutz“ gewährleiste, das auf drei Kernprinzipien basiere. So sollen Nutzer bei der Verwendung stets die volle Entscheidungsgewalt darüber behalten, wie und wann die KI agiert. Unter anderem seien Funktionen wie das automatisierte Ausfüllen von Formularen oder App-Automatisierungen strikt Opt-in. Nutzer können einzelne Komponenten jederzeit in den Einstellungen aktivieren oder deaktivieren. Ferner führt Gemini Aufgaben nur auf Anweisung bei freigegebenen Apps und erfordert eine Bestätigung vor Käufen. Ob Daten geteilt werden, entscheidet der Nutzer aktiv selbst.

Google verspricht für Gemini Intelligence Transparenz und Sicherheit.
(Bild: Google)
Zudem kommen Google zufolge Isolations-Technologien zum Einsatz: Für „proaktive“ Funktionen (wie das in Deutschland nicht verfügbare Magic Cue) kommen Technologien wie der „Private Compute Core, Private AI Compute und geschützte virtuelle Maschinen (KVM) zum Einsatz“, erklärt das Unternehmen. Ferner umfasse die Architektur Hardware-, Prozess- und Server-Isolation, um Datenlecks zu verhindern. Überdies werden Schutzmaßnahmen gegen moderne Angriffe wie Prompt Injection direkt in Android integriert, versichert Google.

Gemini Intelligence: Benachrichtigungen zu laufenden Automationen lassen sich nicht wegwischen.
(Bild: Google)
Weiter sollen Nutzer den Überblick behalten, während Gemini eine App-Schnittstelle automatisiert. Sie sollen mit der Funktion „View progress“ Aktionen live verfolgen können. Ein quittierbarer Benachrichtigungs-Verlauf zeigt an, wenn die KI im Hintergrund aktiv ist. Darüber hinaus zeigt das Android-Privacy-Dashboard künftig an, welche KI-Assistenten in den vergangenen 24 Stunden aktiv waren und welche Apps sie genutzt haben. Außerdem seien wichtige Teile der Sicherheitsarchitektur Open-Source und werden von Dritten auditiert, um die Sicherheitsversprechen unabhängig zu verifizieren.
Gemini Intelligence zieht mit Android 17 ein, das im Laufe des Juni freigegeben werden soll. Wann das große Update konkret erscheint, verrät Google noch nicht.
Lesen Sie auch
(afl)
Künstliche Intelligenz
Android 17 bringt AirDrop-Support für weitere Geräte und neue Funktionen
Android 17 ist im Grunde fertig, nun hat Google im Zuge der Android Show I/O Edition neben agentischen KI-Funktionen in Form von Gemini Intelligence weitere neue Funktionen angekündigt, die mit dem großen Update in das mobile Betriebssystem einziehen. Unter anderem landet AirDrop-Support über Quick-Share auf Geräten weiterer Hersteller, zudem kommen Kreative auf ihre Kosten.
Weiterlesen nach der Anzeige
AirDrop und WhatsApp-Support
Im November 2025 hatte Google überraschend die Möglichkeit angekündigt, Daten über Quick Share auf iPhones, Macs und iPads zu übertragen – auf der Apple-Seite kommt dafür der Systemdienst AirDrop zum Einsatz. Zuerst hatte Google die Funktion nur für seine Pixel-10-Serie freigeschaltet, mittlerweile bieten auch Samsung und Oppo AirDrop-Support für einige Geräte an.

Laut Google landet AirDrop-Support auf diesen Geräten.
(Bild: Google)
Im Zuge der Android Show sagte Google, dass jetzt auch weitere Unternehmen ihre Geräte mit AirDrop-Unterstützung ausstatten werden. Laut dem Unternehmen sollen Geräte von OnePlus, Vivo, Xiaomi und Honor im Laufe dieses Jahres die Funktion erhalten.
Falls man kein kompatibles Gerät besitze, könne man ab heute Quick Share auf jedem Android-Smartphone nutzen, um einen QR-Code zu generieren, mit dem man Inhalte sofort über die Cloud mit iOS-Geräten teilen könne. Überdies plane Google Quick Share auch für weitere Apps verfügbar zu machen, darunter WhatsApp.
Einfacherer Datenumzug zwischen Android und iOS
Weiterlesen nach der Anzeige
Überdies wird mit Android 17 der Übertragungsprozess von iOS auf Android vereinfacht. Man habe mit Apple zusammengearbeitet, damit Nutzerdaten bequemer von einem auf ein anderes Ökosystem geschaufelt werden können. Angekündigt hatten die beiden Unternehmen den Datenumzug schon Ende 2025; die EU begrüßte dies. Apple hatte den leichten Datenumzug schon mit iOS 26.3 umgesetzt.
Laut Google lassen sich so Passwörter, Fotos, Nachrichten, Lieblings-Apps, Kontakte und sogar die Anordnung des Startbildschirms drahtlos vom iPhone auf ein neues Android-Gerät übertragen. Dieser neue drahtlose Prozess, der auch die Übertragung von eSIMs unterstützt, soll noch in diesem Jahr zunächst auf Samsung-Galaxy- und Google-Pixel-Geräten eingeführt werden.
Weniger Doomscrolling
Google versucht mit der neuen System-Funktion „Pause Point“ Nutzer dazu zu bringen, ihre App-Nutzung zu hinterfragen. Die optionale Funktion gibt Nutzerinnen und Nutzern beim Öffnen einer „ablenkenden App“ eine 10-sekündige Atempause, in der sie sich fragen können: „Warum bin ich hier?“ Während dieser Pause könne man eine kurze Atemübung machen oder einen Timer stellen. Nutzer sollen sich ebenso Lieblingsfotos ansehen oder zu alternativen App-Vorschlägen wechseln können, „wie zum Beispiel einem Hörbuch“.

Pause Point: Google will Nutzer vom Doomscrolling abbringen.
(Bild: Google)
Nach der Aktivierung von Pause Point könne man die Funktion nicht einfach abschalten, sondern das Gerät müsse neu gestartet werden.
Tools für Kreative
Mit Android 17 will Google es Kreativen einfacher machen, Inhalte zu produzieren. So könne man künftig Reaktionsvideos erstellen, ohne zwischen Apps wechseln oder einen Greenscreen einrichten zu müssen. Hierfür führt Google „Screen Reactions“ ein. Damit könne man sich selbst und den Smartphonebildschirm gleichzeitig aufnehmen. Diese Funktion wird im Laufe dieses Sommers zunächst auf Pixel-Geräten verfügbar sein.

Android-Funktion Screen-Reactions für Kreative.
(Bild: Google)
Zudem habe Google sich mit Meta zusammengetan, um Fotos in höherer Qualität auf Instagram zu teilen. Künftig lassen sich Ultra-HDR-Inhalte aufnehmen und wiedergeben. Außerdem erhält die App eine integrierte Videostabilisierung für ruckelfreie Videos. Auch Aufnahmen bei Dunkelheit sollen durch die Integration von „Night Sight“ besser zur Geltung kommen.
Zudem habe man den „Prozess von der Aufnahme bis zum Hochladen komplett optimiert, um sicherzustellen, dass deine Fotos und Videos atemberaubend scharf bleiben, wenn du auf ‚Posten’ klickst,“ schreibt Google.
Auch die Edits-App habe Google mit Meta zusammen speziell für Android überarbeitet. In der App könne man Rohmaterial mithilfe von geräteinterner KI in Sekundenschnelle in professionell aufbereitete Inhalte verwandeln, verspricht Google. Zudem unterstützt Edits künftig Tontrennung: Die Edits-App „erkenne nun Audiospuren – Wind, Geräusche und Musik – und trennt sie voneinander, um die gewünschten Töne zu verstärken und unerwünschte zu entfernen“.
Instagram für Android-Tablets – offenbar nicht nur für Android 17
Auch an die Tablets haben Google und Meta gedacht: Denn Instagram ist nun vollständig für Android-Tablets optimiert, „und nutzt den Platz auf dem großen Bildschirm optimal aus“. Schon im September vergangenen Jahres hatte Instagram eine für iPads optimierte App veröffentlicht. Kreative erhalten außerdem Zugriff auf Adobe Premiere, die im Laufe des Sommers auf Android landen wird.

Instagram gibt es nun auch für Android-Tablets.
(Bild: Google)
Die Premiere-App liefere unter anderem „Zugang zu exklusiven Vorlagen und Effekten, um YouTube Shorts direkt in der App zu erstellen und zu veröffentlichen“, erklärt das Unternehmen. Zudem zieht das professionelle Videoformat APV (Advanced Professional Video) ein, das unter anderem eine höhere Speichereffizienz biete. Es wurde gemeinsam mit Samsung entwickelt und ist ab sofort auf dem Samsung Galaxy S26 Ultra und dem iVvo X300 Ultra verfügbar; Support für weitere Android-Topmodelle mit Snapdragon 8 Elite-Prozessoren sollen im Laufe dieses Jahres folgen.
Wann Google die fertige Version von Android 17 veröffentlicht, hat das Unternehmen noch nicht verraten. Android 16 erschien im vergangenen Jahr einige Wochen nach der Android Show I/O Edition 2025 Anfang Juni. Zu weiteren neuen Funktionen von Android 17 gehören unter anderem App-Bubbles, getrennte WLAN- und Mobilfunk-Kacheln in den Schnelleinstellungen und Schutz gegen Angriffe durch Quantencomputer.
(afl)
Künstliche Intelligenz
Android Auto: Mehr Gemini-KI und immersive Navigation kommen
Weiterlesen nach der Anzeige
Im Zuge der Android Show: I/O Edition hat Google viele Neuerungen rund um Android Auto und Android Automotive angekündigt. Nachdem Google im vergangenen Jahr den Wechsel vom Google Assistant zu Gemini verkündete, bringt das diesjährige Update erneut mehr KI ins Auto, allerdings hat Google noch mehr in petto.
Neuer Anstrich
Android Auto erhält in diesem Jahr zunächst den Material-3-Expressive-Anstrich, den Google mit Android 16 QPR1 auf Smartphones und Wear-OS-Uhren losgelassen hatte. Dazu gehören neue Schriftarten, flüssigere Animationen und neue Hintergrundbilder.

Android Auto erhält die Designsprache Material 3 Expressive.
(Bild: Google)
Zudem hat Google Android Auto so konzipiert, dass Nutzerinnen und Nutzer es stärker personalisieren können. Das Update bringt unter anderem Widgets und Google Maps im Vollbildmodus auf das Armaturenbrett. Überdies ist Android Auto endlich so flexibel anpassbar, dass es auf jeden Fahrzeugbildschirm passt – „egal ob es sich um ein ultrabreites Rechteck, einen Kreis oder eine Sonderform handelt“.

Android Auto passt sich nun an verschiedene Bildschirmformen an.
(Bild: Google)
Neu ist Google zufolge auch die Möglichkeit, Verknüpfungen zu den Lieblingskontakten, einen Garagentoröffner, eine Wetterübersicht und vieles mehr auf den Bildschirm zu bringen.
Weiterlesen nach der Anzeige

Android Auto: Das Update bringt immersive Navigation in Google Maps. Unklar ist, ob sie auch nach Deutschland kommt.
(Bild: Google)
Darüber hinaus hält die Anfang dieses Jahres angekündigte immersive Navigation für Google Maps Einzug ins Auto. Damit lässt sich Kartenmaterial mitsamt Gebäuden, Überführungen und Gelände in einer 3D-Ansicht anzeigen. Laut Google werden mit der Ansicht wichtige Details wie Fahrspuren, Ampeln und Stoppschilder hervorgehoben. Dies soll dabei helfen, einfacher durch schwierige Strecken zu navigieren.
Gemini Intelligence
Wie Google erklärt, ist der neue Assistent Gemini in Android Auto mittlerweile weit verbreitet. Künftig könne zudem der im Zuge der Android Show angekündigte proaktive Assistent Gemini Intelligence auch im Auto verwendet werden, sofern das Smartphone über diese Funktion verfüge.
So könne man etwa während der Fahrt das Abendessen bestellen, etwa mit DoorDash. Sage man etwa: „Bestelle meine üblichen Fisch-Tacos bei DoorDash zum Abholen, aber verdoppele die Bestellung“, könne die KI den Befehl ausführen. Der Nutzer muss die Bestellung abschließend bestätigen. Laut Google soll Gemini Intelligence auch in Deutschland verfügbar sein, einen konkreten Zeitraum hat das Unternehmen jedoch noch nicht genannt.
Entertainment
Auch im Entertainment-Bereich schickt Google neue Features ins Rennen: Bei Fahrzeugen mit entsprechender Ausstattung können Inhalte in Full-HD-Auflösung mit 60 fps wiedergegeben werden. Laut Google sind nicht näher spezifizierte Modelle von BMW, Ford, Genesis, Hyundai, Kia, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo dabei.
Zudem sollen Videos beim Beenden des Parkmodus zur Rückkehr in den Fahrmodus nicht einfach unterbrochen werden. Stattdessen wechseln sie künftig nahtlos in einen Audio-Modus – zumindest in Apps, die Hintergrundaudio unterstützen. Für Filme oder Serien sicher nicht sinnvoll, aber für Video-Podcasts. Des Weiteren erhält Android Auto Unterstützung für räumlichen Klang per Dolby Atmos in unterstützten Apps. Laut Unternehmen sind Fahrzeuge von BMW, Genesis, Mahindra, Mercedes-Benz, Renault, Škoda, Tata und Volvo an Bord.

Google verpasst Android Auto aktualisierte Mediaplayer.
(Bild: Google)
Zudem frischt Google die Medien-Apps wie YouTube Music und Spotify mit neuen Designs auf. Damit sollen sie im Auto benutzerfreundlicher sein.
Android Automotive mit Google-Diensten
Abseits der Android-Auto-Neuerungen ziehen auch in Googles Infotainment-System Android Automotive mit Google-Diensten einige der oben genannten Neuerungen ein. So bringt Google unter anderem die überarbeiteten Medien-Apps und den nahtlosen Übergang von Video zu Audio in Fahrzeuge mit Android Automotive. Zudem soll das Infotainment-System Zugriff auf Konferenz-Apps wie Zoom erhalten.

Gemini soll mit dem Android Automotive Update hilfreicher in Sachen Fahrzeugwissen werden.
(Bild: Google)
Google erklärt weiter, dass Apps wie Gemini und Maps in Fahrzeugen mit Google-Play-Integration noch besser funktionieren, da man eng mit den Autoherstellern zusammenarbeite. Damit sei eine tiefere Integration in die Hardware von Fahrzeugen möglich. Daher könne Gemini künftig etwa Fragen beantworten, „die speziell auf Ihr aktuelles Fahrzeug zugeschnitten sind – beispielsweise die Identifizierung einer mysteriösen Kontrollleuchte auf dem Armaturenbrett oder die Auskunft, ob der Fernseher, den Sie abholen möchten, in Ihren Kofferraum passt“.
Ferner soll die immersive Navigation in Google Maps in kompatiblen Fahrzeugen mithilfe der Live-Spurführung präziser sein. Diese funktioniere vollständig im Fahrzeug und analysiere die Straße über die Frontkamera des Fahrzeugs. Die Live-Spurführung erkenne überdies, auf welcher Spur man sich befinde, und könne in Echtzeit Hinweise geben, wann man die Spur wechseln oder abfahren müsse.
Die Updates für Android Auto und für Fahrzeuge mit integriertem Google-System (Android Automotive) sollen im Laufe dieses Jahres freigegeben werden.
(afl)
-
Künstliche Intelligenzvor 3 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Entwicklung & Codevor 2 MonatenCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenBlade‑Battery 2.0 und Flash-Charger: BYD beschleunigt Laden weiter
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Der beste Luftgütesensor im Test – CO₂, Schadstoffe & Schimmel im Blick
-
Social Mediavor 2 MonatenVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
-
Apps & Mobile Entwicklungvor 2 MonatenMähroboter ohne Begrenzungsdraht für Gärten mit bis zu 300 m²
-
Künstliche Intelligenzvor 2 MonateniPhone Fold Leak: Apple spart sich wohl iPad‑Multitasking
