Online Marketing & SEO
Per Sprache googeln: Googles neue Voice-Suche im Check
Der von The Verge dokumentierte Google-Test zeigt: Während der Unterhaltung blendet Google passende Links zum Thema ein. Diese machen die Ergebnisse greifbar und führen tiefer in die Recherche. Über einen Transkript-Button lassen sich zudem die Antworten als Textversion anzeigen.
Wie Google im eigenen Blog beschreibt, basiert Search Live auf einer speziell angepassten Version des Gemini-Modells. Dieses wurde gezielt für die Anforderungen der Sprachsuche optimiert und greift auf die Qualitäts- und Informationssysteme der klassischen Google-Suche zurück. Ergänzend setzt Google auf die sogenannte „Query Fan-out“-Technologie: Dabei wird eine Anfrage automatisch in mehrere Varianten aufgespalten, um breitere, vielfältigere und kontextuell relevantere Inhalte aus dem Web zusammenzuführen. So sollen Nutzer:innen in den Voice Chats nicht nur eine direkte Antwort erhalten, sondern ein facettenreicheres Bild des jeweiligen Themas – inklusive ergänzender Links zur weiteren Vertiefung.
Google vs. OpenAI: Wer macht bei KI-Sprachsuche künftig das Rennen?
Mit Search Live will Google in einem Bereich aufschließen, den OpenAI aktuell anführt. Bereits im Sommer 2024 brachte OpenAI den Advanced Voice Mode für ChatGPT auf den Markt – im Oktober 2024 wurde er auch in Deutschland ausgerollt. Inzwischen ermöglicht GPT-4o fließende Sprachinteraktion, emotionale Stimmlagen und multimodale Nutzung. Im Mai dieses Jahres zog Anthropic mit einer Voice-Funktion für Claude nach, während Apples geplante LLM Siri bislang noch auf sich warten lässt, so ein Bloomberg-Bericht.
Googles Search Live setzt zunächst auf reine Sprachdialoge. Doch der entscheidende Unterschied liegt in der Einbettung: Während ChatGPT und Claude als separate Apps laufen, dockt Search Live direkt in der mobilen Google-Suche an. Damit könnte Google Milliarden Nutzer:innen erreichen – ohne Hürde beim Interface oder bei der App-Installation.
Für Google geht es um mehr als reine Technologie: Wer langfristig in der Alltagssuche relevant bleiben will, muss auch bei Voice-first Interfaces überzeugende Lösungen bieten. Denn KI-Sprachmodelle beginnen, das Suchverhalten vieler Nutzer:innen schrittweise zu verändern – und könnten mittelfristig neue Erwartungen an Sucherlebnisse prägen.
Multimodalität in Sicht: Bald auch mit Kamera
Doch Google denkt schon weiter. In den kommenden Monaten soll Search Live um Kamerafunktionen erweitert werden. Nutzer:innen könnten dann zeigen, worüber sie sprechen – etwa Produkte oder Sehenswürdigkeiten.
Damit nähert sich das Feature an multimodale Systeme wie ChatGPT Vision oder Metas neue AI-Modelle an. Für Google selbst bleibt die Sprachsuche aber ein wichtiger Hebel, um die klassischen Sucherlebnisse fit für das KI-Zeitalter zu machen. Wer tiefer in die jüngsten Modell-Updates eintauchen will, findet bei uns Details zur Optimierung von Gemini 2.5.
Intelligenter denn je:
Google optimiert Gemini 2.5 Pro
Google macht bringt Voice-Optionen in die Suche– und das dürfte SEO und UX bald verändern
Mit Search Live zeigt Google, wie ein künftiges KI-first Interface in der mobilen Suche aussehen könnte. Die klassische Suchleiste verliert an Dominanz, Sprachdialoge und Echtzeitantworten treten in den Vordergrund.
Für Nutzer:innen wird die Schwelle zur KI-Interaktion niedriger. Für SEO und Content-Strategien heißt das: Wer gefunden werden will, muss künftig noch stärker auf prägnante, konversationsfähige Inhalte setzen.
Google selbst liefert mit Search Live einen Vorgeschmack – der zeigt: Die Zeiten rein textbasierter Suche gehen zu Ende.