Künstliche Intelligenz
Gemini 2.5 Flash-Lite ist das schnellste und kostengünstigste KI-Modell Googles
Mit Gemini 2.5 Flash und 2.5 Pro hat Google vor knapp einem Monat seine bislang leistungsfähigsten KI-Modelle vorgestellt. Diese sind laut Datenkonzern nun allgemein verfügbar, doch Google präsentiert jetzt eine weitere Variante dieser Dienste. Gemini 2.5 Flash-Lite ist das bislang schnellste und kosteneffizienteste KI-Modell Googles, sagt Google. Diese Version ist zunächst als Vorschau nutzbar.
Mitte Mai hatte der Datenkonzern auf der Google I/O neben einem KI-Abo für 250 US-Dollar und dem agentischem Gemini weitere Details zu Gemini 2.5 genannt. Gemini 2.5 Flash und 2.5 Pro sollen aufgrund ihrer Leistungsfähigkeit das Fundament legen für eine neue KI-Welt mit einem Weltmodell, das alles kann – wie ein echtes Gehirn. Kurz zuvor hatte Google bereits eine Vorab-Version von Gemini 2.5 Pro für Entwickler verfügbar gemacht.
Gemini 2.5 als Flash-Lite für Entwickler
Jetzt sind Gemini 2.5 Flash und 2.5 Pro als stabile Versionen allgemein verfügbar, sodass (auch vorsichtige) Entwickler diese KI-Modelle in ihre eigene Software nun zuversichtlich integrieren können, schreibt Google im eigenen Blog-Beitrag. Doch das ist dem Konzern offenbar nicht genug, denn gleichzeitig erweitert Google die Gemini-2.5-Modelle um eine neue Variante namens Gemini 2.5 Flash-Lite.
Eine solche Flash-Lite-Version gab es bereits beim KI-Vorgängermodell Gemini 2.0, aber Google hat bei Gemini 2.5 Flash-Lite nach eigenen Angaben die Qualität in vielen Bereichen wie Coding, Mathematik, Wissenschaft, Reasoning und multimodalen Benchmarks verbessert. Insbesondere sollen die Latenzzeiten bei einer Vielzahl von Anfragen reduziert worden sein gegenüber Gemini 2.0 Flash-Lite und 2.0 Flash. Dies sei wichtig bei etwa Übersetzungen und Klassifizierungen.
Schnell, kostengünstig und gut, sagt Google
Dabei besitzt die Vorab-Version von Gemini 2.5 Flash-Lite (gemini-2.5-flashlite-preview-06-17) dieselben Fähigkeiten, die Gemini 2.5 nützlich machen, heißt es seitens Google DeepMind. Dazu gehört die Möglichkeit des Reasonings, wenn das KI-Modell nicht nur Inhalte wiedergeben, sondern auch logisch verknüpfen kann. Zudem soll es möglich sein, KI-Denkprozesse bei unterschiedlichen Budgets zu aktivieren, um Gemini etwa mit der Google-Suche zu verknüpfen oder für Programmieraufgaben oder multimodale Eingaben zu nutzen.
Kosten und Benchmarks von Gemini 2.5 Flash-Lite
(Bild: Google)
Da die Kosten für die Nutzung von Gemini 2.5 Flash-Lite teilweise nur ein Drittel oder sogar lediglich einen Bruchteil der Preise für Gemini 2.5 Flash oder 2.5 Pro ausmachen, bezeichnet Google Gemini 2.5 Flash-Lite als das bislang kostengünstigste KI-Modell dieser Modellfamilie. Auch soll es das bislang schnellste Gemini-Modell sein, wobei die Qualität der Ergebnisse von 2.5 Flash-Lite nur wenig hinter den Vollpreismodellen zurückbleiben soll (siehe Tabelle oben).
Die Vorab-Version von Gemini 2.5 Flash-Lite steht Entwicklern ab sofort in Google AI Studio und Vertex AI zur Verfügung, neben den jetzt stabilen Gemini 2.5 Flash und 2.5 Pro. Letztere sind auch in der Gemini-App nutzbar. Daneben bietet Google speziell angepasste Versionen von Gemini 2.5 Flash-Lite und 2.5 Flash in der Google-Suche an.
Lesen Sie auch
(fds)