Künstliche Intelligenz
KI-Update Deep-Dive: Der wahre Preis einer KI-Anfrage
Der Energiehunger von KI auf dem Prüfstand
Jede Anfrage an einen KI-Chatbot wie ChatGPT verbraucht Energie, oft deutlich mehr als eine herkömmliche Suchanfrage. Wie hoch dieser Verbrauch jedoch für eine konkrete Aufgabe ist, war bisher ein weitgehend unerforschtes Feld. Maximilian Dauner, Doktorand an der Technischen Universität München, hat sich in einer Studie mit genau diesem Thema auseinandergesetzt und den Energieverbrauch von generativer KI untersucht.
14 Large Language Models hat Dauner untersucht. Large Language Models, kurz LLMs, sind die Basistechnologie hinter bekannten KI-Werkzeugen. Getestet wurden nur Modelle, die frei verfügbar sind und auf dem lokalen Server der Universität Platz finden.
Den Modellen, etwa Llama von Meta und Qwen von Alibaba, wurden 500 identische Fragen aus fünf verschiedenen Themengebieten gestellt, darunter Mathematik, Philosophie und Weltgeschichte, um eine breite Vergleichbarkeit zu gewährleisten. „Die Verbrauchswerte konnten wir dann wirklich lokal messen und eben auch benutzen“, sagt der Doktorand.
Größe und Denkprozesse als Hauptfaktoren
Die Untersuchung zeigte, dass vor allem zwei Faktoren den Energieverbrauch und den damit verbundenen CO₂-Ausstoß bestimmen. „Da ist zum einen natürlich die Größe, das ist nicht wirklich eine Überraschung. Das heißt, je mehr Parameter, desto größer ist auch die CO₂-Freisetzung“, führt Dauner aus. Die getesteten Modelle reichten von 7 Milliarden bis 72 Milliarden Parametern – ein Maß für die Komplexität eines KI-Modells.
Ein noch größerer Faktor war jedoch das sogenannte „Reasoning“, also die Fähigkeit eines Modells, komplexe Probleme in Teilschritte zu zerlegen und quasi laut nachzudenken. „Man sieht, dass zum Beispiel für abstrakte Algebra und Fragen aus der Highschool-Mathematik dieses Reasoning sehr, sehr viele Schritte durchläuft, und dadurch ist eben auch die CO₂-Freisetzung beziehungsweise das CO₂-Äquivalent sehr, sehr hoch“, erklärt Dauner.
Die Spannbreite der Kosten war dabei enorm. Während kleinere Modelle für die Beantwortung von 500 Multiple-Choice-Fragen etwa 1,4 bis 8,7 Gramm CO₂ bedingten, verursachte ein auf „Reasoning“ spezialisiertes Modell wie DeepSeek für dieselben Aufgaben 717 Gramm. Dieser Sprung entstehe, sagt Dauner, weil das Modell für mathematische Fragen extrem viele Wörter zur Lösung des Problems generieren musste.
Die richtige KI für die richtige Frage
Die Ergebnisse legen nahe, dass nicht für jede Aufgabe das größte und leistungsstärkste Modell notwendig ist – das sagen auch die KI-Anbieter. Für einfache Faktenfragen sei die Leistung kleinerer Modelle oft ausreichend. „Wenn ich jetzt eine ganz simple Geschichtsfrage habe, dann reicht eben auch ein Modell mit vielleicht acht Milliarden Parametern“, meint Dauner.
Als Verbraucher hat man nicht immer direkten Einfluss auf die Modellauswahl der genutzten Dienste. Dennoch gibt es Möglichkeiten, den eigenen CO₂-Fußabdruck zu verringern. Dauner rät, Anweisungen an die KI kurz und klar zu formulieren. „Man weiß ja schon prinzipiell, dass die Antworten recht ausschweifend sind“, sagt er. Eine simple Anweisung wie „antworte in Stichpunkten, antworte in zwei Sätzen, halte dich kurz und präzise“ könne den Energieverbrauch bereits deutlich senken, da weniger Text generiert werden muss.
Wie intelligent ist Künstliche Intelligenz eigentlich? Welche Folgen hat generative KI für unsere Arbeit, unsere Freizeit und die Gesellschaft? Im „KI-Update“ von Heise bringen wir Euch gemeinsam mit The Decoder werktäglich Updates zu den wichtigsten KI-Entwicklungen. Freitags beleuchten wir mit Experten die unterschiedlichen Aspekte der KI-Revolution.
Transparenz als Schlüssel für die Zukunft
Die Studie hat allerdings auch ihre Grenzen. Die Ergebnisse hängen stark von der verwendeten Hardware und dem Energiemix des Standorts ab. „Das ist schon wirklich ein sehr limitierender Faktor dieser Studie, dass man es eben nicht generalisieren kann“, betont Dauner. Dies mache es auch schwierig, den exakten Verbrauch eines Dienstes wie ChatGPT zu beziffern.
Für die Zukunft hält der Forscher mehr Transparenz seitens der Anbieter für entscheidend – wie es auch im AI Act vorgesehen ist. Wenn Nutzerinnen und Nutzer eine Vorstellung von den anfallenden Kosten bekämen, könnte sich ihr Verhalten ändern, glaubt Dauner. „Dann wird sich vielleicht auch automatisch so ein Umdenken einstellen, dass User und Userinnen eben sagen, okay, ist es jetzt wirklich nötig, noch ein lustiges Bild zu generieren, oder dass wir uns hier Witze hin und her erzählen?“
(igr)