Künstliche Intelligenz
Genie 3, Superintelligenz und Weltmodell: Was hinter den KI-Buzzwords steckt
Deepminds Genie 3 ist ein neues KI-Modell, das interaktive 3D-Welten in Echtzeit generieren kann. Solche Weltmodelle sieht Deepmind als zentrale Bausteine bei der Entwicklung einer Superintelligenz. Aber was ist eigentlich ein „Weltmodell“ und was hat das mit fortgeschrittener Künstlicher Intelligenz zu tun?
Was ist ein Weltmodell für Deepmind?
Deepmind bezeichnet sein KI-Modell so, weil es nach den Anweisungen aus einem Prompt eine virtuelle Welt erzeugt – oder besser gesagt eine 3D-Szene, die einen Ausschnitt aus einer virtuellen Welt darstellt. Über Prompts kann ein User oder auch ein Software-Agent begrenzt mit dieser Welt interagieren. Sich also zum Beispiel darin bewegen oder einen Gegenstand greifen. Das Modell reagiert auf solche Prompts, indem es die damit modifizierte Welt darstellt.
Aber von KI-Forschenden und Robotikern wird der Begriff ganz anders verwendet.
Was ist ein Weltmodell in der KI-Forschung?
Weil nicht mal der Begriff „Intelligenz“ wirklich sauber definiert ist, gibt es natürlich auch kein einheitliches Verständnis davon, was eine „Superintelligenz“ ist. Viele Arbeitsdefinitionen gehen jedoch davon aus, dass eine KI aufgrund ihrer Fähigkeiten beurteilt werden sollte. Sobald sie also in der Lage ist, ähnliche Dinge wie ein Mensch zu tun, kann sie als intelligent angesehen werden. Solch eine „Allgemeine Künstliche Intelligenz“ (gebräuchlich ist der englische Ausdruck Artificial General Intelligence, AGI) gilt als erster Schritt hin zur Superintelligenz.
Einig sind sich die meisten Experten auch darin, dass KI-Modelle sich nur dann intelligent verhalten können, wenn sie ein abstraktes Verständnis der Welt entwickeln – ein Weltmodell. Das Weltmodell enthält verallgemeinertes, abstrahiertes Wissen über Gegenstände und Subjekte in der Welt, aber vor allem auch über Zusammenhänge zwischen ihnen.
Hat ChatGPT ein Weltmodell?
Die Antwort auf diese Frage ist umstritten. Es gibt interessante Indizien, die sowohl für als auch gegen das Vorhandensein von Weltmodellen in LLMs sprechen.
Auf den ersten Blick sind große Sprachmodelle nur statistische Maschinen, die das laut ihren Trainingsdaten wahrscheinlichste nächste Wort ausspucken – stochastische Papageien.
Auf der anderen Seite argumentieren Forschende, dass das Trainingsmaterial in der Regel bereits eine ganze Menge Weltwissen enthält, und das Modell dieses Weltwissen während des Trainings in komprimierter Form abspeichert. Und um das zu können, muss es abstrahieren.
Kenneth Li von Harvard University konnte 2023 zeigen, dass ein großes Sprachmodell nur durch Beispiele offenbar die Regeln des strategischen Brettspiels Othello lernen kann. Der Befund ist aber umstritten, weil die Messergebnisse nicht eindeutig sind.
Aktuell gibt es ein neues Othello-Paper – ein Test mit kleinen Sprachmodellen, die aufgrund ihrer Größe eigentlich das Spiel nicht abbilden können, aber trotzdem sinnvolle Züge finden. Die Forschenden werten das als Indiz dafür, dass die Modelle nur aus Beispielen die Regeln des Spiels gelernt haben. Sie hätten damit ein internes, kleines Weltmodell der Othello-Spielwelt erzeugt.
Forschende von Deepmind legten zudem ein ganz ähnliches Paper vor, in dem sie dem Modell Schach beibrachten – und zwar auf einem ziemlich hohen Niveau.
Anderseits testete die Komplexitätsforscherin Melanie Mitchell gemeinsam mit Kollegen bereits 2023 das Abstraktionsvermögen von GPT-4 anhand von grafischen – also nicht sprachlichen – Testaufgaben und stellte fest, dass die KI „kein Anzeichen von robustem Abstraktionsvermögen auf menschlichen Niveau“ zeigt. Ein Befund, der auch mit neueren Modellen und neuen Versionen des Tests noch gültig ist.
Was hat Genie 3 mit AGI zu tun?
Deepmind arbeitet schon lange daran, KIs intelligenter zu machen, indem sie selbstständig lernen, Probleme zu lösen: Die Software probiert zunächst wahllose Aktionen aus, um ein Problem zu lösen. Eine Feedback-Schleife sorgt jedoch dafür, dass erfolgreiche Aktionen belohnt werden. Das System probiert diese Aktionen also öfter und wird mit der Zeit immer besser. Dieser Ansatz wird Verstärkungslernen (Reinforcement Learning) genannt.
Im Prinzip sei dieses Meta-Learning „ein wesentlicher Schlüssel zur künstlichen allgemeinen Intelligenz“, sagte der KI-Forscher Matthew Botvinick 2018 – damals bei DeepMind. „Denn unsere Welt besitzt eine spezifische Eigenart: Wir erleben niemals dieselbe Situation zweimal, aber wir erleben auch niemals eine komplett neue Situation. Jedes intelligente System muss also die Fähigkeit besitzen, die Erfahrungen der Vergangenheit zu nutzen, um sie auf elegante und schnelle Weise auf neue Aufgaben zu übertragen.“
Die große Herausforderung bestünde nun allerdings darin, Systeme zu bauen, die immer abstraktere Konzepte entdecken können. Ein Schlüssel dafür, glaubt Botvinick, sei die richtige Umgebung, in der die KI-Systeme trainieren, leben und lernen können. Sie zu finden, sei eines der großen Ziele in der KI-Forschung. Genie 3 ist offenbar der Versuch, solch eine komplexe Umgebung zu erschaffen, um autonome KI-Agenten zu trainieren.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(wst)