Künstliche Intelligenz
Genie 3, Superintelligenz und Weltmodell: Was hinter den KI-Buzzwords steckt
Deepminds Genie 3 ist ein neues KI-Modell, das interaktive 3D-Welten in Echtzeit generieren kann. Solche Weltmodelle sieht Deepmind als zentrale Bausteine bei der Entwicklung einer Superintelligenz. Aber was ist eigentlich ein „Weltmodell“ und was hat das mit fortgeschrittener Künstlicher Intelligenz zu tun?
Was ist ein Weltmodell für Deepmind?
Deepmind bezeichnet sein KI-Modell so, weil es nach den Anweisungen aus einem Prompt eine virtuelle Welt erzeugt – oder besser gesagt eine 3D-Szene, die einen Ausschnitt aus einer virtuellen Welt darstellt. Über Prompts kann ein User oder auch ein Software-Agent begrenzt mit dieser Welt interagieren. Sich also zum Beispiel darin bewegen oder einen Gegenstand greifen. Das Modell reagiert auf solche Prompts, indem es die damit modifizierte Welt darstellt.
Aber von KI-Forschenden und Robotikern wird der Begriff ganz anders verwendet.
Was ist ein Weltmodell in der KI-Forschung?
Weil nicht mal der Begriff „Intelligenz“ wirklich sauber definiert ist, gibt es natürlich auch kein einheitliches Verständnis davon, was eine „Superintelligenz“ ist. Viele Arbeitsdefinitionen gehen jedoch davon aus, dass eine KI aufgrund ihrer Fähigkeiten beurteilt werden sollte. Sobald sie also in der Lage ist, ähnliche Dinge wie ein Mensch zu tun, kann sie als intelligent angesehen werden. Solch eine „Allgemeine Künstliche Intelligenz“ (gebräuchlich ist der englische Ausdruck Artificial General Intelligence, AGI) gilt als erster Schritt hin zur Superintelligenz.
Einig sind sich die meisten Experten auch darin, dass KI-Modelle sich nur dann intelligent verhalten können, wenn sie ein abstraktes Verständnis der Welt entwickeln – ein Weltmodell. Das Weltmodell enthält verallgemeinertes, abstrahiertes Wissen über Gegenstände und Subjekte in der Welt, aber vor allem auch über Zusammenhänge zwischen ihnen.
Hat ChatGPT ein Weltmodell?
Die Antwort auf diese Frage ist umstritten. Es gibt interessante Indizien, die sowohl für als auch gegen das Vorhandensein von Weltmodellen in LLMs sprechen.
Auf den ersten Blick sind große Sprachmodelle nur statistische Maschinen, die das laut ihren Trainingsdaten wahrscheinlichste nächste Wort ausspucken – stochastische Papageien.
Auf der anderen Seite argumentieren Forschende, dass das Trainingsmaterial in der Regel bereits eine ganze Menge Weltwissen enthält, und das Modell dieses Weltwissen während des Trainings in komprimierter Form abspeichert. Und um das zu können, muss es abstrahieren.
Kenneth Li von Harvard University konnte 2023 zeigen, dass ein großes Sprachmodell nur durch Beispiele offenbar die Regeln des strategischen Brettspiels Othello lernen kann. Der Befund ist aber umstritten, weil die Messergebnisse nicht eindeutig sind.
Aktuell gibt es ein neues Othello-Paper – ein Test mit kleinen Sprachmodellen, die aufgrund ihrer Größe eigentlich das Spiel nicht abbilden können, aber trotzdem sinnvolle Züge finden. Die Forschenden werten das als Indiz dafür, dass die Modelle nur aus Beispielen die Regeln des Spiels gelernt haben. Sie hätten damit ein internes, kleines Weltmodell der Othello-Spielwelt erzeugt.
Forschende von Deepmind legten zudem ein ganz ähnliches Paper vor, in dem sie dem Modell Schach beibrachten – und zwar auf einem ziemlich hohen Niveau.
Anderseits testete die Komplexitätsforscherin Melanie Mitchell gemeinsam mit Kollegen bereits 2023 das Abstraktionsvermögen von GPT-4 anhand von grafischen – also nicht sprachlichen – Testaufgaben und stellte fest, dass die KI „kein Anzeichen von robustem Abstraktionsvermögen auf menschlichen Niveau“ zeigt. Ein Befund, der auch mit neueren Modellen und neuen Versionen des Tests noch gültig ist.
Was hat Genie 3 mit AGI zu tun?
Deepmind arbeitet schon lange daran, KIs intelligenter zu machen, indem sie selbstständig lernen, Probleme zu lösen: Die Software probiert zunächst wahllose Aktionen aus, um ein Problem zu lösen. Eine Feedback-Schleife sorgt jedoch dafür, dass erfolgreiche Aktionen belohnt werden. Das System probiert diese Aktionen also öfter und wird mit der Zeit immer besser. Dieser Ansatz wird Verstärkungslernen (Reinforcement Learning) genannt.
Im Prinzip sei dieses Meta-Learning „ein wesentlicher Schlüssel zur künstlichen allgemeinen Intelligenz“, sagte der KI-Forscher Matthew Botvinick 2018 – damals bei DeepMind. „Denn unsere Welt besitzt eine spezifische Eigenart: Wir erleben niemals dieselbe Situation zweimal, aber wir erleben auch niemals eine komplett neue Situation. Jedes intelligente System muss also die Fähigkeit besitzen, die Erfahrungen der Vergangenheit zu nutzen, um sie auf elegante und schnelle Weise auf neue Aufgaben zu übertragen.“
Die große Herausforderung bestünde nun allerdings darin, Systeme zu bauen, die immer abstraktere Konzepte entdecken können. Ein Schlüssel dafür, glaubt Botvinick, sei die richtige Umgebung, in der die KI-Systeme trainieren, leben und lernen können. Sie zu finden, sei eines der großen Ziele in der KI-Forschung. Genie 3 ist offenbar der Versuch, solch eine komplexe Umgebung zu erschaffen, um autonome KI-Agenten zu trainieren.
Dieser Beitrag ist zuerst auf t3n.de erschienen.
(wst)
Künstliche Intelligenz
Forschungspreis „Wissen der Vielen“ würdigt wissenschaftliche Leistungen
Der 2023 ins Leben gerufene „Wissen der Vielen – Forschungspreis für Citizen Science“ zeichnet herausragende wissenschaftliche Beiträge von Projekten im Bereich Bürgerwissenschaften (Citizen Science) mit Preisgeldern von insgesamt 35.000 Euro aus. Er fördert die Anerkennung von Citizen Science in der Forschung und motiviert Bürgerinnen und Bürger, sich aktiv an wissenschaftlichen Projekten zu beteiligen.
Bei Citizen Science kann jeder Mensch mitmachen. Weltweit laden zahlreiche Projekte aus verschiedenen Lebensbereichen zum Mitforschen ein, viele davon kommen aus Deutschland, Österreich und der Schweiz. Jeder kann dabei aktiv an wissenschaftlichen Projekten teilnehmen.
Die besten drei Projekte 2025
Drei zukunftsweisende Projekte gewinnen 2025 den Forschungspreis „Wissen der Vielen“: Ein Team untersucht Birken als Habitat für Baumpilze, ein anderes entwickelt 3D-gedruckte Prothesen für Kinder, und ein drittes schafft eine Plattform für den Austausch zwischen Forschern und DIY-Wissenschaftlern. Die Preisträger erhalten zusammen 35.000 Euro für ihre erstklassigen Arbeiten, die durch Citizen Science – also Wissenschaft mit Bürgerbeteiligung – entstanden sind. Wissenschaft im Dialog und das Museum für Naturkunde Berlin verleihen die Preise im Rahmen des Projekts „mit:forschen!“ zum dritten Mal.
1. Platz
Dr. Dirk Knoche vom Forschungsinstitut für Bergbaufolgelandschaften e.V. in Finsterwalde (Brandenburg) landete auf dem 1. Platz (Preisgeld: 20.000 Euro) für die Publikation „Gemeinsam die Birke erforschen: Bürgerforschung zum Waldwandel: Wasserhaushalt, Biodiversität & Klimawirksamkeit“. Im Projekt „PlanBirke plus C“ sammelten Citizen Scientists eigenständig Messdaten oder nahmen an Bürgerlabor-Tagen im Wald teil. So verglichen Forscher erstmals den Wasserhaushalt verschiedener Birkenmischwälder in Mitteleuropa. Zudem erfassten sie umfassende Daten zur Kohlenstoffspeicherung – vom Stamm bis zu den Blättern. Ein weiteres zentrales Ergebnis: Die Birke bietet gefährdeten Baumpilzarten in Deutschland einen wichtigen Lebensraum.
2. Platz
Diplom-Wirtschaftsinformatiker Sven Bittenbinder nahm den mit 10.000 Euro dotierten Preis für den zweiten Platz für sein Team mit der Publikation „Research Buddy – From a Framework for Overcoming Language Barriers to the Development of a Qualitative Citizen Science Platform“ entgegen. Die Forschungsarbeit aus der Mensch-Computer-Interaktion zeigt, wie Studierende, Senioren und Forscher gemeinsam technische Anforderungen für eine Citizen-Science-Plattform erarbeiten. Ihr Ergebnis: ein Prototyp einer kollaborativ entwickelten Plattform, die Forschern und Bürgern ermöglicht, Projektideen auszutauschen oder Mitforschende zu finden.
3. Platz
Dr. Melike Şahinol, Soziologin, sicherte sich und dem Team den mit 5000 Euro dotierten dritten Platz mit der Publikation „3D-gedruckte Kinderprothesen als befähigende Technologie? Erfahrungen von Kindern mit Oberkörperunterschieden“. Sie zeigt, wie partizipative Ansätze vulnerable Gruppen erfolgreich in die Technikentwicklung einbinden. Im Fokus steht die Frage, ob 3D-gedruckte Prothesen Kindern neue Handlungsmöglichkeiten eröffnen. Dafür arbeitete Şahinol mit Familien, Kindern und Ehrenamtlichen zusammen. Mit einem eigens entwickelten Erkundungs-Toolkit dokumentierten die Kinder ihre körperlichen, emotionalen und sozialen Erfahrungen mit den Prothesen. Die Ergebnisse zeigen, dass die Prothesen die Identität und soziale Teilhabe der Kinder stärken, aber auch Herausforderungen bei der Nutzung aufzeigen.
Die Preisverleihung findet am 12. November während der Konferenz PartWiss in Leipzig statt. Die Preise sollen die Bürgerwissenschaft würdigen und DIY-Enthusiasten motivieren, aktiv an Forschungsprojekten teilzunehmen. Das Bundesministerium für Forschung, Technologie und Raumfahrt unterstützt die Initiative. Weitere Details, auch zu vergangenen Wettbewerben, bietet die Veranstaltungswebseite.
(usz)
Künstliche Intelligenz
Kurz erklärt: Confidential Computing und wie es funktioniert
Die Sicherheitsarchitekturen heutiger IT-Systeme basieren auf einem fundamentalen Vertrauensmodell: Verschlüsselt sind Daten immer dann, wenn sie gespeichert oder übertragen werden – „Data at Rest“ und „Data in Transit“. Während der Verarbeitung liegen sie aber unverschlüsselt im Arbeitsspeicher vor, wo sie ausgelesen werden können – Angreifer bewerkstelligen das zum Beispiel über Seitenkanalattacken.
Confidential Computing schließt diese Lücke mit einer hardwarebasierten Ausführungsumgebung (Trusted Execution Environment, TEE). Sie soll die Daten auch während der Ausführung (Data in Use) vor unbefugtem Zugriff schützen. Das ist insbesondere dann relevant, wenn Cloud-Computing im Spiel ist und es dadurch notwendig wird, dem Cloud-Anbieter zu vertrauen, dass keine sensiblen Daten abfließen.
- Ein Confidential-Computing-fähiger Prozessor kann geschützte Ausführungsumgebungen – Enklaven – erstellen, um den Zugriff auf Daten während ihrer Verarbeitung zu unterbinden.
- Enklaven können weder durch Software- noch durch Hardware-Debugger analysiert werden. Nur der in der Enklave vorhandene Code kann mit den Daten darin interagieren. Zur Verschlüsselung dienen Schlüssel, die direkt in die CPU-Hardware geschrieben sind.
- Enklaven verfügen über Einschränkungen, sowohl in der Funktion als auch in der Performance. Einschlägige SDKs und Frameworks wie SCONE dienen dazu, Software für die entsprechenden Anforderungen aufzubereiten.
Dafür braucht es bestimmte CPUs mit Confidential-Computing-Fähigkeiten. 2015 implementierte Intel die Funktion unter dem Namen SGX (Software Guard Extension) als erster Hersteller in seinen x86-Skylake-Prozessoren. Mittlerweile haben auch andere Hersteller vergleichbare Ansätze – ARM mit TrustZone und AMD mit Secure Processor.
Das war die Leseprobe unseres heise-Plus-Artikels „Kurz erklärt: Confidential Computing und wie es funktioniert“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
TSMC widerspricht Intel-Gerüchten | heise online
Der weltweit größte Chipauftragsfertiger TSMC plant weiterhin keine Partnerschaft mit Intel. Das machte TSMC ein weiteres Mal gegenüber taiwanischen Medien wie Taipei Times klar. Zuvor hatte das Wall Street Journal berichtet, dass Intel wegen möglicher Investitionen auf TSMC zugegangen sei.
TSMC hat laut eigenen Aussagen niemals Gespräche mit einem anderen Unternehmen über Investitionen oder die Gründung einer gemeinsamen Tochterfirma (Joint Venture) geführt – abseits der bestehenden Joint Ventures in Japan (JASM) und Deutschland (ESMC). Auch soll es keine Gespräche über die Vergabe von Lizenzen oder den Transfer von Technologien gegeben haben.
Dementis häufen sich
Gerüchte und Spekulationen über einen TSMC-Einstieg bei Intel halten sich hartnäckig. Zum Jahresanfang erschienen Berichte, wonach sich die US-Regierung verschiedene Kooperationsmodelle gewünscht hätte. Die Spekulationen gingen so weit, dass TSMC den Betrieb von Intels Halbleiterwerken zur Chipproduktion hätte übernehmen können. Im April folgten Gerüchte über ein Joint Venture. TSMC widersprach stets.
Ausgangslage ist Intels wirtschaftlich schlechte Lage. Insbesondere die Halbleiterwerke machen momentan jedes Quartal Verlust in Milliardenhöhe. Aktuell sucht Intel nach Großinvestoren, um sich mehr Zeit zur Rückkehr in die grünen Zahlen zu verschaffen. Erst sollte die Fertigungsgeneration 18A neue Chipkunden anlocken, inzwischen vertröstet Intel auf den Nachfolger 14A fürs Jahr 2027.
Die US-Regierung ist mit einem Anteil von 9,9 Prozent bei Intel eingestiegen. Dafür hat sie zusätzlich zu vorherigen Subventionen 5,7 Milliarden US-Dollar gezahlt. Der japanische Investor Softbank steigt mit zwei Milliarden Dollar ein. Zudem kommt eine Milliarde durch den Teilverkauf der Automotive-Sparte Mobileye rein, weitere 4,5 Milliarden folgen durch den anstehenden Teilverkauf des FPGA-Designers Altera.
Intels Aktie profitiert derweil deutlich von Investitionsgerüchten. Insbesondere Meldungen über einen Apple-Stieg ließen das Wertpapier kürzlich hochschießen. Seit TSMCs Stellungnahme sank der Wert moderat um etwa zwei Prozent.
(mma)
-
UX/UI & Webdesignvor 1 Monat
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 1 Monat
Adobe Firefly Boards › PAGE online
-
Social Mediavor 1 Monat
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 1 Monat
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 4 Wochen
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 2 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Digital Business & Startupsvor 3 Monaten
10.000 Euro Tickets? Kann man machen – aber nur mit diesem Trick
-
Apps & Mobile Entwicklungvor 2 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen