Künstliche Intelligenz
Künstliche Intelligenz: Auf der Suche nach dem Einstein-Modell
Es ist das ewige Versprechen der Branche und das Feigenblatt, um bis dahin das Verbrennen von Milliarden Dollar und Unmengen an Energie zu rechtfertigen: die Suche nach der AGI. Die Artificial General Intelligence (Künstliche allgemeine Intelligenz) gilt als heiliger Gral der KI-Forscher. Wenn die Software lernt, ohne menschliche Hilfe zu lernen, sollen undenkbare Fortschritte möglich sein. Manch einer hat auch Angst, dass sich die KI dann gegen den Menschen wendet. Aber in zunehmendem Maße halten Menschen diese Zukunftsvision für eine Fata Morgana und den Weg dorthin noch für sehr weit.
Weiterlesen nach der Anzeige
Demis Hassabis, Chef von Googles KI-Sparte DeepMind, hält die AGI für erreichbar. Aber erst in fünf bis zehn Jahren. In einem Interview mit Alex Kantrowitz von Big Technology ließ er kein gutes Haar an seinem Mitbewerber OpenAI und dessen Chef Sam Altman. Man dürfe AGI nicht als Marketingbegriff verwenden, mahnt er. Die allgemeine künstliche Intelligenz sei ein System, das alle kognitiven Fähigkeiten zeigen kann, die Menschen haben, sagt er: „Und ich meine alle.“
Was die AGI können muss
Aber wo ist der Nutzen für die Menschheit? Den würde diese Form von KI erst haben, wenn sie der Menschheit zu neuen Durchbrüchen verhilft, erklärt Hassabis. Es sei nicht damit getan, eine mathematische Gleichung oder eine Vermutung zu lösen. Bahnbrechende Vermutungen sind gefragt, ein neuer Einstein. Oder im künstlerischen Bereich ein Picasso oder ein Mozart. Und zwar mit Fähigkeiten und einer Schlagzahl, wie sie bei Menschen kaum oder gar nicht möglich wäre.
Und obwohl er die Ansicht vertritt, dass die Fähigkeiten heutiger KI-Modelle noch gar nicht alle erkannt und ausgeschöpft sind, zeigt sich Hassabis überzeugt, dass diese noch weit von einer AGI entfernt sind. Heutige KI habe ein „Goldfischgehirn“. Sie kann das Internet durchsuchen, aber dieses Wissen ändere das Modell nicht und sei nach der Sitzung wieder vergessen. Eine Superintelligenz würde sogar noch weitergehen, sie könnte andere Systeme wie Wettersatelliten integrieren oder in 14 Dimensionen denken – Dinge, zu denen kein Mensch fähig wäre.
Mehrere Durchbrüche nötig
Weiterlesen nach der Anzeige
KI brauche auf dem Weg zur AGI noch mehrere Durchbrüche: Neben kontinuierlichem Lernen seien das effizientere Kontextfenster und langfristige Planung. Während das menschliche Gehirn mit selektiver Aufmerksamkeit nur das Wichtige verarbeitet, behandelt KI alle Informationen im Kontext gleich. Dies ist ineffizient und teuer.
In dem Bühnengespräch in Davos ging Hassabis auch auf die Frage ein, ob Google wie OpenAI plane, in seinem Chatbot Werbung zu integrieren. Viel Lob verteilte Hassabis für Start-up Anthropic, in das Google bereits Milliarden Dollar investiert hat. Deren Entwicklungs-Tool Claude Code sei sehr gelungen. Google selbst will die Fähigkeiten seines KI-Modells Gemini mit der neu veröffentlichten IDE Antigravity besser zur Geltung bringen.
Googles Smart-Glass-Pläne
Konkret äußerte sich Hassabis zu Smart Glasses: Google arbeitet mit Partnern wie Warby Parker, Gentle Monster und Samsung an einer neuen Generation KI-gestützter Brillen, die „vielleicht bis zum Sommer“ auf den Markt kommen sollen. Anders als beim gescheiterten Google Glass vor gut zehn Jahren seien nun sowohl die Form ausgereift als auch – entscheidend – die „Killer-App“ vorhanden: ein universeller digitaler Assistent, der freihändig im Alltag hilft. Hassabis selbst arbeitet persönlich an dem Projekt mit.
(mki)
Künstliche Intelligenz
Schwarz-Gruppe sichert sich mehr Macht bei Aleph Alpha
Die Schwarz-Gruppe möchte ihre Anteile am deutschen KI-Startup Aleph Alpha weiter ausbauen. Dafür will man die bisher vom Wagniskapitalgeber Bosch Ventures gehaltenen Anteile übernehmen, teilte die Unternehmensgruppe mit. Finanzielle Details zu dem Deal nannte die hinter den Discountern Lidl und Kaufland stehende Schwarz-Gruppe nicht. Die Erweiterung der Beteiligung stehe noch unter dem Vorbehalt behördlicher Genehmigungen.
Weiterlesen nach der Anzeige
Mit dem Investment wolle man seine Position als langfristiger, verlässlicher Ankerinvestor weiter ausbauen, heißt es in der Pressemitteilung. Die Schwarz-Gruppe und Bosch Ventures waren Ende 2023 bei einer Serie-B-Finanzierungsrunde eingestiegen, bei der Aleph Alpha eine halbe Milliarde US-Dollar einsammeln konnte.
Schwarz-Gruppe hält jetzt 20 Prozent
Laut einem Bericht der Wirtschaftswoche hielt die Schwarz-Gruppe Mitte Januar knapp 14 Prozent, Bosch gehörten rund sechs Prozent. Mit dem Zukauf sichert sich der Handelskonzern weitere Stimmrechte und stärkt seinen Einfluss auf Aleph Alpha. Beide Firmen hatten laut Wirtschaftswoche bei ihrem Einstieg Sonderrechte erhalten, die ihnen ein Vetorecht bei bestimmten Themen geben. Dass die Schwarz-Gruppe ihre Machtposition bei Aleph Alpha weiter ausbaut, erwarten Brancheninsider bereits seit Längerem.
Aleph Alpha war als große deutsche KI-Hoffnung angetreten, konnte die Erwartungen angesichts übermächtiger US-Konkurrenz aber nicht erfüllen und hat sich inzwischen vor allem als KI-Dienstleister für die öffentliche Hand positioniert. Gründer Jonas Andrulis trat im Oktober als Geschäftsführer ab und wird übereinstimmenden Berichten auch nicht den ihm zugedachten Vorsitzposten im sogenannten Advisory Board antreten. „Es tut weh, die Firma hinter mir zu lassen, nachdem ich sechs Jahre lang so intensiv mit ihr verwachsen war“, sagte Andrulis der Neuen Zürcher Zeitung. Er hatte das Unternehmen 2019 mit der Mission gegründet, Europa in der KI-Entwicklung unabhängig zu machen. Mit 28 Prozent bleibt er aber größter Anteilseigner.
Entlassungen bei Aleph Alpha
Aleph Alpha wird inzwischen von einer Doppelspitze geführt. Die besteht aus dem früheren Schwarz-Manager Reto Spörri und dem ehemaligen Accenture-Mann Ilhan Scheer. Die neue Spitze hat einem Bericht des Handelsblatts zufolge auch bereits mit einer Umstrukturierung begonnen – und will Stellen abbauen. Etwa 50 Arbeitsplätze sollen betroffen sein. Insider sprachen gegenüber dem Handelsblatt von einem radikalen Umbau, der Aleph Alpha stärker auf bestimmte Kernbereiche fokussieren solle.
„Wir brauchen starke deutsche KI-Player, sonst riskieren wir unsere wirtschaftliche Kraft und damit unseren Wohlstand“, sagte Rolf Schumann, Co-CEO von Schwarz Digits, der Digitalsparte der Schwarz-Gruppe. „Deshalb müssen wir vielversprechende Unternehmen mit Aufträgen und Investitionen unterstützen.“ Die Unternehmen der Schwarz-Gruppe setzen die Aleph-Alpha-Technologie eigenen Angaben nach etwa bei der Vertragserstellung, beim Screening von Gesetzestexten und zum Vergleich von Vertragsunterlagen ein. Außerdem arbeiteten sie daran, Arbeitsabläufe durch KI-Agenten zu automatisieren.
Weiterlesen nach der Anzeige
(axk)
Künstliche Intelligenz
Meta Ray-Ban Display im Test: Smartglasses mit Mini-Anzeige und Gestensteuerung
Mit der „Meta Ray-Ban Display“ möchte Meta ins Blickfeld seiner Nutzer: Wer sich die smarte Brille aufsetzt, sieht Textnachrichten, KI-Antworten und Videocalls vom gekoppelten Smartphone direkt auf einem kleinen, transparenten Display. Die smarte Brille ist am 30. September 2025 für 800 Dollar (zzgl. Steuern) auf den Markt gekommen – vorerst nur in den USA. Auf Wunsch zeigt sie sogar eine Minikarte der Umgebung an, fast wie in einem Videospiel. Wenn man das neuronale Armband umlegt und mit feinen Fingergesten durchs Menü navigiert, fühlt man sich wie in einem Science-Fiction-Film. Schließlich handelt es sich nicht nur um eine smarte Brille mit Display. Sie bringt auch ein neuartiges Steuerungskonzept mit.
Offiziell ist die Meta Ray-Ban Display derzeit nur in den USA erhältlich. Wer nicht auf einen Deutschlandstart warten möchte, kann auf einen kostenpflichtigen Import-Service wie BigAppleBuddy zurückgreifen. Sofern die passenden Größen verfügbar sind, sendet das Unternehmen die Ware gegen einen Aufpreis auch nach Deutschland.
Die Kontakte des Armbands messen die elektrische Muskelaktivität am Handgelenk. Diese sogenannte Elektromyografie (sEMG) erfasst auch leichte Fingerbewegungen. Es gibt allerdings gewaltige Nachteile an Metas neuen Smartglasses. Die Brille hat – anders als etwa die Rokid Glasses – statt zwei Displays nur ein einzelnes, also monokulares Display vor dem rechten Auge. Dieses sitzt nicht mittig, sondern rechts unten und hat ein winziges diagonales Sichtfeld von lediglich 20 Grad. Zum Vergleich: VR-Brillen bieten meist über 100 Grad. Da man trotzdem einiges direkt im Blick hat, muss man im hektischen Alltag seltener das Smartphone aus der Tasche ziehen, so das Versprechen. Auch Fotos und Videos lassen sich ohne ein Handy aufnehmen, ähnlich wie bei den Vorgängermodellen Ray-Ban Meta und Oakley Meta.
- Die Meta Ray-Ban Display bringt Nachrichten, KI und Menüs direkt ins Blickfeld, allerdings nur auf einem Auge.
- Die Bedienung läuft nicht nur per Sprache oder Touch ab, sondern alternativ auch über ein neuartiges Armband mit Fingergesten.
- Wie sich das in der Praxis anfühlt, erklärt unser ausführlicher Test.
Manche Features, wie die Navigation für Fußgänger, funktionieren zudem nur in ausgewählten Großstädten wie London, Paris oder New York. Ob oder wann das Gerät nach Deutschland kommt, ist unklar. Wir haben uns ein Exemplar vom XR-Experten und -Entwickler Christian Steiner ausgeliehen. Er hat uns sein importiertes Gerät für die Dauer des Tests freundlicherweise zur Verfügung gestellt und in einem Interview einige seiner Erfahrungen beigesteuert. In diesem Artikel überprüfen wir, ob es sich beim Meta Ray-Ban Display um ein alltagstaugliches Gerät handelt oder nur um ein teures, klobig designtes Gimmick mit Beschränkung auf Meta-Dienste. Datenschutzbewussten Nutzern dürfte dabei bereits sauer aufstoßen, dass sie für die Verknüpfung mit anderen Apps oder für Early-Access-Apps zusätzliche Daten teilen müssen.
Das war die Leseprobe unseres heise-Plus-Artikels “ Meta Ray-Ban Display im Test: Smartglasses mit Mini-Anzeige und Gestensteuerung“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
KI-Slop: Regisseur Darren Aronofsky startet Clip-Serie „On This Day… 1776“
Der Regisseur Darren Aronofsky (Mother!, Caught Stealing) hat eine Reihe KI-generierter Kurzclips zur US-Unabhängigkeitsbewegung veröffentlicht. Die Serie „On This Day… 1776“ erscheint seit Ende Januar auf dem YouTube-Kanal von Time Studios und besteht aus drei bis fünf Minuten langen Episoden, die jeweils einzelne Ereignisse aus dem Revolutionsjahr 1776 nachzeichnen sollen.
Weiterlesen nach der Anzeige
Das Projekt wird von Aronofskys Firma Primordial Soup produziert. Die Bilder sind vollständig KI-generiert, unter Einsatz mehrerer KI-Tools, etwa von Google DeepMind. YouTube kennzeichnet die Videos knapp als „veränderte oder synthetische Inhalte“. Die Sprecherstimmen stammen dagegen von realen, SAG-AFTRA-organisierten Synchronsprechern – eine Reaktion auf die im vergangenen Jahr ausgehandelten KI-Regelungen der Gewerkschaft.
Inhaltlich zeigen die Clips lose aneinandergereihte, teils fotorealistische Szenen zur Revolution. Die Bilder wirken durchaus fotorealistisch, aber generisch. Kameraeinstellungen und Schnitt machen einen wirren Eindruck. Eine zusammenhängende Erzählung oder erkennbare Dramaturgie fehlen. Entsprechend kritisch fallen viele Reaktionen in den Kommentaren aus, in denen Nutzer die Videos als typischen KI-Slop bezeichnen.
Finanziell unterstützt wird das Projekt unter anderem vom Softwarekonzern Salesforce. Aronofsky versteht die Serie als Experiment, wie sich KI künftig in der Filmproduktion einsetzen lässt – und wie das Publikum auf solche Formate reagiert.
(hag)
-
Entwicklung & Codevor 3 MonatenKommandozeile adé: Praktische, grafische Git-Verwaltung für den Mac
-
Künstliche Intelligenzvor 1 MonatSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Apps & Mobile Entwicklungvor 2 MonatenHuawei Mate 80 Pro Max: Tandem-OLED mit 8.000 cd/m² für das Flaggschiff-Smartphone
-
Apps & Mobile Entwicklungvor 2 MonatenFast 5 GB pro mm²: Sandisk und Kioxia kommen mit höchster Bitdichte zum ISSCC
-
Entwicklung & Codevor 2 MonatenKommentar: Anthropic verschenkt MCP – mit fragwürdigen Hintertüren
-
Social Mediavor 2 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
Datenschutz & Sicherheitvor 2 MonatenSyncthing‑Fork unter fremder Kontrolle? Community schluckt das nicht
-
Künstliche Intelligenzvor 3 MonatenWeiter billig Tanken und Heizen: Koalition will CO₂-Preis für 2027 nicht erhöhen
