Connect with us

Künstliche Intelligenz

VW-Partner Rivian erhält zweite Milliarden-Spritze


Volkswagen stockt die Beteiligung an seinem US-Partner Rivian auf. Nachdem der Tesla-Herausforderer Anfang Mai die Voraussetzungen erfüllt hatte, wird an diesem Montag nun eine zweite Zahlung in Höhe von einer Milliarde US-Dollar (ca. 850 Millionen Euro) fällig, mit der sich VW an Rivian beteiligt. Bereits im vergangenen Jahr war VW dort mit einer Milliarde Dollar eingestiegen und hält laut Geschäftsbericht seither 8,6 Prozent an dem US-Unternehmen.

Die Geldspritzen sind Teil der Kooperation zwischen beiden Firmen. Volkswagen hatte im vergangenen Jahr zugesagt, bis zu 5,8 Milliarden Dollar in das Projekt zu investieren. Die Wolfsburger bekommen dadurch Zugang zur Elektronik-Architektur von Rivian und erhoffen sich davon Hilfe bei der Lösung ihrer Software-Probleme. Rivian verschaffen die Milliarden aus Deutschland Luft, um zum kommenden Jahr die Produktion eines günstigeren Modells hochzufahren, das die Verkäufe steigern soll.

Von den bis zu 5,8 Milliarden Dollar, die Europas größter Autobauer für das Projekt ausgeben will, entfallen 3,5 Milliarden Dollar auf Rivian-Anteile. Die erste Milliarde floss im vergangenen Jahr sofort. Weitere drei Raten folgen, sobald fest vereinbarte Projektfortschritte erreicht wurden. Im Gegenzug erhöht sich jedes Mal der Anteil, den VW an Rivian hält. Am Ende könnte Volkswagen größter Einzelaktionär bei Rivian sein. Bisher ist das Amazon.

Daneben fließen 2,3 Milliarden Dollar in das Ende 2024 gestartete Gemeinschaftsunternehmen Rivian Volkswagen Technologies. Das Gros davon geht am Ende wieder an den US-Partner – für den Kauf von Technologie und Software, die die Amerikaner in das Projekt einbringen. Das Gemeinschaftsunternehmen soll auf Basis der Rivian-Technologie eine neue Elektronik-Architektur und Software für E-Autos entwickeln, die dann bei beiden Partnern zum Einsatz kommen kann.

Die Wolfsburger haben seit Jahren mit Problemen bei der hauseigenen Software-Entwicklung zu kämpfen, immer wieder kam es zu Verzug. Dadurch verzögerten sich bereits mehrere Modellstarts, zum Teil um mehrere Jahre. Rivian dagegen entwickelte von Anfang an eine eigene Architektur, in der die Auto-Elektronik in mehrere Zonen mit eigenen Computern aufgeteilt wird und die dadurch mit deutlich weniger Steuergeräten auskommt.

Erstes VW-Modell mit der neuen Rivian-Technik soll 2027 der Elektro-Kleinwagen ID.1 werden, von dem VW im März die Studie ID.Every1 gezeigt hatte. Gebaut werden soll das Auto im portugiesischen VW-Werk in Palmela. Angepeilter Kaufpreis: 20.000 Euro. Der Einsatz der Rivian-Technik soll dabei helfen, den Preis entsprechend zu drücken. Dank großer Stückzahlen gebe es hier Kostenvorteile, hieß es bei VW.

Anschließend möchte Konzernchef Oliver Blume die Rivian-Technik dann konzernweit ausrollen. Nach der Kernmarke VW soll Audi folgen, später Porsche „und danach kommen allen anderen Marken“, so Blume im November beim Start des Joint Ventures. Auch die neue US-Marke Scout soll 2027 bereits mit Rivian-Technik starten. Nicht zum Einsatz kommt sie in China: Dort setzt VW auf eine Kooperation mit dem Elektroautohersteller XPeng. Und auch Verbrenner bleiben außen vor: Die neue Architektur ist rein auf E-Autos ausgelegt.

Dass Rivian die Hürde für die zweite Milliardenspritze aus Wolfsburg nahm, hat aber noch nichts mit dem technischen Fortschritt bei dem Projekt zu tun. Voraussetzung war nur das Erreichen finanzieller Gewinnziele beim Partner. Die 2009 gegründete Firma hat seit Jahren mit roten Zahlen zu kämpfen, konnte nun aber zwei Quartale in Folge mit einem Bruttogewinn abschließen.

Das öffnete die Tür für die Zahlung aus Wolfsburg. Unterm Strich schrieb Rivian aber auch im vergangenen Quartal rote Zahlen. Immerhin: Der Nettoverlust konnte deutlich verringert werden – von 1,445 Milliarden auf 541 Millionen Dollar.

Für die nächsten beiden Überweisungen aus Wolfsburg muss dann aber auch bei der Technik geliefert werden. Die nächste Milliarde soll Mitte 2026 fließen, wenn bestimmte technologische Meilensteine erreicht werden. Weitere 500 Millionen Dollar sind dann 2027 als Schlusszahlung vorgesehen, sobald der erste VW mit Rivian-Technik in Serie geht.


(nen)



Source link

Künstliche Intelligenz

Genie 3, Superintelligenz und Weltmodell: Was hinter den KI-Buzzwords steckt


Deepminds Genie 3 ist ein neues KI-Modell, das interaktive 3D-Welten in Echtzeit generieren kann. Solche Weltmodelle sieht Deepmind als zentrale Bausteine bei der Entwicklung einer Superintelligenz. Aber was ist eigentlich ein „Weltmodell“ und was hat das mit fortgeschrittener Künstlicher Intelligenz zu tun?

Deepmind bezeichnet sein KI-Modell so, weil es nach den Anweisungen aus einem Prompt eine virtuelle Welt erzeugt – oder besser gesagt eine 3D-Szene, die einen Ausschnitt aus einer virtuellen Welt darstellt. Über Prompts kann ein User oder auch ein Software-Agent begrenzt mit dieser Welt interagieren. Sich also zum Beispiel darin bewegen oder einen Gegenstand greifen. Das Modell reagiert auf solche Prompts, indem es die damit modifizierte Welt darstellt.

Aber von KI-Forschenden und Robotikern wird der Begriff ganz anders verwendet.

Weil nicht mal der Begriff „Intelligenz“ wirklich sauber definiert ist, gibt es natürlich auch kein einheitliches Verständnis davon, was eine „Superintelligenz“ ist. Viele Arbeitsdefinitionen gehen jedoch davon aus, dass eine KI aufgrund ihrer Fähigkeiten beurteilt werden sollte. Sobald sie also in der Lage ist, ähnliche Dinge wie ein Mensch zu tun, kann sie als intelligent angesehen werden. Solch eine „Allgemeine Künstliche Intelligenz“ (gebräuchlich ist der englische Ausdruck Artificial General Intelligence, AGI) gilt als erster Schritt hin zur Superintelligenz.

Einig sind sich die meisten Experten auch darin, dass KI-Modelle sich nur dann intelligent verhalten können, wenn sie ein abstraktes Verständnis der Welt entwickeln – ein Weltmodell. Das Weltmodell enthält verallgemeinertes, abstrahiertes Wissen über Gegenstände und Subjekte in der Welt, aber vor allem auch über Zusammenhänge zwischen ihnen.

Die Antwort auf diese Frage ist umstritten. Es gibt interessante Indizien, die sowohl für als auch gegen das Vorhandensein von Weltmodellen in LLMs sprechen.

Auf den ersten Blick sind große Sprachmodelle nur statistische Maschinen, die das laut ihren Trainingsdaten wahrscheinlichste nächste Wort ausspucken – stochastische Papageien.

Auf der anderen Seite argumentieren Forschende, dass das Trainingsmaterial in der Regel bereits eine ganze Menge Weltwissen enthält, und das Modell dieses Weltwissen während des Trainings in komprimierter Form abspeichert. Und um das zu können, muss es abstrahieren.

Kenneth Li von Harvard University konnte 2023 zeigen, dass ein großes Sprachmodell nur durch Beispiele offenbar die Regeln des strategischen Brettspiels Othello lernen kann. Der Befund ist aber umstritten, weil die Messergebnisse nicht eindeutig sind.

Aktuell gibt es ein neues Othello-Paper – ein Test mit kleinen Sprachmodellen, die aufgrund ihrer Größe eigentlich das Spiel nicht abbilden können, aber trotzdem sinnvolle Züge finden. Die Forschenden werten das als Indiz dafür, dass die Modelle nur aus Beispielen die Regeln des Spiels gelernt haben. Sie hätten damit ein internes, kleines Weltmodell der Othello-Spielwelt erzeugt.

Forschende von Deepmind legten zudem ein ganz ähnliches Paper vor, in dem sie dem Modell Schach beibrachten – und zwar auf einem ziemlich hohen Niveau.

Anderseits testete die Komplexitätsforscherin Melanie Mitchell gemeinsam mit Kollegen bereits 2023 das Abstraktionsvermögen von GPT-4 anhand von grafischen – also nicht sprachlichen – Testaufgaben und stellte fest, dass die KI „kein Anzeichen von robustem Abstraktionsvermögen auf menschlichen Niveau“ zeigt. Ein Befund, der auch mit neueren Modellen und neuen Versionen des Tests noch gültig ist.

Deepmind arbeitet schon lange daran, KIs intelligenter zu machen, indem sie selbstständig lernen, Probleme zu lösen: Die Software probiert zunächst wahllose Aktionen aus, um ein Problem zu lösen. Eine Feedback-Schleife sorgt jedoch dafür, dass erfolgreiche Aktionen belohnt werden. Das System probiert diese Aktionen also öfter und wird mit der Zeit immer besser. Dieser Ansatz wird Verstärkungslernen (Reinforcement Learning) genannt.

Im Prinzip sei dieses Meta-Learning „ein wesentlicher Schlüssel zur künstlichen allgemeinen Intelligenz“, sagte der KI-Forscher Matthew Botvinick 2018 – damals bei DeepMind. „Denn unsere Welt besitzt eine spezifische Eigenart: Wir erleben niemals dieselbe Situation zweimal, aber wir erleben auch niemals eine komplett neue Situation. Jedes intelligente System muss also die Fähigkeit besitzen, die Erfahrungen der Vergangenheit zu nutzen, um sie auf elegante und schnelle Weise auf neue Aufgaben zu übertragen.“

Die große Herausforderung bestünde nun allerdings darin, Systeme zu bauen, die immer abstraktere Konzepte entdecken können. Ein Schlüssel dafür, glaubt Botvinick, sei die richtige Umgebung, in der die KI-Systeme trainieren, leben und lernen können. Sie zu finden, sei eines der großen Ziele in der KI-Forschung. Genie 3 ist offenbar der Versuch, solch eine komplexe Umgebung zu erschaffen, um autonome KI-Agenten zu trainieren.

Dieser Beitrag ist zuerst auf t3n.de erschienen.


(wst)



Source link

Weiterlesen

Künstliche Intelligenz

Playstation VR2 auf PC: Entwickler schalten PS5-exklusive Features frei


Das gestern veröffentlichte „Playstation VR2 Toolkit“ bringt PC-Unterstützung für Eye-Tracking, 10-Bit-Farbtiefe, adaptive Trigger und eine verbesserte Tracking-Vorhersage der PS VR2 Sense Controller. Letzteres bietet unter anderem in reaktionsschnellen VR-Spielen wie „Beat Saber“ einen Vorteil.

Das Toolkit wertet die Playstation VR2 deutlich auf: PC-Headsets mit Eye-Tracking kosten in der Regel weit über 1000 Euro, während die PlayStation VR2 inklusive PC-Adapter bereits für unter 500 Euro erhältlich ist.

Einen Haken hat die Sache jedoch: Damit SteamVR-Apps Eye-Tracking und adaptive Trigger unterstützen, müssen sie zunächst von den App-Entwicklern über proprietäre Schnittstellen implementiert werden. Zum aktuellen Zeitpunkt wird Eye-Tracking in der beliebten Metaverse-App VRChat unterstützt. Dafür müssen Nutzer neben der Treiber-Mod eine separat erhältliche Datei installieren.

Für die Zukunft plant das dreiköpfige Entwicklerteam weitere Tracking-Verbesserungen, hochwertigere haptische Effekte für die Sense-Controller sowie die Unterstützung von OpenXR-basiertem Eye-Tracking, verrät der leitende Entwickler „whatdahooper“ im Gespräch mit heise online. Letzteres könnte in Zukunft dynamisches Foveated Rendering in PC-VR-Spielen wie Microsoft Flight Simulator 2024 ermöglichen. Das Team arbeitet zudem daran, die Headset-Haptik freizuschalten, hat dafür aber noch keine Lösung gefunden.

Das Toolkit ist eine Modifikation von Sonys offiziellen SteamVR-Treibern. Bei der Installation wird eine DLL-Datei umbenannt und durch die DLL-Version des Toolkits ersetzt. Die Entwickler weisen darauf hin, dass die 10-Bit-Farbtiefe auf neueren AMD-GPUs nicht funktioniert. Ursache ist ein AMD-seitiges Problem, das außerhalb des Einflussbereichs der Toolkit-Entwickler liegt.

Das Playstation VR2 Toolkit ist auf Github erhältlich und Open-Source, mit Ausnahme der Eye-Tracking-Kalibrierung.

Seit Anfang August 2024 bietet die Playstation VR2 SteamVR-Kompatibilität. Für die PC-Anbindung wird ein separat erhältlicher offizieller PC-Adapter, die Playstation-VR2-App auf Steam, ein DisplayPort-1.4-Kabel sowie ein kompatibler Bluetooth-Adapter benötigt, falls der PC nicht bereits über integriertes Bluetooth verfügt.

Sony verzichtete bei der PC-Anbindung auf eine Reihe wichtiger PS5-Features, darunter Eye-Tracking, HDR, adaptive Trigger und Headset-Haptik. Mit dem „PS VR2 Toolkit“ sind nun einige dieser Funktionen für den PC verfügbar.

Das Toolkit bringt übrigens keine HDR-Unterstützung wie auf der PS5. Die dafür nötige zusätzliche Leuchtdichte fehlt bei der PC-Anbindung, da es dafür keine entsprechende Treiberunterstützung seitens SteamVR gibt.


(tobe)



Source link

Weiterlesen

Künstliche Intelligenz

Elternratgeber E-Lastenrad: Richtiges Modell wählen, Vorteile nutzen


Kids rein, Windeln rein, Einkäufe rein und vielleicht sogar noch den Hund rein: Mit dem E-Lastenrad transportiert man viel! Sie sind besonders bei Familien mit Kindern beliebt und im urbanen Raum mittlerweile fester Teil des Stadtbildes. Marktdaten zeigen, dass sich ihre Zahl zwischen 2020 und 2024 mehr als verdoppelt hat.

Gerade für kurze Distanzen sind sie eine umweltfreundliche und praktische Alternative zum Auto. Worauf Eltern bei der Anschaffung achten sollten, welche Vorteile E-Lastenräder für Familien mit Kindern haben und warum sogar das Mitfahren in E-Bikes gesünder macht, haben wir mit Experten gesprochen und ihre Tipps in diesem Ratgeber zusammengestellt.

  • E-Lastenräder sind beliebt: Nach Zahlen des Verbands der Zweiradindustrie (ZIV) wurden allein 2024 in Deutschland 220.500 Lastenräder verkauft, mehr als 80 Prozent davon mit Motor.
  • Kunden stehen vor der Auswahl verschiedener Bauweisen, etwa klassischen Transportboxen an der Front mit zwei oder drei Rädern, den neueren Longtails mit verlängertem Heck und sogar faltbaren Modellen.
  • Lastenräder sind für Eltern mit Kindern eine praktische Alternative zum Auto, für den sicheren Transport des Nachwuchses sind aber Dinge wie die richtige, gepolsterte Sitzgelegenheit zu beachten.

Dieser Artikel beantwortet Fragen, die Eltern vor der Anschaffung eines Lastenrads haben: Ab welchem Alter dürfen Kinder mit und wie sorgen Sie für eine sichere Fahrt? Wir geben Ratschläge für die Wahl des richtigen Modells, ob mit zwei oder drei Rädern. Unser Ratgeber nennt außerdem Beispiele für verschiedene Marken und Typen, damit Sie sich auf dem Markt orientieren können.


Das war die Leseprobe unseres heise-Plus-Artikels „Elternratgeber E-Lastenrad: Richtiges Modell wählen, Vorteile nutzen“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Beliebt