Künstliche Intelligenz
Bolt setzt für Robotaxis auf Nvidia-Technik
Der estnische Fahrdienstvermittler Bolt plant eine Zusammenarbeit mit Nvidia im Bereich Robotaxis. Während Nvidia die Technologie liefern soll, will Bolt Daten aus seinem Fahrbetrieb beisteuern.
Weiterlesen nach der Anzeige
Die technische Grundlage liefert Nvidias Drive Hyperion, eine Plattform, die Hardware, Sensorik und Software für den Einsatz von Robotaxis auf Level-4-Niveau bündelt. Bolt wiederum will seine umfangreichen Fahrdaten nutzen, um darauf basierende KI-Systeme zu trainieren. Darüber hinaus bleibt die Partnerschaft vage: Konkrete Schritte und ein Zeitplan nennen die Partner nicht.
Wahrung der Privatsphäre
Bolt stellt heraus, dass die Verarbeitung der Flottendaten unter Wahrung der Privatsphäre erfolgen und den Anforderungen der DSGVO sowie europäischen Cybersicherheitsstandards entsprechen soll. Zudem will das Unternehmen zentrale Werkzeuge, Schnittstellen, Referenzimplementierungen und mehr als Open Source zugänglich machen, um europäische Unternehmen und Forschungseinrichtungen zu stärken und die Abhängigkeit von außereuropäischen Ökosystemen zu verringern.
Für Bolt ist die Partnerschaft ein strategischer Schritt, um sich im entstehenden Markt für autonome Fahrdienste zu positionieren, ohne selbst die zugrunde liegende Technologie entwickeln zu müssen.
Mehrere Partnerschaften
Ende 2025 hatte Bolt bereits eine Zusammenarbeit mit dem Autokonzern Stellantis angekündigt sowie eine Partnerschaft mit dem chinesischen Entwickler Pony.ai, der in China fahrerlose Robotaxi-Dienste betreibt. Mit Stellantis will Bolt Testfahrzeuge für den Einsatz in europäischen Ländern entwickeln mit dem Ziel einer industriellen Produktion ab 2029.
Weiterlesen nach der Anzeige
US-Anbieter treiben derweil eigene Robotaxi-Projekte voran: Waymo betreibt in den USA bereits kommerzielle Robotaxi-Dienste und plant, diese 2026 nach London auszuweiten. Auch Uber und Lyft treiben entsprechende Projekte voran und wollen dort noch in diesem Jahr erste Robotaxi-Tests starten. Beide Unternehmen planen zudem Tests in Deutschland. Bis zu einem kommerziellen Einsatz dürfte allerdings noch einige Zeit vergehen.
(tobe)
Künstliche Intelligenz
2028 kommen gestapelte GPUs | heise online
Gestapelte Logikchips sollen 2028 Realität werden. Nvidia will bei seiner übernächsten Generation Feynman mehrere GPU-Dies für seine KI-Beschleuniger übereinanderstapeln. Das bestätigte Firmenchef Jensen Huang bei der Eröffnung der Hausmesse GTC 2026 (im Video ab 2:12:33).
Weiterlesen nach der Anzeige
Eine GPU-Skizze auf Nvidias Roadmap sieht daher deutlich kleiner aus als die nächsten beiden KI-Beschleuniger Rubin sowie Rubin Ultra. Dort sitzen GPU-Dies und Speicherstapel nebeneinander, wobei ein Silizium-Interposer die Datenverbindungen herstellt. Diese Konstruktion nennen Hersteller 2,5D-Stacking.

Feynman folgt auf Rubin und Rubin Ultra.
(Bild: Nvidia)
Hitzeentwicklung problematisch
3D-Stacking mit mehreren Logikchips übereinander hat Vorteile, vor allem bei der Signalführung. Bisher konnten Chipfertiger allerdings ein Problem noch nicht für ein Serienprodukt lösen: die Wärmeabfuhr der unteren Dies. Die Kühllösung wird bei Feynman besonders spannend, da der KI-Beschleuniger über 2000 Watt elektrische Leistungsaufnahme gehen könnte. Zu den Details hat sich Nvidia bislang allerdings nicht geäußert.
3D-Stacking gibt es bislang nur mit Cache-Chiplets in größerem Maßstab. Der Chipauftragsfertiger TSMC und AMD etwa stapeln bei den Ryzen-X3D-Prozessoren CPU-Chiplets und Level-3-Cache. In dem Fall erzeugt der Speicher wenig Abwärme, sodass die Kühlung hinhaut. AMD forscht ebenfalls an komplexeren 3D-Stacking-Konstruktionen.
Erste Generation mit angepasstem HBM
Weiterlesen nach der Anzeige
Zusätzlich zur Stapelbauweise will Nvidia bei Feynman erstmals Custom High-Bandwidth Memory (cHBM) einsetzen. Dabei handelt es sich um einen Vorstoß der Speicherhersteller Samsung, SK Hynix und Micron sowie Zulieferern wie Marvell: Kunden wie Nvidia können beim cHBM eigene Logik zur Ansteuerung der Speicherstapel entwerfen und diese in eigene Prozessoren oder GPUs integrieren.
Bisher sitzt die Logik immer in einem Basis-Die, das die Speicherhersteller produzieren und unter die DRAM-Ebenen setzen. Der größte Nachteil dabei: Die Fertigungstechnik der Speicherhersteller ist auf DRAM spezialisiert. Wandern die Basis-Die-Transistoren in eine CPU oder GPU, kann sie etwa TSMC mit Logikfokus produzieren. Das spart potenziell Platz und erhöht die Effizienz. Zudem können Kunden die cHBM-Ansteuerung so an die eigenen Bedürfnisse anpassen.
Zusätzlich zu Feynman erscheint 2028 eine Fülle neuer Chips: Nvidias eigener ARM-Prozessor Rosa, der Netzwerkprozessor Bluefield-5, mehrere Switches und der auf Inferenz spezialisierte KI-Beschleuniger LP40 in Kooperation mit Groq.
(mma)
Künstliche Intelligenz
Framework: Gas Town orchestriert Coding-Agenten nach Kubernetes-Vorbild
Coding-Agenten wie Claude Code und Codex CLI versprechen eine schnellere Entwicklung, doch Studien zeigen, dass der Aufwand sich häufig ins Promptschreiben, in Codereviews und das Warten auf Ergebnisse verschiebt. Hier setzt das in Go geschriebene Open-Source-Framework Gas Town an: Statt einzelne Agenten zu verbessern, orchestriert es viele Agenten gleichzeitig, die nach festen Rollen zusammenarbeiten und deren Fehler durch die Orchestrierungsschicht kompensiert werden.
Der Entwickler Steve Yegge hat Gas Town nach den Konzepten von Temporal und Kubernetes im Dezember 2025 entwickelt und Anfang Januar 2026 der Öffentlichkeit vorgestellt (Beitrag auf Medium und GitHub).
Der Name Gas Town ist der gleichnamigen postapokalyptischen Raffineriestadt aus der Mad-Max-Filmreihe entlehnt. Die chaotischen Zustände in der Stadt repräsentieren das Chaos, das sich oft bei der Koordination mehrerer Coding-Agenten ergibt. Um dieses Chaos Herr zu werden, gibt es feste Rollen und Abläufe.
Das war die Leseprobe unseres heise-Plus-Artikels „Framework: Gas Town orchestriert Coding-Agenten nach Kubernetes-Vorbild“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.
Künstliche Intelligenz
Millardendeal: Mastercard übernimmt das Stablecoin-Start-up BVNK
Mastercard investiert verstärkt in digitale Währungen. Am Dienstag gab das Unternehmen die geplante Übernahme von BVNK, einem führenden Anbieter von Stablecoin-Infrastruktur, bekannt. Der Deal hat ein Volumen von bis zu 1,8 Milliarden US-Dollar, darunter 300 Millionen US-Dollar an bedingten Zahlungen, so Mastercard in einer Mitteilung.
Weiterlesen nach der Anzeige
Der Kartenanbieter vergrößert mit dem Kauf des Londoner Stablecoin-Start-ups sein Engagement im Bereich blockchainbasierter Transaktionen. „Angesichts der zunehmenden regulatorischen Klarheit bezüglich digitaler Währungen in verschiedenen Regionen wollen Finanzinstitute und Fintechs ihren Kunden Zahlungsmöglichkeiten anbieten, die auf Stablecoins und tokenisierten Einlagen basieren“, schreibt Mastercard. Mit Stablecoins und tokenisierten Einlagen ließen sich grenzüberschreitende Überweisungen, Geschäftszahlungen und Auszahlungen mit Stablecoins durchführen, so Mastercard weiter. Diese digitalen Zahlungssysteme sind in der Regel schneller und kostengünstiger als traditionelle Kartenzahlungen und ein schnell wachsender Markt. Der Finanzdienstleister geht davon aus, dass die Akzeptanz von Stablecoins in der gesamten Finanzbranche zunehmen wird.
Zahlungsabwicklung zwischen Fiat- und Digitalwährungen
„Mit der Ausgabe verschiedener digitaler Währungen und tokenisierter Einlagen sowie deren zunehmender Verbreitung steigt auch der Bedarf an einer hochsicheren und konformen Zahlungsabwicklung zwischen Fiat- und digitalen Währungen über verschiedene Blockchains hinweg. Die Kombination der Kompetenzen von BVNK und Mastercard ermöglicht eine vertrauenswürdige Interoperabilität in großem Umfang und eine nahtlose systemübergreifende Anbindung“, heißt es in der Mastercard-Mitteilung.
BVNK wurde 2021 gegründet und ist auf Infrastrukturen zur Verbindung von Fiat- und Stablecoins spezialisiert. Die BVNK-Plattform ermöglicht ihren Kunden das Senden und Empfangen von Zahlungen in allen wichtigen Blockchain-Netzwerken in über 130 Ländern.
„BVNK hat die letzten Jahre nicht nur die Technologie entwickelt, sondern auch Lizenzen in verschiedenen Regionen erworben“, sagte Jorn Lambert, Chief Product Officer von Mastercard, gegenüber der Nachrichtenagentur Reuters. Laut Lambert würde der interne Aufbau einer vergleichbaren Lösung „sehr viel Zeit in Anspruch nehmen“. Die Übernahme ermögliche Mastercard einen deutlich schnelleren Markteintritt. Sie soll vor Ende des Jahres abgeschlossen werden, muss aber noch von den Aufsichtsbehörden genehmigt werden.
Weiterlesen nach der Anzeige
(akn)
-
Künstliche Intelligenzvor 3 MonatenSchnelles Boot statt Bus und Bahn: Was sich von London und New York lernen lässt
-
Social Mediavor 2 WochenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 1 MonatCommunity Management zwischen Reichweite und Verantwortung
-
Künstliche Intelligenzvor 4 Wochen
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 3 MonatenDie meistgehörten Gastfolgen 2025 im Feed & Fudder Podcast – Social Media, Recruiting und Karriere-Insights
-
UX/UI & Webdesignvor 2 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Künstliche Intelligenzvor 2 MonatenAumovio: neue Displaykonzepte und Zentralrechner mit NXP‑Prozessor
-
Künstliche Intelligenzvor 3 MonatenÜber 220 m³ Fläche: Neuer Satellit von AST SpaceMobile ist noch größer
