Künstliche Intelligenz
Auf Expansionskurs: Amazons Zoox testet Robotaxis in Dallas und Phoenix
Das US-amerikanische Robotertaxi-Unternehmen Zoox expandiert und stärkt seine Präsenz auf dem umkämpften US-Markt. Die Amazon-Tochter weitet ihre Tests auf Dallas und Phoenix aus und eröffnet eine Zentrale für den Flottenbetrieb im US-Bundesstaat Arizona. Das teilte Zoox am Montag mit.
Weiterlesen nach der Anzeige
Mit den beiden Großstädten Dallas und Phoenix ist die Zoox-Testflotte nun in zehn verschiedenen US-Märkten aktiv. Das Unternehmen hat seine Aktivitäten zuletzt schrittweise ausgebaut und im vergangenen Jahr seinen autonomen Taxidienst in San Francisco und in der Casino-Metropole Las Vegas gestartet. Hinzu kommen die Standorte Seattle, Austin, Miami, Los Angeles, Atlanta und Washington D.C.
Seit dem Start des Services in Las Vegas und des Testbetriebs in San Francisco Ende letzten Jahres hat Zoox nach eigenen Angaben über eine Million autonome Meilen zurückgelegt und mehr als 300.000 Fahrgäste befördert.
Gewinnung neuer Daten
Die Erweiterung der Testflotte nach Dallas und Phoenix unterstreicht den Expansionsdrang des Unternehmens. „Phoenix und Dallas sind schnell wachsende Metropolregionen mit hoher Nachfrage nach Fahrdiensten und Verbindungen auf der ersten und letzten Meile. Die Expansion in diese Städte ermöglicht es uns, in weitläufigen Gebieten zu testen und so Daten zu gewinnen, die sich von unseren Tests in anderen dicht besiedelten Metropolregionen wie San Francisco unterscheiden“, schreibt Zoox in einer Pressemitteilung. In Phoenix habe man die Möglichkeit, die Leistung der Sensoren und Batterien unter extremen Hitze- und Staubbedingungen auf Schnellstraßen zu testen; Dallas wiederum biete die Gelegenheit, die eigene KI unter verschiedenen Wetterbedingungen und in komplexen Straßennetzen weiterzuentwickeln.
Zoox plant in Phoenix und Dallas nach eigenen Angaben den Einsatz einer kleinen Anzahl umgerüsteter SUVs. Der Fokus liegt zunächst auf manueller Kartierung, bevor autonome Tests beginnen, mit einem Sicherheitsfahrer am Steuer, der jederzeit eingreifen und die KI bei Bedarf deaktivieren kann. Der Robotaxi-Anbieter wird außerdem neue Depots in beiden Städten eröffnen, sowie ein neues Fusion Center in Scottsdale, Arizona, in Betrieb nehmen, das als Kommandozentrale für Flottenbetrieb, Einsatzleitung und Fahrerbetreuung dienen soll, wie es heißt.
Weiterlesen nach der Anzeige
(akn)
Künstliche Intelligenz
Google steckt bis zu 40 Milliarden Dollar mehr in Anthropic
Nach Amazon festigt auch Google mit einer weiteren Milliarden-Investition die Allianz mit dem OpenAI-Rivalen Anthropic. In einem ersten Schritt investiert der Internet-Riese zehn Milliarden Dollar (rund 8,5 Mrd. Euro), wie Anthropic mitteilte.
Weiterlesen nach der Anzeige
Weitere 30 Milliarden Dollar können folgen, wenn die Entwicklerfirma hinter dem KI-Chatbot Claude vereinbarte Ziele erreicht. Google war schon seit Jahren unter den Geldgebern von Anthropic und liefert der Firma Spezialchips für Künstliche Intelligenz.
Auch Milliarden von Amazon
Erst Anfang der Woche hatte Amazon 5 Milliarden Dollar in Anthropic gesteckt – mit der Aussicht auf 20 Milliarden Dollar mehr in weiteren Schritten. Auch diese Finanzspritze ist ein Beispiel für sogenannte Kreislauf-Deals in der KI-Branche, in denen Investitionen zumindest teilweise als Gegenleistung für Chips oder Rechenleistung wieder zurück an den Geldgeber fließen.
Anthropic – und auch der ChatGPT-Entwickler OpenAI – benötigen dringend mehr Computerkapazität für ihre Software mit Künstlicher Intelligenz. Beide Unternehmen sind zugleich auf dem Weg an die Börse.
Anthropic zwischen Pentagon und Mythos
Anthropic stand in den vergangenen Monaten immer wieder in den Schlagzeilen. Die Firma riskierte einen Konflikt mit der US-Regierung, da sie trotz massiven Drucks darauf bestand, dass ihre KI-Modelle nicht in autonomen Waffensystemen und zur Massenüberwachung in den USA verwendet werden dürfen. Das Pentagon erklärte Anthropic daraufhin zu einem Lieferketten-Risiko, was den Einsatz von Software des Unternehmens in Regierungsbehörden schwer beeinträchtigen kann. Die Firma klagt dagegen.Zuletzt demonstrierte Anthropic aber, wie wichtig Technologie des Unternehmens für die US-Regierung ist. Ein neues Anthropic-Modell mit dem Namen Claude Mythos Preview findet stellenweise seit Jahrzehnten unentdeckt gebliebene Schwachstellen in verschiedener Software. In den falschen Händen wäre es damit eine gefährliche Cyberwaffe – und könnte zugleich der US-Regierung einen Vorteil geben, eigene Programme zu härten und potenzielle Schwachstellen für Spionage im Ausland auszunutzen. Anthropic hat keine Pläne, Mythos Preview öffentlich zu machen.
Weiterlesen nach der Anzeige
Lesen Sie auch
(vza)
Künstliche Intelligenz
SK Hynix verfünffacht Gewinn in der Speicherkrise
Das Ringen um den ersten Platz der weltweit größten Speicherhersteller geht in eine neue Runde. SK Hynix legt mit seinem vierten Rekordquartal in Folge vor: 52,6 Billionen koreanische Won (KRW) hat die Firma im ersten Quartal umgesetzt. In nur drei Monaten steigt der Umsatz somit um 60 Prozent. Im Jahresvergleich sind es 200 Prozent. SK Hynix‘ größter Konkurrent Samsung veröffentlicht seine Zahlen kommende Woche.
Weiterlesen nach der Anzeige
52,6 Billionen KRW entsprechen nach aktuellem Umrechnungskurs 30,5 Milliarden Euro. Noch stärker steigen der Betriebs- und Nettogewinn auf umgerechnet 21,8 Milliarden beziehungsweise 23,4 Milliarden Euro. Im Jahresvergleich entspricht das jeweils einer Verfünffachung.
Weil Cloud-Hyperscaler seit Monaten allen Speicher kaufen, können Hersteller die Preise erheblich anheben. Infolgedessen explodieren die Geschäftszahlen förmlich.
SK Hynix‘ Bruttomarge liegt inzwischen bei 79 Prozent, die Operativmarge bei 72 Prozent. Damit übertrifft der Hersteller sogar Nvidias Bruttomarge, die mit 75 Prozent bereits enorm ist. Andere Chipfirmen können von solchen Werten nur träumen. Zum Vergleich: Intel liegt unter 40 Prozent.
Das meiste Geld macht SK Hynix mit DRAM, etwa für DDR5-Arbeitsspeicher, LPDDR5X und High-Bandwidth Memory (HBM). 78 Prozent des Umsatzes kommen von dem Speichertyp. 21 Prozent stammen von NAND-Flash, primär für SSDs.

Umsatzverteilung bei SK Hynix. DRAM macht den größten Anteil aus.
(Bild: SK Hynix)
Papiergewinne an der Börse
Weiterlesen nach der Anzeige
Finanzgewinne hieven SK Hynix‘ Nettogewinn über den Betriebsgewinn: Umgerechnet mehr als acht Milliarden Euro nicht operativen Gewinn hat die Firma gemacht. Der größte Batzen von mehr als sieben Milliarden entspricht Papierplus in Form von „Bewertungsgewinnen aus Anlagevermögen“. Fast eine weitere Milliarde kommt aus Währungseffekten zugunsten von SK Hynix. Den Rest führt der Speicherhersteller nicht aus. Umgerechnet rund 6,5 Milliarden Euro hat SK Hynix an Steuern gezahlt.
Das Anlagevermögen dürfte maßgeblich der japanische NAND-Flash-Hersteller Kioxia (früher Toshiba Memory) hochgetrieben haben. Dessen Börsenwert hat sich seit Jahresbeginn mehr als verdreifacht. SK Hynix ist über eine Investorengruppe seit 2018 beteiligt; rund zehn Prozent Anteil könnte die Firma heute besitzen.

SK Hynix veranschaulicht selbst, wie der Nettogewinn höher sein kann als der Operativgewinn.
(Bild: SK Hynix)
Preise steigen erheblich
SK Hynix hat die Produktion im ersten Quartal nicht erhöht. Im Gegenteil: Bei NAND-Flash ging die Produktionsmenge sogar um zehn Prozent zurück, vermutlich aufgrund von Produktionsumstellungen, die Wochen in Anspruch nehmen. Der durchschnittliche DRAM-Verkaufspreis ist bei SK Hynix verglichen mit Ende 2025 um 60 Prozent gestiegen, der durchschnittliche NAND-Flash-Preis um 70 Prozent.
SK Hynix will 2026 mehr Geld in die eigenen Halbleiterwerke investieren als 2025, ohne ins Detail zu gehen. Wie oft bei asiatischen Firmen gibt es auch keinen konkreten Ausblick auf das jetzt laufende zweite Quartal.
Die an westlichen Börsen gehandelten Global Depository Receipts (GDR) von SK Hynix sind seit Bekanntgabe der Geschäftszahlen rund zwei Prozent im Plus. Die koreanische Aktie stagniert. Seit Jahresbeginn ist SK Hynix an der Börse allerdings schon über 75 Prozent im Plus.
(mma)
Künstliche Intelligenz
XR-Visualisierung in der Industrie: Von 3D-Modellen bis hin zu Gaussian Splats
Ob Maschinen, Fertigungshallen oder Kunstausstellungen: Auf der Hannover Messe zeigten Aussteller wie MR4B, CMC Engineers oder das Fraunhofer IAO, wie sie sich eine räumliche Visualisierung im Jahr 2026 vorstellen. Neben VR-Brillen und großflächigen Holowänden kamen auch Lösungen zum Einsatz, die 3D-Modelle mit Gaussian Splats oder der realen Außenwelt verbanden.
Weiterlesen nach der Anzeige
Team CMC
Besonders spannend war es, im „CMC ViewR“ in eine gemischte Welt aus herkömmlichen 3D-Drahtgittermodellen und nahezu fotorealistischen Gaussian Splats abzutauchen.
Im „ViewR Showroom“ von CMC Engineers können sich beispielsweise mehrere Personen eine 3D-Brille aufsetzen, um sich gemeinsam vor einer großen 3D-Holowall durch ein animiertes Sägewerk oder einen Anlagenpark zu bewegen. Wir haben uns dazu zu zweit Shutterbrillen aufgesetzt, um mit einem Vive-Controller zu den mechanischen Feinheiten der Anlagen zu schweben. CMCs Viewer nutzte dazu Daten, die zuvor mit der XGrids PortalCam aufgezeichnet und nach der Prozessierung in die Unity-Kulisse geladen wurden. Diese Kamera, die rund 4500 Euro kostet, wurde zur Aufnahme von Gaussian Splat entwickelt. Damit lassen sich fotorealistische Kulissen relativ ressourcenschonend darstellen.

Hier tauchten wir mit der Vive Pro 2 in die räumliche Kulisse ein, davor auch an der Wand dahinter.
(Bild: Jan Philipp Wöbbeking / heise medien)
Bei dem Gaussian-Splat-Verfahren werden aus den Aufnahmen von vier Kameras und einem Lidar-Sensor Ellipsoide berechnet, die Werte wie Farbe, Deckkraft, Größe und Ausrichtung besitzen. Die vielen kleinen räumlichen Farbkleckse ergeben zusammen ein authentisches 3D-Bild, das nur bei nahen Details und an den Rändern ein wenig ausfranst. Das Prinzip erinnert an Pop-Art-Bilder aus den Sechzigern, die sich ebenfalls aus vielen einzelnen Punkten zusammensetzten.
In einem Vortrag am Stand des CAE-Forums hob CMC-Geschäftsführer Max Hirlinger die Schnelligkeit und geringen Kosten der Aufnahme hervor. Bereits nach zehn Minuten Aufnahme und rund drei bis vier Stunden Berechnung könne man fotorealistische Kulissen präsentieren. Mit einer Genauigkeit von etwa drei Zentimetern erreichen die Gaussian Splats zwar nicht die Millimetergenauigkeit anderer Modelle, für viele Präsentationszwecke reicht dies jedoch völlig aus. Dazu gehören der Vertrieb auf einer Messe oder Sicherheitsbegehungen der Polizei. Auch anderen Sicherheitskräften fehlten vor einer Veranstaltung häufig Innenraumdaten von Gebäuden, so Hirlinger.
In der Kulissenhälfte mit den Gaussian Splats konnten wir kaum unscharfe „Wölkchen“ am Boden oder in den Ecken entdecken, unter denen einfachere Splat-Aufnahmen leiden. Für noch mehr Immersion erkundeten wir das Modell später auch mit der VR-Brille Vive Pro 2, mit der allerdings die Kommunikation zur Außenwelt kniffliger wurde. Durch die Kulisse verlief eine Linie, über die wir uns in den Bereich mit detailreich dargestellten Drahtgittern von Maschinen bewegen konnten – inklusive angehefteter Notiz-Panels mit Technikdetails. Ein Nachteil von Gaussian Splats ist hingegen die fehlende Animation. Dieses Problem könnte in Zukunft das „vierdimensionale“ oder dynamische Gaussian Splatting (4DGS) lösen, das auch Bewegungen einbindet. Dafür ist derzeit allerdings noch teure Aufnahmetechnik notwendig.
Weiterlesen nach der Anzeige
MR4B
Auch das vom Bund geförderte „WIR!-Bündnis“ MR4B arbeitet in der Metropolregion Berlin-Brandenburg an verschiedenen räumlichen Forschungsprojekten für Präsentationen oder Trainings. Dazu gehört etwa die Planung und Installation einer Wärmepumpe (MR4Heatpump). Wir konnten uns mit einer Meta Quest 3 durch das Projekt „Kepler“ bewegen, das nahtloses, kollaboratives Pre-Engineering für Anlagen und Gebäude erleichtern soll. Die Lösung für mehrere Nutzer bringe die traditionell getrennt verfügbaren IFC-Daten von Gebäuden und DEXPI-Dateien für Anlagen frühzeitig zusammen, erklärte uns Softwareentwickler Markus Gottschalk von X-Visual Technologies. Nach einer gemeinsamen Begehung mit VR-Brillen lassen sich die geänderten Daten sofort wieder in beide Ausgangsformate exportieren. Die Einbindung von Gaussian Splats war hierbei noch nicht möglich, ist laut Gottschalk aber in Planung.
Immersiver gestaltete sich „MR4Safe Operations“ zur Mixed-Reality-Wartung von Maschinen, das nach dem OpenXR-Standard verschiedene VR- und AR-Brillen unterstützt. Derzeit arbeitet das Projekt mit der Meta Quest 3, die auch wir uns aufsetzten. In der Mixed-Reality-Durchsicht steckten wir an einem echten Maschinenmodell Schläuche an und gingen die eingeblendeten Checklisten durch. Das Tracking unserer Hände funktionierte selbst im Messegewimmel intuitiv. Zudem hatten wir stets die Hände frei, statt eine physische Liste oder ein Tablet halten zu müssen.
Fraunhofer IAO
Das Fraunhofer IAO aus Stuttgart präsentierte auf der Messe zwei Projekte zum „Industrial Metaverse“ gleichzeitig. An der kollaborativen Powerwall können sich zwei Nutzer durch beliebige 3D-Echtzeitdaten bewegen, etwa für Engineering-Reviews, Simulationen oder virtuelle Showrooms. Dabei kommen ein Projektor und selbst entwickelte Shutterbrillen mit einer Bildwiederholrate von 240 Hertz zum Einsatz. Die Bilder werden auf die vier Brillengläser der zwei Zuschauer aufgeteilt. Jedes Glas erhält also 60-mal pro Sekunde ein Bild. Die perspektivisch korrekte Umsetzung wirkte sauber, auch wenn das Bild durch die sich immer wieder schließenden Gläser zwangsläufig etwas dunkler ausfällt als auf der Leinwand. Für die Erfassung der Brillen kommt ein Optitrack-System zum Einsatz. Es ähnelt Valves altem Lasertracking Lighthouse, bietet für Businessanwendungen aber eine höhere Präzision.

Hier testen Tobias Gabeler (links) und Frank Sulzmann vom Fraunhofer IAO die kollaborative Powerwall. Für bessere Fotos und Videos wurden die KI-Avatare nebenan auch auf 2D-Bildschirmen präsentiert.
(Bild: Jan Philipp Wöbbeking / heise medien)
Auf der Leinwand konnten wir uns mit KI-Avataren wie dem vor 200 Jahren verstorbenen Optiker und Instrumentenbauer Joseph Fraunhofer unterhalten, der zum Vorbild und Namensgeber der heutigen Fraunhofer-Gesellschaft wurde. Auch einige Mitarbeiter hatten einen mit Prompts vorbereiteten persönlichen Avatar (auch Persona genannt) vor Ort. Derzeit kommen dafür die Unreal Engine, Epics Metahuman-Framework und ChatGPT (via API) zum Einsatz. In Stuttgart experimentiert die Forschungseinrichtung neben einer lokal installierten Version von ChatGPT auch mit lokalen Modellen. Das Institut sieht in den Avataren unter anderem Potenzial für die Bildung, Verwaltung, den Tourismus oder digitale Vorarbeiter. Josef Fraunhofer gab am Stand Auskunft über seine Vita, seine Reitkenntnisse und seine technischen Errungenschaften.
Solid Bytes Interactive
Am meisten Spaß machte uns auf der Hannover Messe aber die Mixed-Reality-Ausstellung von Solid Bytes Interactive, die sich am Rande des HannoVR-Meetups ausprobieren ließ. Dort setzten wir uns einfach eine Meta Quest 3 auf den Kopf und schritten durch eine etwa 20 Meter lange, reale Themeninsel, in der ein virtuelles Stadtmodell und virtuelle Kugeln schwebten. Wenn man sich auf einen der Hocker setzte, über denen die Kugeln in der Luft hingen, wurde man plötzlich von einem 360-Grad-Video umhüllt. In diesem Fall zeigten die Videos mit angenehm scharfer Auflösung (etwa 6K) einen Rundgang durch verschiedene Stadtviertel Hannovers.

Jan Philipp Wöbbeking / heise medien
)
Passend dazu stellte Solid Bytes Interactive sein noch namenloses, in der Entwicklung befindliches Content-Management-System (CMS) für Mixed-Reality-Anwendungen vor. Die Software zielt darauf ab, Museen und Ausbildungsprojekten einen leichteren Einstieg in Mixed-Reality-Ausstellungen zu ermöglichen. Veranstalter und Dozenten sollen sich nicht mit komplizierter Technik herumschlagen müssen, die das Medium XR bisher häufig zurückhielten, erklärte Unternehmensgründer Dennis Griethe. Stattdessen lädt man im CMS auf dem Computer verschiedene 2D- oder 3D-Medien in Ausstellungs-Slots, die mithilfe der dazugehörigen Quest-App in der realen Welt erscheinen. Bei unserem Messebesuch experimentierten die Entwickler gerade mit der geplanten Einbindung eines frisch aufgenommenen Gaussian Splats.
Da wir als Nutzer die reale Welt sahen, war der „Spaziergang“ durch die Ausstellung meist mühelos und das Inside-Out-Tracking funktionierte auch im Messetrubel einwandfrei. Zwischendurch sorgte allerdings ein Bug dafür, dass die Objekte im Boden versanken. Ein entsprechender Patch ist laut Griethe bereits in Arbeit. Dank Metas „Shared Spatial Anchors“ können mehrere Personen gleichzeitig perspektivisch korrekt durch die Mixed-Reality-Exposition schreiten. Auf der Messe setzten die Entwickler vorerst nur einen einzigen, mittig platzierten Anker ein, um die verschiedenen Points of Interest (POI) auszurichten. Derzeit arbeitet das Studio mit der Quest 3; zukünftig könnten aber auch andere Mixed-Reality-Headsets zum Einsatz kommen.

(Bild: Jan Philipp Wöbbeking / heise medien)
(jpw)
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
