Künstliche Intelligenz

XR-Visualisierung in der Industrie: Von 3D-Modellen bis hin zu Gaussian Splats


Ob Maschinen, Fertigungshallen oder Kunstausstellungen: Auf der Hannover Messe zeigten Aussteller wie MR4B, CMC Engineers oder das Fraunhofer IAO, wie sie sich eine räumliche Visualisierung im Jahr 2026 vorstellen. Neben VR-Brillen und großflächigen Holowänden kamen auch Lösungen zum Einsatz, die 3D-Modelle mit Gaussian Splats oder der realen Außenwelt verbanden.

Weiterlesen nach der Anzeige

Besonders spannend war es, im „CMC ViewR“ in eine gemischte Welt aus herkömmlichen 3D-Drahtgittermodellen und nahezu fotorealistischen Gaussian Splats abzutauchen.

Im „ViewR Showroom“ von CMC Engineers können sich beispielsweise mehrere Personen eine 3D-Brille aufsetzen, um sich gemeinsam vor einer großen 3D-Holowall durch ein animiertes Sägewerk oder einen Anlagenpark zu bewegen. Wir haben uns dazu zu zweit Shutterbrillen aufgesetzt, um mit einem Vive-Controller zu den mechanischen Feinheiten der Anlagen zu schweben. CMCs Viewer nutzte dazu Daten, die zuvor mit der XGrids PortalCam aufgezeichnet und nach der Prozessierung in die Unity-Kulisse geladen wurden. Diese Kamera, die rund 4500 Euro kostet, wurde zur Aufnahme von Gaussian Splat entwickelt. Damit lassen sich fotorealistische Kulissen relativ ressourcenschonend darstellen.



Hier tauchten wir mit der Vive Pro 2 in die räumliche Kulisse ein, davor auch an der Wand dahinter.

(Bild: Jan Philipp Wöbbeking / heise medien)

Bei dem Gaussian-Splat-Verfahren werden aus den Aufnahmen von vier Kameras und einem Lidar-Sensor Ellipsoide berechnet, die Werte wie Farbe, Deckkraft, Größe und Ausrichtung besitzen. Die vielen kleinen räumlichen Farbkleckse ergeben zusammen ein authentisches 3D-Bild, das nur bei nahen Details und an den Rändern ein wenig ausfranst. Das Prinzip erinnert an Pop-Art-Bilder aus den Sechzigern, die sich ebenfalls aus vielen einzelnen Punkten zusammensetzten.

In einem Vortrag am Stand des CAE-Forums hob CMC-Geschäftsführer Max Hirlinger die Schnelligkeit und geringen Kosten der Aufnahme hervor. Bereits nach zehn Minuten Aufnahme und rund drei bis vier Stunden Berechnung könne man fotorealistische Kulissen präsentieren. Mit einer Genauigkeit von etwa drei Zentimetern erreichen die Gaussian Splats zwar nicht die Millimetergenauigkeit anderer Modelle, für viele Präsentationszwecke reicht dies jedoch völlig aus. Dazu gehören der Vertrieb auf einer Messe oder Sicherheitsbegehungen der Polizei. Auch anderen Sicherheitskräften fehlten vor einer Veranstaltung häufig Innenraumdaten von Gebäuden, so Hirlinger.

In der Kulissenhälfte mit den Gaussian Splats konnten wir kaum unscharfe „Wölkchen“ am Boden oder in den Ecken entdecken, unter denen einfachere Splat-Aufnahmen leiden. Für noch mehr Immersion erkundeten wir das Modell später auch mit der VR-Brille Vive Pro 2, mit der allerdings die Kommunikation zur Außenwelt kniffliger wurde. Durch die Kulisse verlief eine Linie, über die wir uns in den Bereich mit detailreich dargestellten Drahtgittern von Maschinen bewegen konnten – inklusive angehefteter Notiz-Panels mit Technikdetails. Ein Nachteil von Gaussian Splats ist hingegen die fehlende Animation. Dieses Problem könnte in Zukunft das „vierdimensionale“ oder dynamische Gaussian Splatting (4DGS) lösen, das auch Bewegungen einbindet. Dafür ist derzeit allerdings noch teure Aufnahmetechnik notwendig.

Weiterlesen nach der Anzeige

Auch das vom Bund geförderte „WIR!-Bündnis“ MR4B arbeitet in der Metropolregion Berlin-Brandenburg an verschiedenen räumlichen Forschungsprojekten für Präsentationen oder Trainings. Dazu gehört etwa die Planung und Installation einer Wärmepumpe (MR4Heatpump). Wir konnten uns mit einer Meta Quest 3 durch das Projekt „Kepler“ bewegen, das nahtloses, kollaboratives Pre-Engineering für Anlagen und Gebäude erleichtern soll. Die Lösung für mehrere Nutzer bringe die traditionell getrennt verfügbaren IFC-Daten von Gebäuden und DEXPI-Dateien für Anlagen frühzeitig zusammen, erklärte uns Softwareentwickler Markus Gottschalk von X-Visual Technologies. Nach einer gemeinsamen Begehung mit VR-Brillen lassen sich die geänderten Daten sofort wieder in beide Ausgangsformate exportieren. Die Einbindung von Gaussian Splats war hierbei noch nicht möglich, ist laut Gottschalk aber in Planung.

Immersiver gestaltete sich „MR4Safe Operations“ zur Mixed-Reality-Wartung von Maschinen, das nach dem OpenXR-Standard verschiedene VR- und AR-Brillen unterstützt. Derzeit arbeitet das Projekt mit der Meta Quest 3, die auch wir uns aufsetzten. In der Mixed-Reality-Durchsicht steckten wir an einem echten Maschinenmodell Schläuche an und gingen die eingeblendeten Checklisten durch. Das Tracking unserer Hände funktionierte selbst im Messegewimmel intuitiv. Zudem hatten wir stets die Hände frei, statt eine physische Liste oder ein Tablet halten zu müssen.

Das Fraunhofer IAO aus Stuttgart präsentierte auf der Messe zwei Projekte zum „Industrial Metaverse“ gleichzeitig. An der kollaborativen Powerwall können sich zwei Nutzer durch beliebige 3D-Echtzeitdaten bewegen, etwa für Engineering-Reviews, Simulationen oder virtuelle Showrooms. Dabei kommen ein Projektor und selbst entwickelte Shutterbrillen mit einer Bildwiederholrate von 240 Hertz zum Einsatz. Die Bilder werden auf die vier Brillengläser der zwei Zuschauer aufgeteilt. Jedes Glas erhält also 60-mal pro Sekunde ein Bild. Die perspektivisch korrekte Umsetzung wirkte sauber, auch wenn das Bild durch die sich immer wieder schließenden Gläser zwangsläufig etwas dunkler ausfällt als auf der Leinwand. Für die Erfassung der Brillen kommt ein Optitrack-System zum Einsatz. Es ähnelt Valves altem Lasertracking Lighthouse, bietet für Businessanwendungen aber eine höhere Präzision.



Hier testen Tobias Gabeler (links) und Frank Sulzmann vom Fraunhofer IAO die kollaborative Powerwall. Für bessere Fotos und Videos wurden die KI-Avatare nebenan auch auf 2D-Bildschirmen präsentiert.

(Bild: Jan Philipp Wöbbeking / heise medien)

Auf der Leinwand konnten wir uns mit KI-Avataren wie dem vor 200 Jahren verstorbenen Optiker und Instrumentenbauer Joseph Fraunhofer unterhalten, der zum Vorbild und Namensgeber der heutigen Fraunhofer-Gesellschaft wurde. Auch einige Mitarbeiter hatten einen mit Prompts vorbereiteten persönlichen Avatar (auch Persona genannt) vor Ort. Derzeit kommen dafür die Unreal Engine, Epics Metahuman-Framework und ChatGPT (via API) zum Einsatz. In Stuttgart experimentiert die Forschungseinrichtung neben einer lokal installierten Version von ChatGPT auch mit lokalen Modellen. Das Institut sieht in den Avataren unter anderem Potenzial für die Bildung, Verwaltung, den Tourismus oder digitale Vorarbeiter. Josef Fraunhofer gab am Stand Auskunft über seine Vita, seine Reitkenntnisse und seine technischen Errungenschaften.

Am meisten Spaß machte uns auf der Hannover Messe aber die Mixed-Reality-Ausstellung von Solid Bytes Interactive, die sich am Rande des HannoVR-Meetups ausprobieren ließ. Dort setzten wir uns einfach eine Meta Quest 3 auf den Kopf und schritten durch eine etwa 20 Meter lange, reale Themeninsel, in der ein virtuelles Stadtmodell und virtuelle Kugeln schwebten. Wenn man sich auf einen der Hocker setzte, über denen die Kugeln in der Luft hingen, wurde man plötzlich von einem 360-Grad-Video umhüllt. In diesem Fall zeigten die Videos mit angenehm scharfer Auflösung (etwa 6K) einen Rundgang durch verschiedene Stadtviertel Hannovers.


Bild 1 von 2

Denis Griethe von Solid Bytes Interactive zeigte sein geplantes CMS für Mixed-Reality-Ausstellungen. (Bild:

Jan Philipp Wöbbeking / heise medien

)

Passend dazu stellte Solid Bytes Interactive sein noch namenloses, in der Entwicklung befindliches Content-Management-System (CMS) für Mixed-Reality-Anwendungen vor. Die Software zielt darauf ab, Museen und Ausbildungsprojekten einen leichteren Einstieg in Mixed-Reality-Ausstellungen zu ermöglichen. Veranstalter und Dozenten sollen sich nicht mit komplizierter Technik herumschlagen müssen, die das Medium XR bisher häufig zurückhielten, erklärte Unternehmensgründer Dennis Griethe. Stattdessen lädt man im CMS auf dem Computer verschiedene 2D- oder 3D-Medien in Ausstellungs-Slots, die mithilfe der dazugehörigen Quest-App in der realen Welt erscheinen. Bei unserem Messebesuch experimentierten die Entwickler gerade mit der geplanten Einbindung eines frisch aufgenommenen Gaussian Splats.

Da wir als Nutzer die reale Welt sahen, war der „Spaziergang“ durch die Ausstellung meist mühelos und das Inside-Out-Tracking funktionierte auch im Messetrubel einwandfrei. Zwischendurch sorgte allerdings ein Bug dafür, dass die Objekte im Boden versanken. Ein entsprechender Patch ist laut Griethe bereits in Arbeit. Dank Metas „Shared Spatial Anchors“ können mehrere Personen gleichzeitig perspektivisch korrekt durch die Mixed-Reality-Exposition schreiten. Auf der Messe setzten die Entwickler vorerst nur einen einzigen, mittig platzierten Anker ein, um die verschiedenen Points of Interest (POI) auszurichten. Derzeit arbeitet das Studio mit der Quest 3; zukünftig könnten aber auch andere Mixed-Reality-Headsets zum Einsatz kommen.



Beim HannoVR-Meetup konnten XR-Fans einige spannende Gadgets ausprobieren. Richard Hoffmann führte die fünfte, für Entwickler erhältliche Generation der AR-Brille „Spectacles“ vor, die hier rechts auf dem Kopf von heise-Redakteur Jan Wöbbeking zu sehen ist. Links steht ein geplanter Pinball-Controller von Gunnar Gertzen (locomotionVR) für die Meta Quest. Das Kästchen mit Stick und seitlichen Knöpfen soll im August 2026 zur Maker Faire Hannover als Serienmodell zum Preis von rund 200 Euro verfügbar werden.

(Bild: Jan Philipp Wöbbeking / heise medien)


(jpw)



Source link

Beliebt

Die mobile Version verlassen