Connect with us

Künstliche Intelligenz

Meta Quest 3 kann jetzt fotorealistische VR-Umgebungen einfangen


Vor einem Jahr führte Meta mit der Hyperscape-Demo für Meta Quest 3 und 3S sechs fotorealistische VR-Umgebungen vor, die mit einem Smartphone aufgenommen wurden.

Jetzt folgt Metas nächster Schritt: Mit der neuen VR-App „Hyperscape Capture“ können Nutzer Räume mit den VR-Headsets digitalisieren und später in der Virtual-Reality besuchen. Bald soll es zudem möglich werden, Freunde mit Quest 3 oder 3S in die fotorealistischen VR-Umgebungen, etwa des eigenen Wohnzimmers, einzuladen.

Das Einfangen von Räumen erfolgt in drei Schritten. Zunächst bewegt sich der Nutzer mit dem Quest-Headset durch den Raum, um ein grobes 3D-Gitternetz der Umgebung zu erstellen. Anschließend folgt die Feinarbeit: Beim Umhergehen erfassen die Kameras des VR-Headsets die Details der Umgebung. Dieser zweite Schritt kann fünf Minuten oder länger dauern. Zum Schluss lädt das Headset die Daten zur Weiterverarbeitung auf Metas Server hoch. Nach zwei bis vier Stunden erhält der Nutzer eine Benachrichtigung, dass die fertige Hyperscape-Umgebung im VR-Headset bereitsteht.

Als Rendertechnik kommt Gaussian Splatting zum Einsatz, die auf Meta Quest 3 inzwischen faszinierende Erlebnisse bietet. Meta setzt außerdem auf Cloud-Rendering und -Streaming, um das VR-Headset bei Rechenlast zu entlasten und die lokal erforderliche Datenmenge zu reduzieren. Gegenüber der „Hyperscape Demo“ vom vergangenen Jahr soll sich die Darstellungsqualität noch einmal deutlich verbessert haben.

Für die nahe Zukunft plant Meta eine Multiplayer-Funktion: Nutzer sollen Freunde über einen privaten Link in ihre digitalisierten Umgebungen einladen können. Langfristig dürfte Meta Hyperscape in die eigene Metaverse-Plattform „Horizon Worlds“ integrieren.

Die Beta von Hyperscape Capture wird derzeit in den USA verteilt, soll bald aber auch in anderen Ländern starten. Per VPN gelang es uns, sowohl auf Hyperscape Capture, als auch auf die VR-App Hyperscape Preview zuzugreifen, die die ein Jahr alte Hyperscape-Demo ersetzt und neue Beispiele zum Ausprobieren mit sich bringt. Hyperscape Capture ließ sich allerdings (noch) nicht herunterladen, während die Hyperscape Preview derzeit noch den Dienst verweigert.


(tobe)



Source link

Künstliche Intelligenz

In-Ear-Kopfhörer Nothing Ear (3) mit Extra-Mikros im Test


In-Ear-Kopfhörer stecken in den Ohren, und dort sind ihre Mikrofone ziemlich weit weg vom Mund. Das hat Nothing als Ursache dafür ausgemacht, dass der Klang von In-Ears beim Telefonieren nicht so gut ist, wie er sein könnte. Als Lösung präsentiert das Londoner Unternehmen die 179 Euro teuren Nothing Ear (3), die nicht nur in den Ohrstöpseln Mikros tragen, sondern auch im Ladecase. Das kann man sich dann beim Sprechen vor den Mund halten, um die Sprachqualität am anderen Ende der Leistung zu verbessern. Nothing nennt das „Super Mic“.

Auf den ersten Blick gleichen Kopfhörer und Case mit ihrem transparenten Design den Vorgängern wie ein Ei dem anderen. Neu ist allerdings das Material, denn Nothing gestaltet die untere Hälfte der Ladeschachtel nun teils aus Aluminium statt Kunststoff, und auch in den Ohrstöpseln ist Metall sichtbar. Aus dem gebürsteten Alu sticht der glänzende „Talk“-Button hervor. Neben dem USB-C-Anschluss haben eines der beiden Mikrofone und eine kleine LED Platz; das andere Mikrofon ist an der Unterseite zu finden. Die LED leuchtet grün, wenn die Mikrofone an sind.

Nothing verbindet Case und Ohrstöpsel über eine weitere Bluetooth-Verbindung miteinander. Die ist aktiviert, während man den Talk-Knopf entweder gedrückt hält oder nachdem man ihn doppelt klickt. Ein einfacher Tastendruck schaltet die Verbindung wieder ab. Die Kontaktaufnahme dauert unter einer Sekunde, das stört in der Benutzung nicht. Sind die Mikrofone im Case aktiv, verlieren die In-Ears allerdings die Möglichkeit zur Multipoint-Verbindung mit zwei Zuspielern gleichzeitig. Sind die Extra-Mikros aus, ist Multipoint direkt wieder aktiv, so man es in der App denn eingeschaltet hatte.


Das war die Leseprobe unseres heise-Plus-Artikels „In-Ear-Kopfhörer Nothing Ear (3) mit Extra-Mikros im Test“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Intel Arc Pro B50 im Test: Mit 16 GByte an die Spitze


Die kleine Workstation-Grafikkarte Arc Pro B50 verkauft Intel ab rund 370 Euro. Sie lockt potenzielle Kunden vorrangig mit dem für diese Klasse großen 16-GByte-Speicher. Zum einen gieren KI-Anwendungen nach schnellem lokalem Speicher, zum anderen will Intel mit der Arc Pro B50 die Konkurrenz auch in klassischen Workstation-Aufgaben abhängen.

Die avisierten Konkurrentinnen außer der Arc Pro A50 aus eigenem Hause sind Nvidias RTX A1000 sowie die AMD Radeon Pro W7500. Beide sind schon länger auf dem Markt, die AMD seit zwei Jahren, die Nvidia seit anderthalb. Außer der Arc Pro B50 wird auch die größere und stärkere B60 auf den Markt kommen. Sie hat 24 GByte Speicher und kann mit einer Leistungsaufnahme zwischen 120 und 200 Watt konfiguriert werden.

Ein wesentlicher Bestandteil von Workstation-Grafikkarten sind ihre Treiberpakete. Damit die auf Workstations verwendete Software von A wie Ansys bis S wie Siemens problemlos und mit vollem Funktionsumfang läuft, verlangt sie vom Softwareanbieter zertifizierte Treiber. Einige Programme sind ohne passendes Treiberzertifikat kaum nutzbar. Intels Treiberteam hat mit der Arc Pro B50 noch ein wenig Arbeit vor sich, denn nicht alle Softwarezertifizierungen, die für die älteren Arc Pro-Karten der A-Serie vorliegen, gibt es bereits für die B-Reihe.


Das war die Leseprobe unseres heise-Plus-Artikels „Intel Arc Pro B50 im Test: Mit 16 GByte an die Spitze“.
Mit einem heise-Plus-Abo können Sie den ganzen Artikel lesen.



Source link

Weiterlesen

Künstliche Intelligenz

Testing Unleashed: KI, Automatisierung und der Wert von Testern


In dieser Folge sprechen Richard Seidl und Daniel Knott darüber, wie Teams unter Druck die Qualität hochhalten. Sie befassen sich mit KI beim Testen, Testautomatisierung und dem Mix aus Low Code und Legacy Code. Der Vortrag stellt eine Verbindung zwischen Qualität und Produktrisiko, Benutzervertrauen und Ethik her. Kurze Geschichten zeigen, wie kleine Feedbackschleifen große Pläne übertreffen.

„I truly believe that we have like in five to 10 years we see a huge demand in people who are able to understand system architectures“ – Daniel Knott

Dieser Podcast betrachtet alles, was auf Softwarequalität einzahlt: von Agilität, KI, Testautomatisierung, bis hin zu Architektur- oder Code-Reviews und Prozessoptimierungen. Alles mit dem Ziel, bessere Software zu entwickeln und die Teams zu stärken. Frei nach dem Podcast-Motto: Better Teams. Better Software. Better World.

Richard Seidl spricht dabei mit internationalen Gästen über modernes Software Engineering und wie Testing und Qualität im Alltag gelebt werden können.

Die aktuelle Ausgabe ist auch auf Richard Seidls Blog verfügbar: „Pains und Hypes beim Testen von Software – Daniel Knott“ und steht auf YouTube bereit.


(mdo)



Source link

Weiterlesen

Beliebt