Connect with us

Künstliche Intelligenz

Gameplay von „Thief VR“ enthüllt: So spielt sich die Neuauflage des Klassikers


Das erste ausführliche Gameplay-Video zu „Thief VR: Legacy of Shadow“ haben Vertigo Games, Maze Theory und Eidos-Montréal veröffentlicht. Der Titel soll noch 2025 für PlayStation VR2, Meta Quest und PC VR erscheinen und bringt das Stealth-Genre zurück in die düsteren Gassen von „The City“ – erstmals vollständig in Virtual Reality. Im Rahmen einer Vorschauveranstaltung in London präsentierte Moderator Dan Maher neben einem frischen Trailer auch eine kommentierte Gameplay-Demo mit Nick Witsel, dem Principal Game Designer des VR-Studios Vertigo Games.

Die Handlung von „Thief VR: Legacy of Shadow“ setzt nicht direkt an einem der früheren Teile an, sondern erzählt eine eigene Geschichte mit neuen Figuren. Protagonistin Magpie, deren Eltern durch Baron Northcrest getötet wurden, trifft im Spielverlauf auf den legendären Meisterdieb Garrett. Gemeinsam geraten sie in eine Verschwörung rund um ein mysteriöses Artefakt, das sie aus dem Ravencourt Manor entwenden sollen. Dort beginnt die gezeigte Mission mit einer Erkundung der Umgebung durch ein mechanisches Auge, das Feinde und Hinweise wie ein Scanner sichtbar macht.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

Thief VR: Legacy of Shadow – Extended Gameplay

Die VR-Umsetzung setzt auf klassische Thief-Elemente: Heimlichkeit, Geräuschkontrolle und alternative Lösungswege. Im Gegensatz zu anderen Genre-Vertretern wie „Assassin’s Creed Nexus VR“ ist das Töten hier keine Option. Ein Wächter wird zwar mit einem Knüppel ins Land der Träume geschickt, dort bleibt er aber nicht ewig und kann auch von Kollegen wieder geweckt werden. Zudem verhindert manch ein Helm das lautlose Ausschalten.

Da allerdings jede Mission mehrere Zugänge zum Ziel bieten soll, dürfen sich Stealth-Fans auf kreative Lösungswege freuen. Verschiedene Hilfsmittel, darunter Wasserpfeile zum Löschen von Lichtquellen, Seilpfeile zum Überqueren von Hindernissen und Dietriche zum Öffnen verschlossener Türen, helfen bei der Umsetzung.

Laut Witsel hat das Studio die Interaktion mit der Umgebung an VR angepasst. So können Spieler beispielsweise Kerzen mit den Fingern ersticken oder sie über das Mikrofon der VR-Brille ausblasen, und herumliegende Gegenstände als Ablenkungsmanöver werfen. Um die Immersion zu erhöhen, verzichten die Entwickler weitgehend auf die Einblendung von UI-Elementen. Einzig eine Anzeige auf der rechten Hand zeigt, wie sichtbar man gerade ist.

Lesen Sie auch

In „Thief VR“ ist neben der Sichtbarkeit auch das Wahrnehmen von Geräuschen wichtig. Schritte auf Teppichen sind leiser als auf Stein, und durch aufmerksames Hinhören kann die Position von Wachen bestimmt werden. Das Schlösserknacken wird durch ein Minispiel gelöst, bei dem die Hände in einem bestimmten Winkel rotieren müssen. Auf Wunsch verschwinden auch hier die Anzeigen, sodass sich Spieler auf die Geräusche und das haptische Feedback in den Controllern verlassen müssen.

„Thief VR: Legacy of Shadow“ ist die erste Umsetzung der Serie für Virtual Reality und wurde im Rahmen des diesjährigen Summer Game Fests im Juni angekündigt. Entwickelt wird der Titel von Vertigo Games, dem Studio hinter den VR-Hits Arizona Sunshine 2 und Metro Awakening, sowie Maze Theory.

Beide Studios sollen eng mit Eidos-Montréal zusammenarbeiten, die bereits das Reboot von 2014 umgesetzt haben. Die neue Version soll sich allerdings wieder stärker an den Wurzeln der Reihe orientieren, deren erste Teile mit nicht-linearem Design und starker Atmosphäre das Stealth-Genre maßgeblich mitgeprägt haben.


(joe)



Source link

Künstliche Intelligenz

Inmo Air 3: Smartglasses versprechen vollwertigen Android-Computer zum Aufsetzen


Derzeit buhlt eine Vielzahl von Smartglasses um die Gunst von Gadget-Freunden, darunter auch Modelle mit transparenten Bildschirmen wie die Rokid Glasses oder die in Deutschland (noch) nicht erhältliche Meta Ray-Ban Smartglasses. Das auf Kickstarter angebotene chinesische Konkurrenzmodell Inmo Air 3 geht einen anderen Weg: Das Standalone-Gerät soll zum Betrieb kein drahtlos verbundenes Smartphone benötigen. Stattdessen agiert es auf Wunsch als komplett eigenständiger Computer auf der Nase mit zwei transparenten vollfarbigen Micro-OLED-Displays von Sony.

Weiterlesen nach der Anzeige

Das ab rund 770 Euro erhältliche Gerät unterstützt laut Hersteller über 90 Prozent aller Android-Apps. Die Bedienung funktioniert auf unterschiedlichen Wegen. Ähnlich wie bei Metas Smartglasses reagiert die Brille auf ein Touchfeld am Rand sowie Spracheingaben.

Deutlich interessanter ist der beiliegende Smartring, über den man mit dem Daumen streicht. Er fungiert als Touchpad für eine mausähnliche Bedienung, als eine Art Laserpointer zum Zielen und aus Eingabeknopf. Als Alternative liegt ein etwas größerer Touchpad-Controller bei. Auch das neuronale Armband „Mudra Link“ wird unterstützt.

Als Prozessor arbeitet ein nicht näher spezifizierter „Snapdragon XR“-Chip mit acht Kernen in der Brille. Der Speicherplatz beträgt 8 GByte, der Speicherplatz 128 GByte.

Die 1080P-Auflösung der Displays bei 120 Hertz Bildwiederholrate sollte hoch genug für Text oder den Konsum von Filmen sowie Spielen sein. Die eingebaute Waveguide-Technik ermöglicht aber lediglich ein Sichtfeld von 36 Grad. Auch wenn die Einsatzmöglichkeiten mit bis zu drei virtuellen Bildschirmen an die Apple Vision Pro erinnern, sollte man also kein vergleichbares Bild erwarten. Auf den transparenten Brillengläsern sieht man oft nur einen verhältnismäßig kleinen Ausschnitt. Das Sichtfeld ist aber immerhin größer als beim einzelnen Display der Meta Ray-Ban Display (etwa 20 Grad).

Die 600 Nits Helligkeit reichen laut Hersteller auch für den Einsatz im Freien aus – etwa für Einblendungen eines KI-Assistenten oder bei der Nutzung unterstützter Android-Apps. Getönte Gläser liegen bei und lassen sich via Clip aufstecken. Sie schützen nicht nur vor Sonneneinstrahlung, sondern erhöhen auch beim Medienkonsum den Kontrast des transparenten Bildes. Sehstärke-Linsen lassen sich auf Wunsch mitbestellen.

Weiterlesen nach der Anzeige

Die Möglichkeiten der eingebauten Kamera liegen mit 4K-Auflösung bei 60 Bildern pro Sekunde (fps) deutlich über denen in anderen Smartglasses wie der Oakley Meta Vanguard (2128 × 2832 Pixel bei 30 fps, 1.216 × 1.616 Pixel bei 60 fps). Hier stoppt die Aufnahme erst nach maximal einer Stunde statt schon nach wenigen Minuten wie bei Meta. Die Ultra-Weitwinkel-Linse mit 120 Grad eignet sich auch hier aber eher für Landschaftsaufnahmen als für Fotos und Videos von Personen.

Um das Android-System mit genügend Strom zu versorgen, sind die hinteren Enden der Brillenbügel etwas dicker als bei einigen kompakteren Smartglasses. Das führt auch zu einem etwas höheren Gewicht von rund 135 Gramm (Meta Ray-Ban Display: rund 70 Gramm). Der Akku fasst 660 mAh und soll je nach Nutzung eine Stunde bis sieben Stunden durchhalten.

Wer möchte, kann drahtlos Geräte via Bluetooth oder Wi-Fi verbinden, etwa um vom Smartphone Anrufe entgegenzunehmen oder Spiele vom PC zu streamen. Wer lieber nicht auf das Kickstarter-Angebot eines chinesischen Herstellers zurückgreifen möchte, sollte auch die geplanten Smartglasses von Apple und Google (mit dem neuen Betriebssystem Android XR) im Auge behalten.


(jpw)



Source link

Weiterlesen

Künstliche Intelligenz

diVine: Twitter-Gründer bringt Kurzvideo-App Vine zurück und verbietet KI-Videos


Die bereits vor Tiktok beliebte Kurzvideo-Plattform Vine erlebt eine Rückkehr. Der 2016 von Twitter eingestellte Dienst wird zwar nicht selbst wiederbelebt, am Donnerstag, 13. November 2025 ist aber die daran angelehnte Plattform „diVine“ gestartet. Sie ist im Beta-Stadium für iOS, Android und im Browser verfügbar. Wie beim Vorbild sind auf diVine maximal sechs Sekunden kurze Nutzervideos erlaubt, die im Loop laufen.

Weiterlesen nach der Anzeige

Der von RabbleLabs angebotene Dienst erhält Unterstützung vom Twitter-Mitgründer Jack Dorseys Nonprofit-Organisation „and Other Stuff“. KI-generierte Szenen sind verboten, um „AI Slop“, also künstlich produzierten Inhalten ohne kreativen Wert vorzubeugen.

Um diese Regel zu überprüfen, setzt Anbieter RabbleLabs zur Überprüfung selbst Maschine-Learning-Algorithmen ein. Auch ein Nutzer-Reporting und eine „ProofMode“-Verifikation sollen bei der Durchsetzung helfen. Die in der App aufgenommenen Videos können laut der FAQ zudem einen Prüfmodus durchlaufen, um kryptografisch sicherzustellen, dass eine Smartphone-Kamera das Video aufgenommen hat.

Anders als bei Konkurrenzangeboten wie Tiktok oder Instagram soll diVine die Videos nicht auf zentralisierten Servern speichern. Stattdessen kommt das Nostr-Protokoll zum Einsatz, um Inhalte über ein Netzwerk unabhängiger Relays zu verteilen.

Damit der Feed zu Beginn nicht zu leer wirkt, sollen auch alte Videos aus dem Vine-Archiv verfügbar sein. Ein Mitarbeiter von „and Other Stuff“ arbeitet laut Techcrunch bereits daran, Teile des Vine-Archivs wiederherzustellen. Das von der „Archive Team“-Gruppe erstellte Backup umfasst demnach rund 40 bis 50 GByte.

Zum Zeitpunkt der Veröffentlichung dieses Artikels sind die Beta-Server überlastet, sodass vorerst keine weiteren Anmeldungen möglich sind. Es gibt allerdings eine Möglichkeit, via Mail über eine Besserung der Lage benachrichtigen zu lassen.

Weiterlesen nach der Anzeige


(jpw)



Source link

Weiterlesen

Künstliche Intelligenz

Minds Mastering Machines 2026: Jetzt noch Vortrag für die Konferenz einreichen


Am 22. und 23. April 2026 findet die Minds Mastering Machines in Karlsruhe statt. Bis zum 23. November 2025 suchen die Veranstalter iX und dpunkt.verlag Vorträge für die Fachkonferenz zu Machine Learning und KI.

Weiterlesen nach der Anzeige

Im Mittelpunkt der Minds Mastering Machines stehen weniger die KI-Hype-Themen, sondern Machine Learning in der Praxis. KI im Unternehmen bedeutet nach wie vor zum Großteil das Training Neuronaler Netze und den Einsatz klassischer ML-Methoden.

Vorträge zu aktuellen KI-Themen wie GenAI, LLMs, A2A oder MCP werden ebenfalls behandelt und dabei auf ihren praktischen Nutzen bewertet.

Die Konferenz wendet sich mit ihrem technischen Schwerpunkt an Fachleute, die ML-Projekte in die technische Realität umsetzen, darunter Data Scientists, Data Engineers, Softwareentwickler und Softwarearchitektinnen. Am Vortag der Konferenz sind am 21. April ganztägige Workshops geplant.

Im Call for Proposals suchen die Veranstalter bis zum 23. November Vorträge mit einer Länge von 40 Minuten und ganztägige Workshops unter anderem zu folgenden Themen:

  • Deep Learning
  • GenAI in der Praxis
  • Validierung von ML-Anwendungen
  • LLMs und multimodale Modelle
  • Agentic AI, MCP und A2A
  • Data Engineering: Vom Training zur Produktion
  • Datenschutz, Ethik und Recht

Weiterlesen nach der Anzeige

Besonders gerne gesehen sind Erfahrungsberichte. Das Programm wird Mitte Dezember veröffentlicht. Wer über den Verlauf der Konferenz informiert werden möchte, kann sich für den Newsletter eintragen.

Bis zur Veröffentlichung des Programms sind die Tickets zum besonders günstigen Blind-Bird-Tarif von 999 Euro (alle Preise zzgl. 19 % MwSt.) verfügbar.


(rme)



Source link

Weiterlesen

Beliebt