Connect with us

Künstliche Intelligenz

Reach angespielt: Imposanter VR-Blockbuster stolpert über maue Technik


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Weiterlesen nach der Anzeige

Der Entwickler und Publisher nDreams ist einer der großen Namen, wenn es um VR-Spiele geht. Vor allem im Action-Genre lieferten die Briten mit „Fracked“, „Synapse“ oder „Phantom: Covert Ops“ zahlreiche innovative Titel ab und wagten sich zuletzt mit „Grit & Valor – 1949 VR“ sogar auf RTS-Terrain vor. Im Jahr 2022 gründete nDreams mit „Elevation“ ein neues Studio, das sich explizit um AAA-Titel kümmern und Großprojekte für den VR-Markt umsetzen sollte.

Da sich der VR-Markt allerdings entgegen nDreams‘ Ambitionen entwickelte, musste das Studio im Jahr 2024 fast zwanzig Prozent seiner Belegschaft entlassen und zwei seiner insgesamt vier Studios schließen. „Elevation“ blieb allerdings verschont und durfte weiter an einem VR-Blockbuster arbeiten, der schließlich beim diesjährigen Summer Game Fest mit viel Vorschusslorbeeren von Ex-PlayStation-Chef Shuhei Yoshida angekündigt wurde: „Reach“. Wir haben uns in die Tiefen einer vergessenen Zivilisation gestürzt und uns den einen oder anderen blauen Fleck geholt.

Im Action-Adventure „Reach“ schlüpfen Spieler in die Rolle der Stuntfrau Rosa, die für Dreharbeiten in ihr Heimatstädtchen in Südamerika zurückkehrt. Während sie eine ihr nahestehende Person aus ihrer Vergangenheit aufsucht und eine alte Kirche betritt, erschüttert ein Erdbeben die Gegend und Rosa stürzt in einen Abgrund. Doch statt in tiefer Dunkelheit landet sie an einem mysteriösen Ort, der sich als die Heimat einer längst vergessenen unterirdischen Zivilisation entpuppt. Leider bleibt auch diese Welt nicht von Unruhen verschont: Sie hat sich in zwei verfeindete Lager gespalten. Eines davon will sich die Erdoberfläche unter den Nagel reißen und die Menschen als vorherrschende Spezies ablösen. So wird Rosa zur Heldin wider Willen und kurzerhand als Retterin der Welt eingespannt.


Ein Erdbeben reißt Rosa in die Tiefen einer unbekannten Zivilisation. (Bild:

nDreams (Screenshots: joe)

)

Bis Spieler diesen eigentlichen Ausgangspunkt der Handlung erreichen, müssen sie viel Geduld beweisen. Denn nDreams führt durch ein viel zu langes Tutorial-Level. Fast 40 Minuten schleicht Rosa durch ein langweiliges Industriegebäude, kämpft sich durch träge Schießübungen und klettert durch die ausgestorbenen Gassen des kleinen Ortes, bis sie endlich die Kirche erreicht. Dabei lernen Spieler aber nur die Grundlagen: Klettern, Schleichen, Springen und Schießen. Die wirklich wichtigen Spielmechaniken werden in der Unterwelt erklärt, wo das eigentliche Spiel erst richtig beginnt. Hat man die Erdoberfläche überstanden, wird „Reach“ aber zu einem völlig neuen Spiel – und zwar zu einem sehr guten.

Weiterlesen nach der Anzeige

So langweilig der Einstieg war, so imposant wird „Reach“, wenn sich das Tor zur unterirdischen Welt „Ferra“ öffnet. Die gigantischen Tempelanlagen sind wunderschön beleuchtet und von blau schimmernden Felsen sowie mysteriösen Symbolen überzogen. Schwebende Plattformen trotzen den Regeln der Physik, und auch Flora und Fauna wollen so gar nicht zum gewohnten Bild der Erde passen. Die Level-Architektur bietet reichlich Platz zum Klettern und stellt uns vor zahlreiche Physik- und Umgebungsrätsel.

Zu Beginn weist eine kleine Drohne Rosa den Weg durch Engstellen und über Felswände und Schluchten, bis sie schließlich ihre Ausrüstung findet: einen mystischen Bogen und einen Schild, der selbst Captain America vor Neid erblassen ließe. Damit kann Rosa nicht nur Angriffe abwehren. Einmal geworfen, verhält er sich wie ein Bumerang, der überall abprallt. So können etwa Schalter hinter Felswänden per Bandenspiel erreicht oder gleich mehrere feindlich gesinnte „lebende Statuen“ unschädlich gemacht werden. Auch der Bogen ist eine Mischung aus Waffe und Werkzeug. An bestimmten Stellen kann Rosa Pfeile oder den Schild in die Wand schießen und zum Klettern benutzen. Spezielle Elementarpfeile frieren Gegner ein oder verbrennen den Weg blockierendes Unkraut.

Lesen Sie auch

Um den Schild herbeizurufen, müssen Spieler zwei Finger zusammenführen und mit der Hand einen kleinen Kreis in die Luft zeichnen. Soll die Drohne eine antike Tafel scannen, werden Zeigefinger und Daumen zum Mund geführt, damit Rosa einmal kräftig pfeifen kann. Auch das Springen gelingt nicht einfach per Knopfdruck, sondern erfordert ein kräftiges Schwingen der Arme. Das mag nach Kleinigkeiten klingen, doch in einem VR-Spiel machen gut umgesetzte Spielmechaniken wie diese den Unterschied und fördern die Immersion.

Obwohl uns „Reach“ nach dem mauen Intro mit innovativen Spielmechaniken und einer spannenden Welt voller schwindelerregender Kletterpassagen und kniffliger Umgebungsrätsel durchweg bei Laune gehalten hat, haben wir nach knapp vier Stunden den Stecker gezogen. Der Grund? Die Technik. Wir haben „Reach“ mit einer Meta Quest 3 per Link-Kabel und per Wireless-Streaming über Virtual Desktop im 6-GHz-WLAN an zwei Rechnern mit einer RTX 5070 Ti und einer RTX 4080 Super ausprobiert. Beide PCs liegen teilweise deutlich über den empfohlenen Systemvoraussetzungen.

Entweder lief das Spiel mit komplett schwarzem Bildschirm und Sound oder mit stotterndem Audio und heftigem Bildzittern. VR-Spiele werden schon bei leichten Rucklern unspielbar. Auf der Playstation VR2 lief das Spiel in den Anfangsstunden zwar grundsätzlich gut. Allerdings machten sich mit zunehmender Spielzeit immer mehr Pop-ins und Glitches bemerkbar, bis die eigentlich schöne Spielwelt plötzlich mit matschigen Texturen überzogen war und Auflösung und Bildrate zunehmend schwächelten. Aktuell würden wir PC- und Konsolenspielern deshalb zur Vorsicht raten. Hier lohnt es sich unter Umständen, auf Patches zu warten.

Empfohlener redaktioneller Inhalt

Mit Ihrer Zustimmung wird hier ein externes YouTube-Video (Google Ireland Limited) geladen.

REACH OFFICIAL LAUNCH TRAILER | PS VR2, Meta Quest, and Steam | nDreams Elevation

„Reach“ macht sehr viel richtig. Es entführt Spieler in eine magische neue Welt und schickt sie auf ein Abenteuer, das irgendwo zwischen Indiana Jones und Tomb Raider angesiedelt ist. Hinzu kommen innovative Spielmechaniken, nervenzerreißende Kletterpassagen, intelligente Umgebungsrätsel und eine angenehme Progression, die auch VR-Neulinge nicht überfordert. Dem gegenüber steht allerdings die instabile Technik auf PC und PS VR2, die VR-Abenteurern schnell den Spaß am Erkunden dieser unterirdischen Zivilisation nehmen dürfte. Bleibt zu hoffen, dass nDreams schnell nachbessert.

„Reach“ ist seit dem 16. Oktober 2025 für Playstation VR2, Meta Quest 3 und PC-VR via Steam erhältlich und kostet 40 Euro. Freigegeben ist das Action-Adventure ab 12 Jahren.


(joe)



Source link

Künstliche Intelligenz

APIs in KI integrieren: „Maschinen benötigen eine klare API-Beschreibung“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.


Erik Wilde

Erik Wilde

Erik Wilde hat jahrelange Erfahrung im API-Bereich. Als Botschafter bei der OpenAPI-Initiative setzt er sich für den Einsatz offener Standards und Best Practices in API-Design und -Management ein. Auf YouTube betreibt er den Channel Getting APIs to Work, der sich an IT-Experten, Entwicklerinnen und Produktmanager richtet. Außerdem hat Wilde zahlreiche Artikel und Bücher geschrieben, und er spricht regelmäßig auf Fachkonferenzen.

Weiterlesen nach der Anzeige

iX: Schnittstellen sind ein absolutes Grundkonzept der Softwarearchitektur; man entwirft, implementiert und überarbeitet sie ständig für die Anwendungsprogrammierung. Wann beginnt man, eine Schnittstelle als API zu bezeichnen? Die Semantik dieses Wortes geht über die reine Abkürzung hinaus.

Erik Wilde: Man bezeichnet eine Schnittstelle als API, sobald sie über ihren unmittelbaren Implementierungskontext hinaus von anderen genutzt werden soll. Eine Schnittstelle ist nur eine technische Grenze, eine API hingegen ein veröffentlichter Vertrag. Das bedeutet, dass sie absichtlich offengelegt, dokumentiert und stabil genug ist, damit andere – innerhalb oder außerhalb des Entwicklerteams oder Systems – sich darauf verlassen können. Es ist vor allem der Aspekt der Absicht und des breiteren Publikums, der eine API auszeichnet.

iX: Sind die Ansätze, die eine API für Menschen nützlich und zugänglich machen, nicht dieselben wie diejenigen, die sie für KI, also LLM-basierte Automatisierung, zugänglich machen?

Wilde: Sowohl Menschen als auch Maschinen benötigen zugängliche APIs, jedoch auf unterschiedliche Weise. Für Menschen funktioniert die Dokumentation am besten, wenn APIs einheitliche Muster aufweisen, da das nicht nur das Verständnis erleichtert, sondern auch die Wiederverwendung von Tools und Verfahren für verschiedene APIs ermöglicht. Menschen können auch einen breiteren Kontext heranziehen, ohne verwirrt zu werden. Maschinen hingegen benötigen eine klare, in sich geschlossene Beschreibung jeder API. Selbst wenn die Kontextfenster größer werden, ist mehr Kontext nicht immer hilfreich – KI hat oft Schwierigkeiten, größere Kontexte effektiv zu nutzen.

Menschen schätzen APIs, die offen, wiederverwendbar und flexibel anpassbar sind, während Maschinen mehr von einer geführten Abstraktionsebene profitieren, die den Schwerpunkt darauf legt, was erreicht werden kann und wie dies zu tun ist, anstatt jede mögliche Operation offenzulegen.

Weiterlesen nach der Anzeige

iX: Sie haben sich in der Vergangenheit in Ihrem YouTube-Channel „Getting APIs to Work“ mit dem ökologischen Fußabdruck von APIs befasst. Wenn man über Softwareeffizienz und CO2-Bewusstsein nachdenkt, passt das dann gut zu dem, was derzeit als Agentic AI beworben wird?

Wilde: Der ökologische Fußabdruck von Agentic AI ist erheblich, da die explorative Nutzung durch Agenten oft zu mehr Orchestrierung, mehr Rechenzyklen und einem höheren Energieverbrauch führt. Das scheint im Widerspruch zu den Bestrebungen nach Effizienz und CO2-Bewusstsein bei Software und APIs zu stehen.

Der Weg nach vorne besteht darin, sie als komplementär zu betrachten: Agenten können kreative Lösungen erforschen und neue Vorgehensweisen aufdecken, aber sobald ein vielversprechender Ansatz gefunden ist, sollte er in einen deterministischen, wiederholbaren Workflow kodifiziert werden, der energieeffizient, skalierbar und überprüfbar ist. Das bringt die Vorteile der Kreativität der KI mit der Notwendigkeit eines nachhaltigen und konformen Betriebs in Einklang, wobei so viel KI wie nötig, aber so wenig wie möglich eingesetzt wird.

Durch das Entwickeln von Architekturen, die einen reibungslosen und bewussten Übergang vom Experimentieren zur effizienten Ausführung ermöglichen, können wir sowohl die Unsicherheit hinsichtlich der Unvorhersehbarkeit der KI als auch die Notwendigkeit angehen, ihren erheblichen Energieverbrauch zu kontrollieren.

iX: In welcher Beziehung steht MCP zu OpenAPI? Verfolgen beide nicht dasselbe Ziel: die Standardisierung der Beschreibung von APIs und deren einfache Zugänglichkeit? Oder ähnelt es eher JSON:API, also der Standardisierung der APIs selbst?

Wilde: Bei MCP, OpenAPI und JSON:API geht es darum, Funktionen verfügbar zu machen, aber sie richten sich an unterschiedliche Nutzer. MCP wurde speziell für LLMs entwickelt und stellt ihnen Tools und Ressourcen zur Verfügung, die auf ihre Arbeitsweise zugeschnitten sind. OpenAPI hingegen richtet sich an Entwickler, die HTTP-APIs nutzen möchten, und konzentriert sich hauptsächlich darauf, Endpunkte zu strukturieren und diesen Schemata hinzuzufügen.

JSON:API fügt eine weitere Ebene hinzu, indem es standardisiert, wie die Schemata strukturiert sind und welche gemeinsamen Konzepte eine API offenlegen sollte, sodass Entwickler von bereits bekannten Konventionen profitieren und Tools wiederverwenden können, die diese unterstützen.

Es ist zwar möglich, MCP-Server automatisch aus OpenAPI zu generieren, aber das führt in der Regel nicht zu den besten Ergebnissen: Bei komplexeren APIs reicht eine Liste von Endpunkten nicht aus, da LLMs das implizite Verständnis fehlt, das Menschen beim Schreiben von Code mitbringen. Das ist der grundlegende Unterschied: OpenAPI und JSON:API gehen davon aus, dass ein menschlicher Developer die Lücken füllen kann, während MCP eine ausreichend aufgabenorientierte Struktur bereitstellen muss, damit ein LLM ohne diese menschliche Intelligenz erfolgreich sein kann.

iX: Machen LLMs bestimmte Ansätze zur Automatisierung überflüssig? Oder sind sie nur ein weiterer Anwendungsfall? Aufgrund der Nicht-Determiniertheit können sie eine zuverlässige Systemintegration vermutlich nicht wirklich ersetzen.

Wilde: Bei der Automatisierung geht es in der Regel um Zuverlässigkeit, Wiederholbarkeit und Effizienz, was LLMs nicht bieten. Sie sind nicht deterministisch, nicht zuverlässig reproduzierbar und nicht besonders effizient. Was sie jedoch bieten, ist eine neue Art von Kreativität: die Fähigkeit, Lücken zu schließen, Lösungen auszuprobieren und chaotischere Teile der Automatisierung zu bewältigen, die mit traditionellen Ansätzen nicht möglich sind.

Am besten betrachtet man sie als ein weiteres Werkzeug im Werkzeugkasten – eines, das wir selektiv einsetzen können, zum Erkunden oder für bestimmte Teile eines Prozesses, aber nicht für die Teile, die strenge Garantien erfordern. Architekturen, die LLM-gesteuerte Erkundung mit kodifizierten, deterministischen Workflows kombinieren, können das Beste aus beiden Welten vereinen: KI, wo Kreativität einen Mehrwert schafft, und traditionelle Automatisierung, wo Zuverlässigkeit unerlässlich ist.

Das Interview führte Richard Wallintin von WPS – Workplace Solutions.


(rme)



Source link

Weiterlesen

Künstliche Intelligenz

smolBSD: Einfach ein eigenes BSD-System erstellen


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Mit smolBSD, einer liebevollen Verniedlichung von smallBSD, hat der spanische NetBSD-Entwickler Emile „iMil“ Heitor eine Umgebung geschaffen, um winzige NetBSD-Installationen zu erzeugen. Das schlanke Design soll die Grundlage für ein stabiles System mit möglichst geringem Ressourcenbedarf sein, das auf Sicherheit und Performance optimiert ist. Damit ist es für den Einsatz in eingebetteten Systemen, Containern, virtuellen Maschinen oder auf verschiedenen auch betagten Architekturen geeignet – ausdrücklich auch mit einem 32-Bit-Kernel für die x86-Plattform.

Weiterlesen nach der Anzeige

Vor allem ist das minimalistische smolBSD aber dafür gedacht, als MicroVM (Micro Virtual Machine) in kurzlebigen, isolierten und sicheren Ausführungsumgebungen zu laufen. MicroVMs stellen beispielsweise QEMU, Cloud Hypervisor und Amazon mit Firecracker bereit. Auf der smolBSD-Projektseite werden QEMU und Firecracker als explizit funktionierende Plattformen genannt.

Details zu seiner Motivation, smolBSD zu entwickeln, und Informationen zum internen Aufbau präsentierte Heitor auf der BSDcon 2024 an der Universität in Ottawa in seinem Vortrag Making NetBSD a fast(er) booting microvm. Sein Projekt zieht bereits weitere Entwickler wie Leah Neukirchen an, der mit nitro ein kleines, flexibles und vor allem portables init-Framework samt Prozess-Supervisor (PID 1) geschaffen hat, das auch unter smolBSD läuft.

Um einen Blick auf smolBSD-MicroVMs zu werfen, benötigt man ein System mit Intel VT-x oder AMD-V, auf dem NetBSD, GNU/Linux oder macOS laufen. Ein Test mit dem systemd-losen Devuan GNU/Linux verlief problemlos, nachdem ein paar Pakete (qemu-system-x86, curl, git, bmake, uuid-runtime, bsdtar) installiert wurden. In der per git geklonten Kopie von smolBSD können Funktion und Konfiguration der MicroVMs im etc- und dem service-Verzeichnis angepasst werden. Vorgefertigte Beispiele wie ein simpler SSH-Zugang, ein SSH-Bouncer und ein Webserver sind im etc-Verzeichnis vorhanden. Das Image der MicroVM wird anschließend über bmake erzeugt und kann dann verteilt oder direkt über das startnb.sh-Skript gestartet werden.


Screenshot, zwei Terminal-Fenster, grüne Schrift

Screenshot, zwei Terminal-Fenster, grüne Schrift

(Bild: Michael Plura / heise medien)

Weiterlesen nach der Anzeige

Im Zeitalter von Cloud-Architekturen, Serverless-Computing und Microservices werden immer fetter werdende Betriebssysteme mehr und mehr unattraktiv. Gewünscht sind extrem schlanke Systeme, die nur das enthalten, was wirklich gebraucht wird, und idealerweise quasi in Echtzeit starten. Ein Beispiel ist Amazons Firecracker, ein leichtgewichtiger Virtual Machine Monitor (VMM) via KVM, der speziell für das schnelle und sichere Starten isolierter MicroVMs in Cloud- und Serverless-Umgebungen entwickelt wurde. AWS Lambda (FaaS) und AWS Fargate (CaaS) führen Funktionen beziehungsweise Dienste oder Container ohne eigene Server-Basis aus. Auch QEMU bietet seit einiger Zeit „microvm“ als „machine type“ an.

Normalerweise werkelt in den Firecracker-MicroVMs Linux, in den letzten Jahren hat jedoch der FreeBSD-Entwickler Colin Percival FreeBSD für die Ausführung unter Firecracker tauglich gemacht. Das Projekt gilt noch als experimentell, aber die Startzeiten in seinen Tests von 25ms oder sogar unter 20ms im Vergleich zu Linux mit 75ms oder mehr zeigen, dass einiges an Potenzial in BSD-basierten MicroVMs steckt – und das nicht nur, weil AWS die Firecracker-Kosten in Millisekunden abrechnet. Laut dem Entwickler von smolBSD soll sein NetBSD-MicroVM-Kernel unter QEMU – also auf einer nicht wirklich vergleichbaren Umgebung – in 10 bis 14ms starten. Hier müssen konkrete Praxistests die echte Performance der drei Lösungen zeigen.

Sicherlich ist es ein sicherheitstechnischer Vorteil, wenn MicroVMs nicht nur auf eine Linux-Monokultur setzen, sondern auch in Richtung FreeBSD und bald vielleicht NetBSD diversifiziert werden können. Mit smolBSD entsteht eine zusätzliche, sympathische Alternative.

Lesen Sie auch


(fo)



Source link

Weiterlesen

Künstliche Intelligenz

MSI: Palettenweise GeForce RTX 5090 in China „nicht genehmigte Parallelimporte“


close notice

This article is also available in
English.

It was translated with technical assistance and editorially reviewed before publication.

Auf Reddit kursierte unlängst ein Bild, das fünf Paletten mit originalverpackten MSI-Grafikkarten vom Typ GeForce RTX 5090 zeigt. Die Krux: Es soll in China entstanden sein, wo Nvidias GeForce RTX 5090 aufgrund von Exporteinschränkungen gar nicht verfügbar sein dürfte. Grau- und Schwarzimporte sind üblich, allerdings überraschte die Menge an neuen Grafikkarten in offenbar einer einzigen Lieferung.

Weiterlesen nach der Anzeige

MSI veranlasste der Reddit-Beitrag zu einer Mitteilung: „MSI hat jüngste Online-Gerüchte zur Kenntnis genommen, wonach die GeForce RTX 5090 in China im Umlauf sei und dadurch Marktverwirrung entstehe. MSI stellt klar, dass die GeForce RTX 5090 weder offiziell verkauft noch über autorisierte Kanäle in China vertrieben wird. Alle lokal entdeckten Einheiten stammen nicht aus von MSI autorisierten Vertriebskanälen und sind über nicht genehmigte Parallelimporte in den Markt gelangt, die nicht im Einklang mit der offiziellen Vertriebspolitik von MSI stehen.“

Eine Untersuchung der New York Times untermauert derweil, dass chinesische Firmen trotz aller Einschränkungen offenbar im großen Stil an High-End-Hardware gelangen können. Im Fokus des Berichts steht die Firma Megaspeed, die aktuelle KI-Beschleunigerchips von Nvidia im Wert von zwei Milliarden US-Dollar gekauft hat.

Megaspeed ist offiziell in Singapur ansässig, hat aber chinesische Wurzeln: Der chinesische Cloud-Gaming-Anbieter 7Road gliederte die Firma 2023 aus. Die New York Times hat ein mutmaßliches Netzwerk aus Briefkastenfirmen mit weitgehend leeren Büros aufgedeckt und stellt über Importdaten Verbindungen zu weiteren chinesischen Unternehmen her.

Demnach soll Megaspeed einen Großteil seiner Chips von Aivres gekauft haben, eine US-Tochter der chinesischen Firma Inspur, die auf der US-Entity-Liste steht und angeblich Supercomputer für das chinesische Militär baut. Inspur darf daher offiziell keine Chips von westlichen Unternehmen kaufen, allerdings gilt die Einschränkung nicht für westliche Tochterfirmen. Nvidia selbst soll weitere Lieferungen für Megaspeed vorbereitet haben, bevor Megaspeed überraschend die Zahlungen einstellte.

Ein weiteres Schlupfloch: Megaspeed soll einen Teil der Chips nach Malaysia und Indonesien verschickt haben, wo sie in Rechenzentren angblich chinesischen Kunden per Cloud-Zugriff zur Verfügung gestellt werden. Es gibt aber auch Vorwürfe, dass Megaspeed KI-Beschleuniger direkt nach China weiterverschickt haben soll.

Weiterlesen nach der Anzeige

Laut mehreren Aussagen haben US-Behörden bereits eine Untersuchung gegen Megaspeed eingeleitet, sind bisher aber noch zu keinem Ergebnis gekommen. Nvidia beteuert, von keinen illegalen Aktivitäten zu wissen.

Singapur steht schon seit 2024 immer wieder im Fokus möglicher Chipexporte nach China. Nvidia verbucht über ein Fünftel seines diesjährigen Umsatzes auf Firmen in Singapur, weil die Kunden dort ihre Rechnungen zentralisieren würden. Allein im ersten Halbjahr entspricht das fast 20 Milliarden US-Dollar.

„Über 99 Prozent der kontrollierten Rechenzentrenumsätze, die Singapur in Rechnung gestellt wurden, entfielen auf Aufträge von Kunden mit Sitz in den USA“, beteuert Nvidia im eigenen Geschäftsbericht.

Die Fälle zeigen, wie schwierig es für die USA ist, Exportkontrollen bei hoch gefragten Technologien durchzusetzen, wenn hohe Gewinne locken und Lieferketten mit international verzweigten Firmengeflechten verschleiert werden.


(mma)



Source link

Weiterlesen

Beliebt