Connect with us

Apps & Mobile Entwicklung

Cooler Master NR200P V3: SFF-Gehäuse wird mit L-Mesh aktualisiert


Cooler Master NR200P V3: SFF-Gehäuse wird mit L-Mesh aktualisiert

Bild: Cooler Master

Die dritte Generation des SFF-Gehäuses Cooler Master NR200P optimiert die Kühlung und aktualisiert die Technik. Das Design wird beim V3 im gleichen Zuge deutlich auffälliger und folgt dem gegenwärtigen Trend-Look mit L-Mesh.

Das Cooler Master NR200P V2 (Test) war im Prinzip die „Schuhkasten-Box“, mit rund 20 Liter Volumen und Platz für große Grafikkarten. Daran ändert sich gar nicht viel. Minimal andere Abmessungen und vor allem ein neu gestaltetes Äußeres heben das V3 allerdings deutlich von seinem Vorgänger ab.

Dazu gehört vor allem das Seitenelement, das seine Luftöffnungen nun durch ein Mesh-Gitter auf Höhe der Grafikkarte ersetzt – und dieses auch bis zur Front laufen lässt, die nun aus einem einzigen, gebogenen Panel besteht. Diese nun aus einem Element bestehende Außenhülle gibt es alternativ auch mit Sichtfenster.

Cooler Master NR200P V3 (Bild: Cooler Master)

Millimeter-Änderungen

Damit die Grafikkarte über das Seitenteil atmen kann, bleibt sie wie im V2 um 90 Grad gedreht, das nötige Riser-Kabel aktualisiert Cooler Master auf PCIe 5.0. Die GPU darf weiterhin rund 360 Millimeter lang und 160 Millimeter hoch bauen, die mögliche Breite sinkt allerdings von 80 auf 78,5 Millimeter (3,8 Slots).

Der gewonnene Platz im Gehäuse kommt dem CPU-Kühler zu Gute, der nun statt 67 Millimeter 70 Millimeter hoch werden darf. Das ist im Mini-Segment bei Top-Blow-Modellen keine insignifikante Änderung – ein paar Millimeter mehr schaffen zumindest bei Luftkühlern hinter der Grafikkarte mehr Raum zum Ansaugen von Luft.

Lüfter können im Deckel, wo maximal ein 280-mm-Radiator Raum findet, sowie am Boden montiert werden, wobei dort bei Vollbestückung ein 3,5″-Montageplatz verloren geht. Zudem können an der Unterseite lediglich 15 Millimeter hohe Ventilatoren verbaut werden. Mitgeliefert wird allerdings kein einziger Lüfter. Das SFX-Netzteil bleibt hinter der Front, hinter der Frontblende zudem der 2,5/3,5″-Montageslot für Datenträger.

Im Handel wird das NR200P V3 noch nicht geführt. Auch zum Preis schweigt Cooler Master noch. Anzunehmen ist allerdings aufgrund des ähnlichen Aufbaus und der vergleichbaren Ausstattung, dass die Preisempfehlung des Vorgängers von rund 120 Euro gehalten wird.



Source link

Weiterlesen
Kommentar schreiben

Leave a Reply

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Apps & Mobile Entwicklung

Saugroboter-Testsieger verliert seine größte Schwäche


Roborock und Dreame liefern sich ein Kopf-an-Kopf-Rennen, wenn es um den Titel des Saugroboter-Testsiegers geht. Lange Zeit galt Roborock als das Maß aller Dinge, bis Dreame mit dem X50 Ultra Complete (zum Test) das erste Modell, das Stufen erklimmen kann, auf den Markt gebracht. Roborocks Antwort war nicht minder spektakulär. Was nach Science-Fiction klingt, ist Realität. Der Saros Z70 ist der erste Saug- und Wischroboter mit einem integrierten Roboter-Greifarm. Aus Technik-Sicht natürlich beeindruckend, gab es eine Riesen-Schwäche, die Roborock nun per Update ausmerzt.

Einordnung: Das macht diesen Saugroboter zum Testsieger

Der Roborock Saros Z70 ist meiner Meinung nach aktuell der beste Saugroboter mit Wischfunktion auf dem Markt. Im Alltag überzeugt der Saros Z70 mit einer ausgezeichneten Saugleistung auf allen Böden. Durch die flache Bauhöhe von 7,98 cm gelangt der Roboter unter weitaus mehr Möbel, als das die Konkurrenz-Modelle von sich behaupten können. Gepaart mit einem ausfahrbaren Wischmopp und einer KI-gestützten Navigationstechnologie, bietet der Saros Z70 eine beeindruckende All-in-One-Lösung.

Ein schwarzer Roborock Saros Z70 Saugroboter auf einem Holzboden, der seine vorderen Sensoren zeigt.
Die Saugleistung des Roborock Saros Z70 ist beeindruckend / © nextpit

Dass die Reinigung auf Top-Niveau ist, ist nicht unüblich für Roborock-Saugroboter (Bestenliste). Für Wirbel sorgt der verbaute Roboter-Arm. Dadurch kann der Roboter Gegenstände, wie Handtücher oder Socken, mit einem Maximalgewicht von 300 g aufnehmen und in eine Box ablegen, die Ihr vorher in der gescannten Karte hinzugefügt habt.

Firmware-Update: Roborock löst das größte Problem

Keine Frage, der Roboter-Arm ist wirklich beeindruckend. Ich meine, wie hat es Roborock geschafft, den flachsten Saugroboter auf den Markt zu bringen, und dann noch einen Roboter-Arm zu integrieren. So einzigartig das Ganze in der Theorie ist, so ernüchternd war das Ergebnis in der Praxis. Im unserem Test hat der Saros Z70 Socken und Handtücher zuverlässig erkannt und aufgenommen, jedoch nicht in der Box abgelegt. Stattdessen landeten die Sachen vor der Box oder ganz woanders.

Firmware-Update-Bildschirm für Roborock Saros Z70, der aktuelle und neueste Version mit Download-Fortschritt zeigt.
Das Update, auf das alle Saros-Z70-Nutzer gewartet haben / © nextpit

Diese Fehler gehören der Vergangenheit an. Roborock hat ein Firmware-Update veröffentlicht, bei dem die Greif- und Ablagestrategien optimiert wurden, um die Effizienz des Roboter-Arms zu verbessern. Ich habe die Funktionen des Greifarms nachgetestet und kann bestätigen, dass die Funktionsweise des Roboter-Arms signifikant besser ist als zum Testzeitpunkt. Anders als im Test legt der Roboter Socken und Handtücher in der Box ab.

Im Prinzip ist der Roborock Saros Z70 spätestens jetzt mit dem neuesten Update der neue Maßstab und Vorbild für zukünftige Saugroboter. Einzig verbleibender Kritikpunkt ist und bleibt der hohe Kaufpreis von 1.799 Euro. Dass Konkurrenten ähnliche Saugroboter bauen werden, ist nur eine Frage der Zeit. Die eigentliche Frage ist, ob es andere Hersteller schaffen, einen technisch vergleichbaren Roboter zu bauen, der keine 1.799 Euro kostet.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Mafia X Bioshock Bundle: Humble bündelt zwei Serien voller Action-Klassiker


Mafia X Bioshock Bundle: Humble bündelt zwei Serien voller Action-Klassiker

Humble Bundle schnürt zwei Klassiker-Serien zu einem Bundle. Das „Mafia X Bioshock Bundle“ enthält genau das, was der Name verspricht: Alle Spiele der Serien Mafia und Bioshock, fast alle als Komplettpaket in den jeweils jüngsten Fassung.

Für 8,71 Euro werden Spieler in ein Utopia geschickt. In der Unterwasserstadt Rapture aus Bioshock 1 sehen Spieler, wie sich eine Gesellschaft entwickelt, die dem Individuum und der Wissenschaft jede Freiheit lässt – ungeachtet moralischer oder sozialer Regeln. In Teil 2 wird gezeigt, welche Konsequenzen ein auf die Spitze getriebener Kollektivismus haben kann.

Bioshock Infinite schickt hingegen in die fliegende Stadt Columbia, wo eine Gesellschaft nach Maßstäben des Amerikanischen Exzeptionalismus gestaltet wurde. Alle Spiele werfen zudem immer wieder die Frage auf, inwieweit Entscheidungen wirklich eigenständig getroffen werden – und ob der Wille tatsächlich frei ist. Die Verbindung aus spannender Erzählebene und packendem Gameplay, das auf eine Mischung aus Waffen und „Magie“ setzt, macht die Titel zu Klassikern.

Im Paket befinden sich die Remaster der ersten beiden Bioshock-Spiele. Infinite wurde nicht neu aufgelegt und ist nur in der Basisversion enthalten. Die gelungene, zweiteilige Story-Erweiterung Burial at Sea müssen Spieler bei Bedarf deshalb separat kaufen. Wer die Serie nicht kennt, bekommt für rund 9 Euro allerdings auch so eine Menge günstiger und exzellenter Unterhaltung.

15 Euro für Mafia

Für 15,69 Euro liegt außerdem die komplette Mafia-Serie in der Definitive Edition im Paket. Die Bezeichnung ist allerdings irreführend. Bei Mafia: Definitive Edition (Test) handelt es sich um ein hervorragendes Remake, das packende Unterhaltung mit einer Story in den 1920er-Jahren im Stil des Paten bietet. Die offene Welt ist dabei eine reine Kulisse. Die Mafia 2 Definitive Edition (Test) ist hingegen lediglich ein Remaster, das das Original aufhübscht, aber nicht komplett neu denkt und baut. Trotzdem unterhält auch Vito Scalettas Reise in die Mafia der 1950er und 1960er-Jahre.

Die Definitive Edition von Mafia 3 ist hingegen nur ein Komplettpaket, das Hauptspiel und alle DLCs zusammenschnürt. Der Teil gilt aufgrund seines durchschnittlichen Open-World-Konzepts als der schwächste der Reihe, bewahrt sich aber die Urstärke der Reihe: Eine dichte Atmosphäre, hier in den 1970er-Jahren. Die Bündelung von Mafia hat dabei einen Hintergedanken: Die Serie wird noch in diesem Jahr mit The Old Country in Sizilien, der Heimat der Mafia, fortgesetzt, welches Anfang der 1900er-Jahre angesiedelt ist.

Gekauft werden kann das Bundle noch rund 10 Tage lang über die Humble-Webseite.



Source link

Weiterlesen

Apps & Mobile Entwicklung

AMDs Prozedurale Synthese: Bäume Rendern neu gedacht


Forscher der Hochschule Coburg haben zusammen mit Mitarbeitern von AMD ein neues Verfahren zum Echtzeit-Rendern von Bäumen entwickelt, das den Bedarf an Texturen im VRAM extrem reduziert. Genutzt wird dabei das Konzept der prozeduralen Synthese um die Bäume in all ihren Eigenschaften komplett in Echtzeit zu erstellen.

Die Arbeit wurde kürzlich auf der Konferenz „High Performance Graphics 2025“ (PDF) vorgestellt. Die prozedurale Synthese (englisch: „procedural generation“) ermöglicht es, die Bäume in all ihren Eigenschaften komplett von einem Algorithmus in Echtzeit zu erstellen, ohne dass zuvor erstellte Texturen in den VRAM geladen werden müssen. Dabei werden praktisch alle relevanten Parameter berücksichtigt, die sich ein Entwickler wünschen könnte und nebenbei benötigt der Algorithmus noch verblüffend wenig Rechenzeit, um eine dichte Vegetation zu erschaffen.

Prozedurale Synthese ist keine neue Methode und wird bereits seit Jahrzehnten benutzt, um einzelne Aspekte von Videospielen mit minimalem Speicherbedarf zu erstellen. Beispiele sind die Schusswaffen im 2009 erschienen Borderlands, derer 17 Millionen Stück per prozeduraler Synthese erstellt werden. Auch No Man’s Sky nutzt die Methode für die Erstellung der vielen Planeten samt Flora und Fauna, um die mit über einer Trillion möglicher Planeten beworbenen „endlosen Weiten“ darstellen zu können.

Das Vorgehen ist dabei im Prinzip einfach: Anhand sorgfältig definierter Parameter, denen der Spieleentwickler nach Wunsch Werte zuweist, wird beim Start des Spiels die Landschaft synthetisiert. Das passiert nicht zufällig, sondern immer gleich, so dass der Entwickler die Kontrolle über alle Eigenschaften der Landschaft behält. Allerdings können die Werte, die einzelnen Teilen der Landschaft zugewiesen werden, vom Zufallsgenerator erstellt werden.

Mit der prozeduralen Synthese geht immer einher, dass VRAM eingespart wird, weil vorgefertigte Texturen durch die Synthese ersetzt werden. Das macht die Methode für Videospiele besonders interessant.

Was ist neu am Ansatz von AMD?

Bäume werden heutzutage bereits prozedural synthetisiert, der Vorgang benötigt pro Baum aber mehrere Sekunden und wird deshalb im Vorhinein für mehrere Level of Details (LOD) pro Baum erstellt und als Satz von Texturen abgespeichert. Im Spiel werden dann lediglich die Texturen geladen, für den einzelnen Baum muss nichts mehr berechnet werden. Da bei Grafikkarten die Größe und Geschwindigkeit des VRAMs in den letzten Jahren langsamer wuchs als die Rechenleistung, ist die Auslagerung der Arbeit in den VRAM aber immer weniger sinnvoll. Moderne, hochdetaillierte Spielewelten müssen im Gegenteil besonders sparsam mit VRAM-Belegung und Bandbreite umgehen.

Der Ansatz von AMD ist nun Entwicklern einen Baukasten zur prozeduralen Synthese von Bäumen zur Verfügung zu stellen, der nahezu alle Anwendungsfälle abdeckt und dadurch universell und besonders einfach zu benutzen ist. Der Ansatz basiert auf einem verhältnismäßig einfachen Modell für die Synthese von Stämmen und Zweigen von 1995, das durch zahlreiche Eigenschaften erweitert wurde um vollkommen realistische Bäume zu erzeugen. Mit mehreren graphischen Optimierungen wurde die Rechenzeit im Anschluss soweit reduziert, dass Echtzeit-Rendering möglich wird.

Hohe Realitätsnähe bei Form, Rinde und Blättern

Das Modell erzeugt Stamm und Zweige in maximal vier Stufen, wobei Stufe 0 der Stamm ist und jede weitere Stufe dünnere abzweigende Äste erzeugt. Zusätzlich kommen als letzte Stufe die Blätter hinzu, die ursprünglich als Textur vorgesehen waren. Ein vertikaler Parameter erlaubt außerdem noch das Wachsen in Richtung Sonne beziehungsweise den Einfluss der Schwerkraft zu modellieren.
Von den Forschern um AMD wurde das klassische Modell um folgende Fähigkeiten erweitert: Die Darstellung von Blättern, Nadeln, saisonalen Veränderungen, gestutzten Ästen sowie Animationen (zum Beispiel bei Wind), weiche Übergänge an den Stämmen und prozedural erzeugte Höhenunterschiede auf der Oberfläche.

Um die Oberfläche der Bäume besonders realistisch zu gestalten, wird zuerst die Form des Baums geglättet. Denn da die Geometrie der Stämme beziehungsweise Äste mit sehr wenig Parametern definiert wird, ist sie verhältnismäßig grob. Das Modell interpoliert diese grobe Oberfläche als kubisch hermiteschen Spline, um nahtlose Übergänge zu ermöglichen.
Gleichzeitig gibt es einen aufwendigen Mechanismus, um Baumrinde realistisch darzustellen. Dazu wird unter Anderem auf Tesselation zurückgegriffen, allerdings wird zuvor aufwendig geprüft, welche Tesselation-Faktoren notwendig sind und wie stark diese genutzt werden müssen. Geht man nahe an einen Baum heran, wird die tesselierte Rinde durch eine mit prozedural erzeugten Höhenunterschieden geformte ersetzt. Das Verfahren wird als Summe bekannter Methoden nur kurz beschrieben, aber das Ergebnis ist definitiv beeindruckend.

Die interpolierte Baumoberfläche wird mit Worley-Rauschen und Perlin-Rauschen strukturiert.
Die interpolierte Baumoberfläche wird mit Worley-Rauschen und Perlin-Rauschen strukturiert. (Bild: Hochschule Coburg)

Für die Blätter wird ebenfalls auf umfangreiche Technik zurückgegriffen, um bei der Realitätsnähe keine Wünsche offen zu lassen. Der Entwickler definiert lediglich eine Blatthälfte mit drei Koordinaten und eine Anzahl von Lappen, aus denen sich das Blatt zusammensetzt. Der Algorithmus trianguliert daraus die Form und erstellt dynamisch ein LOD, das zur Distanz zwischen Blatt und Betrachter passt. Der Übergang zwischen verschiedenen LODs ist damit nicht mehr stufenweise, sondern nahtlos.
Geht man sehr nahe an ein Blatt heran, werden Parameter für die Blattadern, die Dicke des Blatts und dessen Oberfläche genutzt, um prozedural eine detaillierte Darstellung zu erzeugen. Bei Nadelbäumen werden diese Blattader-Parameter als Nadeln interpretiert.

Blattadern bzw. Nadeln sind vom Entwickler anpassbar.
Blattadern bzw. Nadeln sind vom Entwickler anpassbar. (Bild: Hochschule Coburg)

Saisonale und physikalische Veränderungen

Wer der Meinung ist, dass mit Stamm, Zweigen und Blättern alles getan ist, greift zu kurz. Das neue Modell unterstützt außerdem noch die Veränderungen der Bäume mit den Jahreszeiten, Animationen zur Interaktion mit Wind sowie weitere Anpassungen.
Für die Jahreszeiten gibt es einen eigenen Parameter, der automatisch die Anwesenheit von Blättern (Winter vs. Sommer) sowie deren Anzahl (graduelles Fallen der Blätter im Herbst) steuert.

Im Winter fehlen Blätter, während die Nadeln eine gefrorene Oberfläche bekommen. Schnee auf den Ästen wird per Höhenunterschied in vertikaler Richtung eingestellt, wobei die zugewonnene Oberfläche die Materialeigenschaften (Farbe, Verhalten) von Schnee bekommt. Gleichzeitig wird der Parameter für die Schwerkraft erhöht, so dass sich Zweige nach unten biegen.
Im Frühling werden Blüten synthetisiert, die mit dem gleichen Algorithmus wie Blätter, aber mit mehr Lappen und in Ringform, erzeugt werden. Im Sommer wird eine zufällige Menge der vorher erschienenen Blüten zu Früchten, die eine tesselierte Oberfläche erhalten. Neben dem Verschwinden von Blättern ändert sich im Herbst auch deren Farbe graduell. Die Blätter verschwinden dabei nicht gleichzeitig sondern bekommen zufällig einen zeitlichen Versatz zugewiesen.

Benchmarkszene im Sommer.
Benchmarkszene im Sommer. (Bild: Hochschule Coburg)
Benchmarkszene im Herbst.
Benchmarkszene im Herbst. (Bild: Hochschule Coburg)
Benchmarkszene im Winter.
Benchmarkszene im Winter. (Bild: Hochschule Coburg)

Bewegung im Wind in Abhängigkeit von Windstärke und -Richtung wird beim Erzeugen des Baums berechnet. Dazu werden alle synthetisierten Elemente vom Wind weggedreht, wobei die Drehung chaotisch oszilliert, um die Dynamik der Bewegung darzustellen. Die Stärke der Oszillation hängt von Länge und Dicke der Äste ab.

Vergleich verschiedener Windgeschwindigkeiten über 10 Sekunden.
Vergleich verschiedener Windgeschwindigkeiten über 10 Sekunden. (Bild: Hochschule Coburg)

Als letzte Qualitätsmaßnahme können Äste per Raytracing Algorithmus einen Strahl in Wachstumslänge aussenden. Trifft der Strahl in kurzer Distanz auf ein Objekt, wird der Ast entsprechend gekürzt. Dadurch wird verhindert, dass Bäume durch andere Objekte durchgehen, das sogenannte Clipping.

Wie funktioniert das in Echtzeit?

Um effizientes Rendern dieser Bäume zu ermöglichen, werden zwei neue Funktionen von DirectX 12 benutzt: Work Graphs und dessen Funktion Mesh Nodes, die beide erst 2024 vorgestellt wurden. Work Graphs beschreibt die Möglichkeit, dass eine Rechenaufgabe (Shader) selbstständig neue Aufgaben erzeugt. Dadurch sind weniger Umwege zur CPU zur Abfrage neuer Befehle notwendig und die GPU wird in gewisser Weise autonom. Das hat Vorteile bei rekursiven Strukturen oder wenn man einen Teil der Grafik bis zu einem gewünschten Detaillevel Stück für Stück aufbauen möchte.

Dabei wird hier besonders clever vorgegangen: Um Overhead zu vermeiden wird nicht jeder Teil des Baums in einen eigenen Shader gepackt, sondern Aufgaben werden so gebündelt, dass die typischen 32 Werte pro Befehlskette (Wave32) erfüllt werden. Analog wird bei der Berechnung der Blätter vorgegangen, so dass genug Blätter pro Befehl berechnet werden müssen um die Rechenwerke auszulasten.

Diese Work Graphs waren bislang nur innerhalb von Compute-Aufgaben möglich. Zur Nutzung im Umfeld der Spielegrafik benötigte es also eine zusätzliche Funktion, die das Ergebnis entgegen nahm und an den Rasterizer zur Bildausgabe schickte. Für kleinteilige Aufgaben gab es dadurch zusätzlichen Overhead. Mesh Nodes setzt an der Stelle an und ermöglicht es, einem autonom aufgerufenen Shader direkt Ergebnisse an den Rasterizer zu schicken.

Bevor Teile eines oder ein ganzer Baum synthetisiert werden, wird Culling durchgeführt. Culling ist eine Prüfung, ob die zu erstellenden Objekte im Sichtfeld des Betrachters liegen. Ist das nicht der Fall, wird das Objekt übersprungen. Das Ganze geschieht als generationenübergreifendes Culling, das heißt alle nachfolgenden Teile werden bei der Prüfung berücksichtigt, damit nicht eine Blattspitze am Ende doch sichtbar wäre und so Lücken beim Überspringen entstehen könnten. Das Culling erlaubt so die volle Bildtreue bei gleichzeitig gesparten Ressourcen.

Bei den Blättern, die zahlenmäßig sicher am meisten vorhanden sind, wird aggressiv das oben beschriebene, nahtlose LOD angepasst. Ist der Betrachter sehr weit weg, wird automatisch die Anzahl der gezeigten Blätter reduziert, um Rechenaufwand zu sparen. Damit der Unterschied nicht auffällt, werden die Blätter, die auch bei großer Distanz stehen bleiben, langsam größer während die, die verschwinden, langsam kleiner werden. Bei Blättern mit mehreren Lappen verschmelzen diese mit wachsender Distanz zu einem.

Als Letztes wird zum Erreichen einer bestimmten Framerate eine dynamische Detailstufe ähnlich wie die Algorithmen für Super Resolution von AMD und Nvidia vorgeschlagen. Diese ist allerdings nicht pixelbasiert, sondern das LOD der Bäume wird nahtlos von Frame zu Frame innerhalb vom Entwickler vorgegebener Grenzen hoch- beziehungsweise heruntersetzt. Die einzelnen Parameter, die sich in der Qualität ändern dürfen, können priorisiert werden, so dass die unwichtigsten Details zuerst reduziert werden. Die maximale Änderungsrate der Darstellungsqualität kann ebenfalls festgelegt werden, um abrupte Qualitätsverluste zu vermeiden.

Das Demobeispiel im Video

Die Forscher haben eine Benchmarkszene mit 1.200 Bäumen, die den Park Ørstedsparken in Kopenhagen nachbildet, erstellt. Sie wurde auf einer AMD Radeon RX 7900 XTX gerendert. Im Video zeigen sie diese sowie die verschiedenen Funktionen des Tools.

Der Benchmark wird von den Forschern abschließend umfassend analysiert. Um zu zeigen, wie viel VRAM eingespart wurde, rechnen die Forscher vor, dass eine vergleichbare Szene aus statischen Texturen knapp 35 GiB an Speicher belegen würde. Zusätzlich genutzte Features wie mehrere LODs, saisonale Veränderungen und Wind würde die Menge weiter erhöhen. Die Parameter, aus denen die gesamte Szene prozedural synthetisiert wurde, benötigen aber nur 51 KiB. Das sind etwa 704 Bytes pro Baum.
Die Forscher erwähnen allerdings auch, dass die komplexen Shaderstrukturen insbesondere beim Work Graph zusätzlich 1,5 GiB an Speicher verbrauchen. Dieser Speicherbereich steht nach dem Renderschritt zwar wieder zur Verfügung, ganz so enorm wie anderswo berichtet ist die Ersparnis an VRAM aber nicht.

Frametimes in der Benchmarkszene.
Frametimes in der Benchmarkszene. (Bild: Hochschule Coburg)

An Geschwindigkeit mangelt es der Szene nicht. Im Durchschnitt werden nur 3,13 ms gebraucht, um die Bäume komplett zu erstellen. Mit Geometrie-Buffer und Schatten werden es 4,72 ms. Die gesamte Szene mit Gras, Umgebungsverdeckung, Reflexionen und TAA benötigt 7,74 ms und liegt damit unterhalb der 8,33 ms, die für eine Framerate von 120 Hz zur Verfügung stehen. Allerdings wird das je nach Komplexität der Szene über- beziehungsweise unterschritten. Wird hingegen das automatische LOD aktiviert, bleibt die Bildrate auch in den schwierigsten Szenen bei 120 Hz, bei entsprechenden Detailverlusten.

Fazit

Schon mehrfach wurden in der Vergangenheit einzelne Aspekte eines Videospiels mit Prozeduraler Synthese erstellt. Der hier von den Forschern der Universität Coburg und AMD gewählte Weg, Bäume komplett prozedural erzeugbar zu machen, ist neuartig, da den Spieleentwicklern direkt ein Tool zur Verfügung gestellt wird. Die Bäume belegen im Anschluss kaum noch Platz im VRAM, nur während der Berechnung wird welcher benötigt. Dabei läuft zumindest die von den Forschern gezeigte Benchmarkszene mit dutzenden Bäumen gleichzeitig im Blickfeld sehr flüssig.

Wie ist nun die Qualität der erstellten Bäume? Zugegeben ist die Darstellung stellenweise noch durchwachsen. Beim Betrachten des Demovideos fällt mehrfach auf, dass insbesondere die Blätter auf mittlerer Distanz recht zweidimensional wirken. Viele Bäume in größerer Distanz wirken dagegen überzeugend, ebenso wie einzelne Elemente von nahem, wenn die höchste Detailstufe greift. Deswegen scheint es dem Autor wahrscheinlich, dass letzten Endes eine Kombination aus prozeduraler Synthese und vorgefertigten Texturen in Zukunft zum Einsatz kommen wird. So könnten einzelne Bäume noch mit Texturen bedacht werden, während größere Ansammlungen mit AMDs neuem Ansatz schlank und schnell berechnet werden.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.



Source link

Weiterlesen

Beliebt