Apps & Mobile Entwicklung
The Outer Worlds 2 unter Linux im Test
 
Wie gut läuft The Outer Worlds 2 (Windows-Benchmarks) unter Linux, wo es doch nicht einmal offiziell zum Steam Deck kompatibel ist? ComputerBase hat mit AMD Radeon RX, Nvidia GeForce RTX und Intel Arc nachgemessen und auch DLSS, FSR und XeSS getestet. Fazit: AMD hui, Nvidia pfui – und Intel irgendwo dazwischen.
Testsystem und Testmethodik
Beim Testsystem handelt es sich um ein- und dieselbe Plattform mit AMD Ryzen 7 7700X. Dieser ist auf einem MSI B650 Gaming Plus WiFi samt 32 GB DDR5-6000 installiert. Getestet wird offen auf einem Benchtable. Als Grafikkarten kommen von AMD eine Radeon RX 9070, von Nvidia eine GeForce RTX 5070 und von Intel eine Arc B580 zum Einsatz. Die Bildausgabe erfolgt in Full HD. Das Spiel liegt für alle Tests auf einer SSD vom Typ Corsair MP600 Core XT 2 TB.
- AMD Radeon RX 9070 16 GB
 - Nvidia GeForce RTX 5070 12 GB
 - Intel Arc B580 12 GB
 
Für Linux kommt CachyOS im aktuellen Patch-Stand mit Kernel 6.17.5, Mesa 25.2.5 und Nvidia 580.95.05 zum Einsatz. Als Desktop dient KDE Plasma 6.5.0 mit Wayland. Auch Windows 11 verfügt über alle Updates und die Treiber-Versionen Adrenalin 25.10.1, GeForce 581.57 und Arc 8135. Proton liegt als CachyOS-Version vom 17.10. vor, sie erlaubt FSR 4 unter Linux, das es dort offiziell noch nicht gibt.
Testergebnisse
Die Benchmarks finden abweichend vom regulären Windows-Test von The Outer Worlds 2 statt. Alle Benchmarks wurden neu erstellt. Wichtig ist dabei anzumerken, dass die Sequenz in diesem Test fordernder ist als im Windows-Test und auch deshalb das Ergebnis nicht 1:1 übertragen werden kann.
Die 20-sekündige Testsequenz in „Paradise Island“ wird für GeForce- und Radeon-Karten mit Upsampling „Ausgeglichen“ durchgeführt. Die im Gegensatz zum großen Windows-Test angepasste Einstellung ist der geringeren Monitor-Auflösung geschuldet. DLSS 4 und FSR 4 laufen beide nativ unter Linux; OptiScaler wird hier nicht benötigt. Die Intel-Grafikkarte setzt auf XeSS „Ultra-Quality“. Ansonsten sind die restlichen Einstellungen gleich. Das Preset ist Sehr-Hoch und Raytracing wird abwechselnd mit aktiviertem Hardware-Lumen und ohne getestet.
Benchmarks mit AMD Radeon RX 9070
Aktuelle Radeon-RX-Grafikkarten mit RDNA 4 können sich im Linux-Test zu The Outer Worlds 2 hervortun. Nicht nur funktioniert FSR 4 mit CachyOS auf Anhieb, auch läuft der Unreal-Engine-Titel auf dem verwendeten System minimal besser unter Linux als unter Windows.
Die richtige Überraschung aber kommt erst beim Einsatz von Hardware-Raytracing. Hier gelingt es Linux sogar schneller zu sein als unter Windows – in der Regel ist Raytracing die Achillesferse von AMD unter Linux.
Der Grund hierfür liegt vermutlich in den hohen Anforderungen des Spiels an die CPU. Leider stand kein anderer Prozessor zur Verfügung, um diese These zu bestätigen. Dass The Outer Worlds 2 allerdings sehr CPU-lastig ist, ist gemeinhin bekannt. Erklären würde es das Ergebnis allemal, da Spiele unter Linux in CPU-kritischen Szenarien aufgrund des geringeren Overheads besser abschneiden.
Benchmarks mit Nvidia RTX 5070
Nvidias GeForce enttäuscht in The Outer Worlds 2 unter Linux. Konkret stehen technische Probleme im Weg. Diese können am verwendeten Proton liegen oder dem Nvidia-Treiber. So oder so verweigert The Outer Worlds 2 den Dienst, wenn DLSS aktiviert wird. Das gilt sowohl für CachyOS-Proton als auch die reguläre Proton-Experimental-Version.
Die Probleme zeigen sich durch ein Einfrieren des Spiels. Nur im Raytracing-Test gelang es drei Durchläufe zu absolvieren. Interessanterweise ist die Performance hier ähnlich wie unter Windows. Die üblichen 20 bis 40 Prozent Leistungsverlust wie sonst bei Nvidia unter Linux tauchen nicht auf.
Allerdings lässt sich nicht verifizieren, ob das Spiel auch alle Optionen so übernimmt, wie sie im Menü eingestellt sind. Bei den Benchmarks ohne Raytracing war keine Protokollierung der Bildrate möglich, allerdings bewegten sich die FPS im Bereich der 60. Kurzum: Zum aktuellen Stand läuft The Outer Worlds 2 unter Linux nicht richtig mit Nvidia. Zukünftige Patches könnten das ändern.
Benchmarks mit Intel Arc B580
The Outer Worlds 2 funktioniert auch mit Intels Battlemage-Grafikkarten. Der Performanceverlust ist zwar stellenweise deutlich, aber spielbar ist der Titel allemal. 29 Prozent weniger Leistung muss man als Linux-Spieler in Kauf nehmen. Damit landet das Spiel mit den Einstellungen im semi-flüssigen 30-FPS-Bereich. Da die Frametimes stabil sind, steht einer Spielesitzung mit Intel nichts im Weg, lediglich die Grafikregler müssen angepasst werden.
Technisch ist Outer Worlds 2 auch mit Hardware-Raytracing auf Intels-Grafikkarten lauffähig. Allerdings landen dann in etwa 6 FPS auf dem Bildschirm, was mehr einer Diashow gleicht. Die Option muss zum Spielen daher unbedingt deaktiviert bleiben.
Fazit
Linux-Spieler mit moderner AMD-Grafikkarte werden auch mit der Windows-Version von The Outer Worlds 2 glücklich. Nicht nur funktioniert FSR 4 direkt ab Werk, auch kann sich die Performance mehr als sehen lassen. Ohne Raytracing sind Windows und Linux hier gleichauf. Wer mit Raytracing spielt, erhält sogar mit Linux mehr FPS – ein Novum, weil die Raytracing-Implementierung von AMD-Karten unter Linux oft weit hinterherhinkt, auch wenn es in diesem Fall wohl auf die verwendete CPU zurückzuführen ist.
Generell ist The Outer Worlds 2 ein Titel für Open-Source-Gamer, denn auch Intel-Spieler können direkt ab Release mit relativ guter Performance spielen. Zwar liegt die Leistung hinter der unter Windows, doch dafür, dass Intel oft Probleme unter Linux hat, funktioniert es gut.
Lediglich die Raytracing-Performance lässt zu wünschen übrig.
Davon kann bei Nvidia keine Rede sein: Beim Einsatz von DLSS friert das Spiel ein. Das mag aktuell ein Treiber- respektive Proton-Bug sein, doch zeigt es erneut, dass AMD unter Linux die aktuell bessere Wahl ist.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Apps & Mobile Entwicklung
Nächste AI-Partnerschaft: Cloud-Deal von OpenAI und Amazon im Wert von 38 Mrd. Dollar
 
					
Eine weitere Cloud-Partnerschaft für OpenAI: Der ChatGPT-Entwickler hat ein Abkommen mit Amazon abgeschlossen, das einen Gesamtwert von 38 Milliarden US-Dollar hat. Damit laufen die OpenAI-Modelle nun auch in den AWS-Rechenzentren.
Die Laufzeit des Abkommens ist auf sieben Jahre angelegt, der Umfang soll über die Zeit wachsen. OpenAI erhält damit Zugang zu Hunderttausenden modernen Nvidia-GPUs. Zusätzlich ist es möglich, die Rechenleistung bei Bedarf um Millionen von CPUs zu steigern. Als Aufgabengebiet nennt OpenAI „agentic workloads“. Agenten sind die KI-Systeme, die eigenständig Aufgaben erledigen – also etwa das Deep-Research-Tool in ChatGPT oder die Agenten-Lösung im neuen Browser Atlas.
Die Infrastruktur, die Amazon für OpenAI errichtet, umfasst Cluster mit GB200- und GB300-Chips, die auf Amazon EC2 UltraServers im selben Netzwerk laufen. Das ermöglicht niedrige Latenzen, um Workloads effizient berechnen zu können. Die Cluster sind dabei sowohl für Inferenz-Workloads – also den Betrieb von ChatGPT – als auch für das Training neuer Modelle ausgelegt, das System lässt sich an die jeweiligen Anforderungen anpassen.
Alle in der Partnerschaft festgelegten Kapazitäten sollen bis Ende 2026 bereitgestellt werden, ab 2027 besteht die Möglichkeit, diese noch zu erweitern.
Eine Zusammenarbeit zwischen Amazon und OpenAI gab es bereits bei den Modellen mit offenen Gewichten. Seit August sind GPT-oss 12b und GPT-oss 20b über Amazon Bedrock abrufbar.
Mehr Freiheiten für OpenAI durch erneuerten Microsoft-Deal
Die Ankündigung erfolgt kurz nachdem sich OpenAI und Microsoft auf eine erneuerte Partnerschaft geeinigt haben. Microsoft hatte bis dato Exklusiv- und Veto-Rechte im Bereich der Cloud-Partner, die OpenAI nutzen durfte. Nun hat der KI-Entwickler mehr Freiheiten, die Konsequenz ist ein weiteres Cloud-Abkommen.
Es reiht sich in die Liste der OpenAI-Partnerschaften mit Unternehmen wie Nvidia, AMD, Oracle und Broadcom sowie dem Stargate-Projekt ein.
Apps & Mobile Entwicklung
Ryzen X3D und mehr betroffen: Patentfirma Adeia verklagt AMD wegen zehn Verletzungen
 
					
Patentfirma Adeia stellt in ihrem neu veröffentlichten Quartalsbericht als „Business Highlight“ dar, Klage gegen AMD eingereicht zu haben. Dabei geht es um angeblich zehn Verletzungen von Know-How, welches von Adeia stammen soll. Adeia hatte in den vergangenen Jahren unter anderem bereits X, Disney und viele weitere verklagt.
Diese Patente stehen zur Diskussion
Sieben Patente, die AMD verletzt haben soll, drehen sich dabei allein um das Thema Hybrid Bonding, das durch die Kombination verschiedenster Materialien Chip-Interconnects auf mikroskopisch kleiner Ebene möglich macht.
Hybrid Bonding ist ein breites Feld, Adeia zielt aber explizit auf die Umsetzung von AMD beim 3D V-Cache, wie er in X3D-Gaming-CPUs und den Epyc-X-Server-Prozessoren zum Einsatz kommt, ab.
Drei weitere Patente soll AMD im Bereich fortschrittlicher Fertigung verletzt haben. Adeia sucht, wie üblich bei solchen Klagen, finanzielle Wiedergutmachung, oder den Verkaufsstopp der Produkte, die auf ihrem Wissen beruhen.
Von Adeia selbst stammen die Patente indes wohl zum großen Teil nicht. Vielmehr geht es um Know-How, welches unter anderem von einem der Vorgängerunternehmen Tessera entwickelt wurde, berichtet Reuters.
Tessera existiert seit 1990, nach einigen Übernahmen inklusive Zugehörigkeit DTS hört das Unternehmen seit 2017 auf den Namen Xperi. Adeia ist nun die Sammelstelle, die 2022 aus ViVo, Rovi und Xperi ausgekoppelt wurde und seitdem IP anhäuft und mit dem Einfordern von damit verbundenen Ansprüchen Geschäfte macht. Abfällig werden solche Firmen auch „Patenttroll“ genannt.
Gespräche zuvor wohl geplatzt
Zwischen AMD und Adeia scheint es zuvor aber bereits Gespräche gegeben zu haben. Darauf deuten Aussagen sowie eine nun nach unten korrigierte Quartalsprognose von Adeia hin. Demnach hatte das Unternehmen wohl bisher mit einer außergerichtlichen, lukrativen Einigung zwischen beiden Firmen gerechnet, die nun aber nicht zustande kam.
AMD wiederum sieht offensichtlich die Chance, am Ende richterlich festgelegt keine Patente verletzt zu haben, oder zu einer geringeren Zahlung verurteilt zu werden. Adeias Aktie gab am Montag um über 16 Prozent nach, während sich AMDs quasi nicht bewegt hat.
After prolonged efforts to reach a mutually agreeable resolution without litigation, we believe this step was necessary to defend our intellectual property from AMD’s continued unauthorized use.
While we continue to be open to reaching a fair and reasonable arrangement that reflects the value of our intellectual property, we remain fully prepared to pursue resolution of this matter through the courts to safeguard our rights and firmly believe in our ability to achieve a successful outcome.
Adeia
Apps & Mobile Entwicklung
Diesen Roboter könnt Ihr bereits kaufen – aber bitte tut es nicht! » nextpit
 
Wird 2026 das Jahr, in dem wir anfangen, humanoide Roboter als Haushaltshilfe zu kaufen? Zumindest den 1X Neo werdet Ihr dann käuflich erwerben können. Wieso das aber gar keine so gute Idee ist, erkläre ich Euch hier.
Ja, humanoide Roboter werden das „next big thing“, wenn man Elon Musk und noch ein paar anderen glauben darf. Der Tesla-Chef sieht ein Marktvolumen von 10 Milliarden Robotern weltweit und will selbst schon in den nächsten Jahren etwa eine Million Tesla-Roboter jährlich dazu beisteuern.
Bislang sehen wir humanoide Roboter aber weder auf den Straßen noch in unseren Wohnungen. Vielleicht ändert sich das mit diesem vom norwegisch-US-amerikanischen Unternehmen 1X vorgestellten Kollegen: Der Roboter namens Neo soll ab 2026 ausgeliefert werden, kann in den USA aber jetzt über die Produktseite von 1X bereits bestellt werden.
Das kann der 1X Neo
Ich bin damit einverstanden, dass externer Inhalt geladen wird. Personenbezogene Daten werden womöglich an Drittplattformen übermittelt. Nähere Informationen enthält die Datenschutzerklärung.
Der rund 1,65 Meter große und knapp 30 Kilo schwere Roboter kann Gewichte von bis zu 70 Kilogramm anheben und transportiert Gewichte von bis zu knapp 25 Kilo. Er übernimmt einfache Aufgaben wie Aufräumen, Staubsaugen oder Wäschefalten – zumindest in Zukunft. Dazu später mehr.
Der in drei Farben erhältliche Roboter kostet 20.000 US-Dollar oder 489 Dollar monatlich und soll zunächst in den USA erhältlich sein. Er besitzt ein im Wesentlichen aus Aluminium gefertigtes Skelett und unter seiner Bekleidung ein Polymer-Gittergehäuse. Er ist also so soft gestaltet, dass sich ein Mensch bei Kontakt mit ihm möglichst nicht verletzen soll.
Er ist mit einem Large Language Model ausgestattet, kann also Gespräche führen, Termine verwalten oder Einkaufslisten anlegen. Über Kameras (er besitzt Kamera-Augen mit jeweils 8 MP) und Sensoren entwickelt er ein visuelles Gedächtnis, um sich besser an seine Umgebung und die Bewohner:innen anzupassen. Mit 22 dB ist er zudem relativ leise.
Angangs kann der humanoide Roboter nur eine Handvoll Ausgaben erledigen (beispielsweise die Tür öffnen). Er lernt aber mit der Zeit dazu und genau das ist meines Erachtens der fette Haken.
Der Mensch als Versuchskaninchen und Ausbilder
Zum Start braucht Neo noch Hilfe. Er muss quasi erst noch lernen, was in Eurem Haushalt zu tun ist. Das wäre grundsätzlich kein Problem, denn wir wissen ja, dass der Kamerad noch lernt. Schwierig wird es aber, wenn man erfährt, dass der Roboter zumeist anfangs nicht eigenständig agiert, sondern ferngesteuert wird.
Das erinnert wieder an Tesla. Auch dort gab es pro Roboter auch mehr oder weniger versteckt eine Person, die den Humanoiden fernsteuerte. Genauso soll das bei Neo auch laufen: Mitarbeitende von 1X sollen den Roboter per Teleoperation fernsteuern, damit er aus ihren Handgriffen lernt.
Diese Teleoperation ist natürlich nur dann möglich, wenn der Mensch, der den Roboter steuert, auch in die Wohnung sehen kann. Die Kameraaugen ermöglichen der Person also, den Roboter zu lenken und ihm somit neue Tricks beizubringen.
Bitte etwas mehr Privatsphäre, Herr Roboter!
Soll er also Euer Bett machen, sieht der 1X-Mensch mit der Fernbedienung demzufolge in Euer Schlafzimmer. Er sieht Eure Küche, Euer Wohnzimmer und gegebenenfalls auch Euch. Daher meine Frage in die Runde: Möchtet Ihr, dass Euer 20.000 Peitschen teure Roboter sich alles ansehen kann, was in Euren eigenen vier Wänden vor sich geht?
Wir müssen vermutlich damit leben, dass ein solcher Roboter Szenen unseres Lebens erfasst. Ebenso, wie wir im Internet unsere Spuren hinterlassen und ChatGPT unsere Geheimnisse verraten. Aber zumindest für mich macht es noch einmal einen Unterschied, ob Daten möglicherweise irgendwo landen, wo ich sie nicht mehr kontrollieren kann – oder ob sich jemand komplett Fremdes in Echtzeit durch meine Bude bewegt.
Fairerweise sei dazu gesagt: Ihr könnt kontrollieren, wann der Roboter Aufgaben erfüllen soll, außerdem könnt Ihr „No-go-Areas“ einrichten, die der Roboter nicht betreten soll. Aber im Grunde schafft man sich das Teil doch an, damit er einem ständig überall zu Diensten sein kann, oder? Schaut gern ins Video des Wall Street Journal rein. Dort erfahrt Ihr mehr darüber, was Neo schon kann und was nicht.
Ich bin damit einverstanden, dass externer Inhalt geladen wird. Personenbezogene Daten werden womöglich an Drittplattformen übermittelt. Nähere Informationen enthält die Datenschutzerklärung.
Roboter kaufen oder nicht?
Meiner Meinung nach sollte es andere Wege geben, Robotern Hausarbeit beizubringen als über Teleoperationen. Das allein ist für mich ein Grund, mir diesen Kerl ganz sicher nicht zuzulegen, wenn er in Deutschland erhältlich ist.
Wer sich sagt, dass er aktiv mithelfen möchte, dass Roboter so schnell wie möglich lernen, uns im Haushalt zu unterstützen, kann natürlich zuschlagen. Nötiges Kleingeld und Schmerzfreiheit bei der Privatsphäre vorausgesetzt, versteht sich.
Ich fürchte, trotz Tech-Begeisterung bin ich da zu oldschool. Bevor ich mir diesen Roboter gönne, zahle ich lieber weiter für unsere Putzfrau, die zweimal im Monat unser Chaos beseitigt. Solange die schneller, vielseitiger und günstiger ist als Neo, wird das auch so bleiben.
Nichtsdestotrotz sollt Ihr wissen, dass ich davon überzeugt bin, dass diese Roboter unsere Zukunft sind. Das Konzept und der Look des 1X Neo gefällt mir wirklich gut. Wäre halt nur schön, wenn das Teil fertig entwickelt wäre.
- 
																	
										
																			UX/UI & Webdesignvor 3 MonatenDer ultimative Guide für eine unvergessliche Customer Experience
 - 
																	
										
																			UX/UI & Webdesignvor 2 MonatenAdobe Firefly Boards › PAGE online
 - 
																	
										
																			Social Mediavor 3 MonatenRelatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
 - 
																	
										
																			UX/UI & Webdesignvor 2 WochenIllustrierte Reise nach New York City › PAGE online
 - 
																	
										
																			Apps & Mobile Entwicklungvor 2 MonatenGalaxy Tab S10 Lite: Günstiger Einstieg in Samsungs Premium-Tablets
 - 
																	
										
																			Entwicklung & Codevor 3 MonatenPosit stellt Positron vor: Neue IDE für Data Science mit Python und R
 - 
																	
										
																			Entwicklung & Codevor 2 MonatenEventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
 - 
																	
										
																			UX/UI & Webdesignvor 2 MonatenFake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
 
