Apps & Mobile Entwicklung
Resident Evil Requiem: Den Unterschieden zu den PCGH-Ergebnissen auf der Spur
Im Technik-Test zu Resident Evil Requiem kam ComputerBase zu dem Schluss: RTX 5000 hat bei Pathtracing mal wieder keinen Vorteil gegenüber RTX 4000. Doch von Lesern kam Gegenwind: Bei PC Games Hardware kam genau das Gegenteil heraus! Ein Fehler? Nein, wie der Nachtest in Absprache mit PCGH gezeigt hat: beides stimmt.
RTX 5000 vs. RTX 4000: Bei „CB“ keine Vorteile
Nvidias Blackwell-Architektur bietet offiziell verbesserte Raytracing-Einheiten gegenüber dem Vorgänger Lovelace. In Sachen Performance hat sich das bis jetzt aber noch nie so richtig gezeigt. Die Pathtracing-Ergebnisse der Redaktion in Resident Evil Requiem waren dann auch keine große Überraschung: Auch hier konnte sich RTX 5000 nicht von RTX 4000 absetzen. Konkret gelingt es der RTX 5080 nicht auf die RTX 4090 aufzuschließen.
PCGH hat genau das Gegenteil raus?!
Dann wurde die Redaktion in der Community auf die Pathtracing-Benchmarks der Kollegen der PCGH aufmerksam gemacht. In diesen zeigt sich Blackwell deutlich stärker als Lovelace: Die GeForce RTX 5080 ist rund 15 bis 20 Prozent schneller als die GeForce RTX 4090.
Kooperation statt Konfrontation!
Wie kann das sein? Ist vielleicht beides richtig? Oder hat wer einen Fehler gemacht? ComputerBase und PCGH sind der Ursache gemeinsam auf den Grund gegangen, auch um den gegenseitigen Fingerzeigen der Communities eine Alternative gegenüber zu stellen. Kooperation statt Konfrontation.
Nein, kein Fehler gemacht
Zuerst einmal stand die Kontrolle an, ob es einen Messfehler gegeben hat. Die eigene Szene wurde erneut und erstmals auch die von PCGH vermessen – mit den dort genutzten Einstellungen. Fazit: Beide Redaktionen haben korrekt gemessen!
In der Testszene von ComputerBase ist die GeForce RTX 4090 mit Pathtracing und DLSS Performance wirklich die gezeigten 20 Prozent schneller als die GeForce RTX 5080, in der PCGH-Szene mit DLSS Quality liegt dagegen die RTX 5080 16 Prozent vor der RTX 4090. Das ist eine Differenz von satten 36 Prozentpunkten!
Upsampling macht keinen Unterschied aus
Ein Unterschied zwischen den Messverfahren ist das Upsampling: ComputerBase nutzt DLSS Performance, PCGH DLSS Quality. Indem die ComputerBase-Testszene erneut mit DLSS Quality vermessen wurde, die PCGH-Szene dagegen mit DLSS Performance, sollte ein Einfluss durch DLSS ausgeschlossen werden.
Und, nein, daran liegt es auch nicht: In der CB-Sequenz kann sich die GeForce RTX 4090 mit DLSS Quality um 31 Prozent anstatt um 20 Prozent mit Quality von der GeForce RTX 5080 absetzen, was aufgrund der zusätzlichen Renderpixel und damit der höheren Rechenlast eine erwartete Entwicklung ist.
In der PCGH-Sequenz ändert DLSS Performance an der Reihenfolge ebenso wenig. Die RTX 5080 kann sich mit 23 Prozent sogar noch besser als mit DLSS Quality von der RTX 4090 absetzen. Mit dieser Einstellung beträgt die Differenz nur noch 16 Prozent.
Die Ergebnisse bleiben also grundsätzlich gleich, aber sie ergeben mit dem Blick auf die DLSS-Einflüsse noch weniger Sinn: Die GeForce RTX 4090 kann sich aufgrund der zusätzlichen Recheneinheiten bei einer höheren Anzahl an Renderpixel eigentlich immer mehr von der RTX 5080 absetzen, da es ihr leichter fällt, die vielen Einheiten auszulasten. Da die PCGH-Szene genau die gegenteilige Entwicklung aufzeigt, liegt nahe, dass das Ergebnis der GeForce RTX 4090 das ungewöhnliche ist; die Lovelace-Architektur in der Sequenz also ein Problem hat, sei es eine Hardware-Limitierung oder ein Treiber-Limit.
Die Testsequenz ist die Ursache
Bleibt nur noch die Testszene selbst, um den Unterschied zu erklären: Sie ist also verantwortlich für die Diskrepanz. Aber lässt sich sagen, welche besser das Spiel repräsentiert?
Um das zu erklären, hat sich ComputerBase verschiedene Savegames geschnappt, die aus unterschiedlichen Innen- sowie Außenlevels, teils mit Grace und teils mit Leon bestehen. Alle Ergebnisse wurden in WQHD mit DLSS Quality erstellt.
In allen fünf Testszenen ist die GeForce RTX 4090 schneller als die GeForce RTX 5080, teils auch deutlich. Nur einmal wird es knapp, in einer Sequenz liegt die RTX 4090 nur 6 Prozent vor der RTX 5080. Zur Erinnerung: Mit denselben Einstellungen ist die RTX 4090 in der ComputerBase-Testsequenz 31 Prozent schneller als die RTX 5080, bei der PC Games Hardware dagegen die RTX 5080 16 Prozent schneller als die RTX 4090.
Am Ende reichen aber auch in Summe sieben verschiedene Szenen Testszenen nicht aus um zu sagen „Der Wert ist der richtige“, denn das gesamte Spiel repräsentieren sie nicht. Das kann aber auch generell kein Benchmark, ganz gleich welcher.
Schlussbemerkung
Verschiedene Testszenen erzeugen immer leicht unterschiedliche Ergebnisse. Nicht nur, aber auch, weil sich die Last zwischen CPU und GPU teils deutlich verschieben kann. So große Differenzen wie bei den Pathtracing-Benchmarks von ComputerBase und PCGH in Resident Evil Requiem, wo sich die Reihenfolge komplett gedreht hat, sind aber sehr selten anzutreffen.
Doch wie dargelegt, sind die Ergebnisse bei beiden Magazinen korrekt und unterschiedliche Upsampling-Einstellungen auch nicht die Ursache. Es liegt schlicht an der Testsequenz. Unklar bleibt aktuell noch, ob in der Szene von PCGH wirklich die verbesserte Raytracing-Hardware in RTX 5000 dafür verantwortlich ist, oder ein Software-Fehler in Spiel oder Treiber. Die gute Nachricht: In der Regel sind Unterschiede weniger gravierend und selbst wenn sie es mal sind, liegt es nicht an der Unfähig- oder Boshaftigkeit der Tester.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Apps & Mobile Entwicklung
CoWoS-Nachfolger kommt später: TSMCs Pilotlinie für CoPoS wird erst 2028 fertig – für Produkte in 2030+

TSMC bestätigte erstmals, eine Pilotlinie für CoPoS als neuen Packaging-Standard zu bauen. Aber bis zur Markteinführung wird es lange dauern, womit das Unternehmen auch Gerüchten begegnet, die zuletzt eine schnelle Adaption durch Nvidia vermutet hatten. Zwischen Wunsch und Realität liegen demnach wohl doch gewaltige Aufgaben.
CoWoS steht für „Chips on Wafer on Substrat“. Es ist die aktuelle Packaging-Technologie von TSMC, mit denen Nvidia, AMD und viele weitere Firmen, beispielsweise GPU-Dies zusammen mit HBM auf einem Package vereinen und so erst den nutzbaren KI-Beschleuniger hervorbringen. CoWoS hat dabei schon einige Entwicklungsstufen durchgemacht und ist stetig gewachsen, sprich der Interposer ist größer geworden, um noch mehr Chips aufzunehmen
Doch der Ruf nach noch mehr Leistung braucht nun neue Ansätze. Diese suchen die Unternehmen gemeinsam auch beim Packaging. TSMC brachte unter anderem SoW-X ins Spiel, ein System auf einem Wafer. Für gewisse Zwecke funktioniert das auch, an einem klassischen rechteckigen oder quadratischen Substrat scheint in Zukunft aber dennoch kein Vorbeikommen zu sein. Die nächste Stufe heißt deshalb CoPoS.
CoPoS steht für „Chips on Panel on Substrat“. Panel bezieht sich in dem Fall auf die Fertigung der passenden und viel größeren Substrate, die nun nicht mehr von einem runden Wafer bezogen werden, sondern einem rechteckigen Panel. Auch in anderen Bereichen soll das Panel-level Packaging (PLP) gegenüber dem Wafer-level Packaging (WLP) in Zukunft an manchen Stellen Vorrang erhalten, es verspricht nämlich eine höhere Wirtschaftlichkeit – unter anderem beim zukünftigen Glas-Substrat. Dort war bereits von Größen bis zu 600 × 600 mm die Rede, CoPoS geht also in eine ähnliche Richtung.
TSMC bestätigt CoPoS-Entwicklung mit langen Zeiten
Im Rahmen des Quartalsberichts bestätigte TSMC erstmals ganz öffentlich eine Produktionslinie für CoPoS zu bauen. Damit fängt das Unternehmen aber erst im zweiten Halbjahr dieses Jahres an, im kommenden Jahr soll die Einrichtung dann ausgerüstet werden und die Erprobung beginnen. Das Ziel ist es, diese eventuell ab 2028 dann in den Status „Bereit zur Serienproduktion“ überführen zu können. Dafür würde aber eine echte Packaging-Fabrik ausgerüstet werden müssen, ein Start in Serie wäre so frühestens ab Ende 2029 absehbar, mit Produkten für das Jahr 2030. Und all dies würde vor allem gegenüber CoWoS auf so vergleichbar winzigem Niveau passieren, dass es zu Beginn ein echtes Nischenprodukt ist und auch noch längere Zeit bleibt.
Zuvor muss dabei aber auch ersten Problemen begegnet werden, denn die Umsetzung für eine Großserie scheint demnach nicht so leicht zu sein, berichtet DigiTimes aus Asien dazu. Die größeren Chips/Packages haben demnach Probleme mit „uniformity“ und „warpage“ – exakt dies wurde unter anderem aber auch schon als Grund bei Nvidias riesigem Rubin-Ultra-Die genannt, sodass es hier eventuell ein neues Packaging braucht.
An CoWoS ist deshalb wohl im nächsten Jahrzehnt kaum ein vorbeikommen – für die nächsten zwei Jahre ist es aber schon wieder nahezu ausgebucht, also so, wie die letzten fünf Jahre bereits. Die nächste Stufe umfasst weitere Verbesserungen, ein mittels SoIC gestapelte Chip wie beispielsweise ein Ryzen X3D kann nun auch noch mittels CoWoS auf einem Interposer platziert werden. Dies eröffnet neue Möglichkeiten für kommende Generationen an Chips. In der kommenden Woche beim TSMC Technology Symposium 2026 dürfte das Unternehmen auch diesen Punkt als Thema eröffnen.
Apps & Mobile Entwicklung
AMD-Aktie auf Rekordniveau: Angebliche Instinct-MI450-Nutzung bei Anthropic beflügelt

Anthropic sucht per Stellenausschreibung Personal, dass sich neben Nvidias CUDA auch mit ROCm auskennt, also dem AMD-Gegenstück von CUDA. Dieses eine Wort und weitere, zum Teil darauf basierende Gerüchte haben gereicht, dass AMDs Aktie an der Börse reagiert und zum Rekord angesetzt hat.
In der schnelllebigen AI-Zeit kann schon ein Gerücht für deutliche Aktienbewegungen sorgen. Zuletzt schaffte das die Meldung, dass Nvidia einen PC-Hersteller übernehmen könnte. Nun war AMD an der Reihe, diesmal gepaart mit der Meldung, dass Instinct MI450 bei Anthropic unterkommen könnten. Da dieses Gerücht nahezu parallel zur Stellenausschreibung aufkam, ging es für die Aktie entsprechend aufwärts, die erstmals bei über 278 US-Dollar lag.
Rückhalt bekommt der gute Ausblick bei AMD aber auch durch die bereits in dieser Woche veröffentlichten Quartalsberichte von ASML und den sehr guten Zahlen von TSMC. Denn beide sehen kein Ende des KI-Booms, im Gegenteil. Die Aussichten der Unternehmen, die für die Fertigung der Chips von AMD & Co nötig sind, sehen sehr gut aus, was darauf hindeutet, dass die Kundschaft eine entsprechende Nachfrage geäußert hat.
Bei AMD beginnt in diesem Jahr das Zeitalter der Rackscale-Architektur. Helios ist die erste Verschmelzung von Zen-6-Venice-Server-Prozessoren mit Instinct-MI450-AI-Beschleunigern in einem großen Rack. In schneller Folge sollen in den kommenden Jahren weitere Produkte folgen. MI500 mit noch mehr HBM4e und einem darauf angepassten Prozessor Verano – hier erstmals mit von AMD kürzlich bestätigtem SOCAMM2-Speicher – soll neben der Leistung auch die Effizienz im Fokus haben.
Bei Anthropic dürfte auch das Helios-Rack im Gespräch sein, da es explizit auf Hyperscaler und AI ausgelegt ist. Pro Rack kommen 72 MI455X zum Einsatz, die für 2,9 ExaFLOPS an KI-Leistung sorgen sollen. Die Epyc-Prozessoren der nächsten Generation kommen zusammen auf 4.600 Kerne und die 31 TB an HBM4 sollen vereint für 43 TB/s Durchsatz sorgen. Die offizielle Vorstellung dieser Systeme und aller Bauteile wird im Rahmen des Events AMD Advancing AI 2026 ab 22. Juli erwartet.
Apps & Mobile Entwicklung
DeepL: Echtzeit-Sprachübersetzung mit Voice-to-Voice nun Realität

Das KI-Übersetzungstool DeepL hat mit DeepL Voice-to-Voice eine neue Produktreihe vorgestellt, die eine Sprachübersetzung in Echtzeit per mündlicher Kommunikation ermöglicht. Der Einsatz ist insbesondere in virtuellen Meetings vorgesehen, sodass Teams weltweit mühelos über Sprachbarrieren hinweg zusammenarbeiten können sollen.
Kommunikation ohne menschlichen Übersetzer
Gespräche in unterschiedlichen Sprachen sollen damit künftig vollständig ohne Dolmetscher auskommen. DeepL Voice-to-Voice ermöglicht es, ganz natürlich in der eigenen Sprache zu sprechen, während das Gesagte beim Empfänger präzise übersetzt wird. Laut CEO Jarek Kutylowski kombiniert DeepL hierfür die bekannten eigenen Sprachmodelle mit der ebenfalls eigenen, bewährten KI-Übersetzungstechnologie, um insbesondere Unternehmen eine barrierefreie Kommunikation zu ermöglichen.
Die neue Technologie fußt dabei auf fünf zentralen Eckpfeilern:
- Voice for Meetings soll eine Echtzeit-Übersetzung auf Plattformen wie Microsoft Teams und Zoom ermöglichen, wobei Teilnehmer in ihrer Muttersprache sprechen, während die Empfänger die Inhalte in ihrer jeweils gewählten Sprache hören. Das Early-Access-Programm soll im Juni dieses Jahres starten, eine Registrierung ist ab sofort möglich.
- Voice for Conversations richtet sich primär an den mobilen Einsatz, geht jedoch darüber hinaus und soll eine plattformübergreifende Übersetzung bieten, insbesondere für Szenarien, in denen die Installation von Apps nicht praktikabel oder zulässig ist.
- Mit Gruppenkonversationen will DeepL den mehrsprachigen Austausch in Trainings, Coachings und Workshops erleichtern, indem Teilnehmer per QR-Code direkt dem Gespräch beitreten und dank Multi-Device-Zugang gleichzeitig Echtzeit-Übersetzungen empfangen können. Diese Funktion soll ab dem 30. April verfügbar sein.
- Darüber hinaus ermöglicht die Voice-to-Voice-API Unternehmen, die Sprachübersetzung direkt in interne Anwendungen sowie kundenorientierte Tools zu integrieren; hier hat das Early-Access-Programm bereits begonnen, eine Registrierung ist weiterhin möglich.
- Ergänzend sollen neue Optimierungsfunktionen sicherstellen, dass spezifische Terminologie wie Branchenbegriffe, Produktnamen oder Eigennamen auch bei schneller oder technischer Sprache präzise erkannt und entsprechend verarbeitet, also bei Bedarf nicht übersetzt werden. Bestehende DeepL-Glossare werden dafür in DeepL Voice integriert, um eine einheitliche Terminologie über alle Gespräche hinweg zu gewährleisten. Diese Funktion soll ab dem 7. Mai verfügbar sein.
Großes Sprachpaket bereits zum Start vorhanden
DeepL richtet die neue Technologie auch auf eine einfache Zugänglichkeit für kleinere Teams aus. Das Self-Service-Modell erlaubt es Unternehmen, die Lösung im Rahmen eines kostenlosen Testzeitraums unmittelbar zu implementieren und zu erproben, bevor der Einsatz ausgeweitet wird. Zum Start von Voice-to-Voice wird bereits eine breite Auswahl an Sprachen unterstützt, darunter alle 24 offiziellen EU-Sprachen sowie Arabisch, Bengalisch, Hebräisch, Norwegisch, Tagalog, Thailändisch und Vietnamesisch. Insgesamt soll DeepL Voice zum Start mehr als 40 Sprachen abdecken.
DeepL will komplette Infrastruktur für Übersetzungen erschaffen
Parallel zum Launch von Voice-to-Voice entwickelt DeepL sein Kernprodukt, das nach eigenen Angaben weltweit von über 200.000 Teams sowie Millionen von Einzelnutzern genutzt wird, zur nächsten Generation der Übersetzungsplattform weiter. Ziel ist der Aufbau einer End-to-End-Übersetzungsinfrastruktur für moderne Unternehmen. Damit sollen Ineffizienzen klassischer Übersetzungsmanagements beseitigt werden, die nach Ansicht des Unternehmens häufig auf langsamen, starren und manuellen Prozessen beruhen und entsprechend hohe Kosten verursachen. „Globale Unternehmen haben heute kein reines Übersetzungsproblem mehr; sie haben ein strukturelles Problem im Betriebsablauf. Heutige Sprachlösungen lassen sich oft nicht schnell genug skalieren und bremsen so das Wachstum“, erklärt Jarek Kutylowski das Vorhaben.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 3 MonatenInterview: Massiver Anstieg der AU‑Fälle nicht durch die Telefon‑AU erklärbar
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Entwicklung & Codevor 3 MonatenKommentar: Entwickler, wacht auf – oder verliert euren Job

