Apps & Mobile Entwicklung
Foundry-Gerüchte: Samsung verschiebt eigene 1,4-nm-Fertigung
Nach vielen Problemen bei 3 nm und einigen auch bei 2 nm verschiebt Samsung die übernächste Generation der 1,4-nm-Fertigung nach hinten. Immerhin wird nun ein Exynos-Chip endlich in 3-nm-GAA-Serienproduktion gefertigt, der Exynos 2500 wird die neuen Galaxy Z Fold 7 und Galaxy Z Flip 7 antreiben.
Samsung Semiconductor, wie die Halbleitersparte heißt, listet auf der eigenen Webseite, dass der Exynos 2500 in Massenproduktion sei. Die bereits im Januar dieses Jahres genannten Spezifikationen des 3-nm-Chips werden vollständig bestätigt: ein Cortex-X925 mit 3,3 GHz, zwei Cortex-A725 mit 2,75 GHz, fünf Cortex-A725 mit 2,36 GHz und zwei Cortex-A520 mit 1,8 GHz sind verbaut. Auch die AMD-RDNA3-basierte Grafiklösung ist mit dabei.
Der Exynos 2500 ist dabei unterm Strich letztlich der erste größere Chip, den Samsung nun in 3 nm baut und auch selbst nutzt. Zuvor war vor einem Jahr lediglich der Exynos W1000 für Wearables erschienen, ein kleinerer Chip mit weitaus weniger Möglichkeiten. Die Samsung-Fertigung für größere Chips war bisher nicht gut genug, Samsung musste bei der Galaxy-S25-Familie zum Start dieses Jahres vollends auf TSMC zurückgreifen. Erst nun ist 3 nm bei Samsung auch wirklich ein Serienprodukt mit entsprechenden Volumen – drei Jahre nach der Erfolgsmeldung durch Samsung, dass 3-nm-Chips nun produziert werden.
Das Drama bei 3 nm und dem Abspringen und eventuellem (Nicht-)Zurückkehren der Kundschaft setzt sich seitdem auch bei 2 nm fort und wird Auswirkungen auf den Schritt SF1.4 haben, wie Samsung die 1,4-nm-Fertigung nennt.

Laut Berichten aus Südkorea soll Samsung die Pilotlinien nun verzögern und vermutlich erst Anfang des nächsten Jahres aufbauen. Die Serienproduktion im Jahr 2027 galt bisher bereits als sehr ambitioniert, nun soll dies frühestens 2028 der Fall sein. Wie bei Samsung zuletzt aber üblich, dürften reale Produkte dann wohl frühestens ein wenn nicht gar zwei Jahre später damit verfügbar werden.
Bis dahin muss die 2-nm-Fertigung in ihren multiplen Ausbaustufen das Zepter übernehmen. Der geplante Exynos 2600 als Nachfolger des erwähnten Exynos 2500 soll aus der 2-nm-Fertigung im Galaxy S26 wieder seinen Platz finden und die Schmach dieses Jahres vergessen lassen. Die Serienproduktion für die SF2/SF2P-Chips war bisher für 2025/2026 geplant. Zuletzt gab es jedoch bereits kritische Stimmen, dass die Ausbeute wohl wieder ein Problem sein könnte, Gerüchte sprechen von lediglich 20 bis 30 Prozent Yield-Rate. Wie immer sind solche Angaben aber mit Vorsicht zu genießen, da die Parameter wie Chip-Größe, Packdichte und mehr nicht bekannt sind.
Am Ende geht es bei Samsung Foundry um ähnlich viel wie bei Intel Foundry. Ohne ein konkurrenzfähiges Produkt und den vielen Versprechen auch wirklich Taten folgen zu lassen, wird keine externe Kundschaft kommen. Erst einmal muss bekanntlich nun das eigene Haus überzeugt werden.
Apps & Mobile Entwicklung
Studie belegt, dass durch ChatGPT-Nutzung die Gehirnaktivität abnimmt
„Die Menschheit wird immer dümmer“ ist so ein Satz, der vielen von uns in vielen Zusammenhängen wohl leicht über die Lippen geht. Was konkret die Arbeit mit ChatGPT mit unserem Gehirn anstellt, wollte jetzt eine Studie am renommierten MIT herausfinden.
Der Mensch an sich bildet sich schon was ein auf seine Intelligenz. Teils ja auch aus gutem Grund, denn wir Menschen sind die einzige uns bekannte Spezies, die von sich behaupten kann, so Dinge wie Computer, Internet, Auto oder auch künstliche Intelligenz erfunden zu haben. Und künstliche Intelligenz ist auch schon das Stichwort. Generative KI hilft uns bei den Hausaufgaben, im Job und auch im Alltag in tausend Situationen. Aber was macht das mit uns und unserem Gehirn?
MIT-Studie: Das macht ChatGPT mit unserem Gehirn
Wir Menschen entwickeln uns immer weiter und passen unser Verhalten mit wachsenden Möglichkeiten entsprechend an. Wer stellt sich heute noch eine zentnerschwere Brockhaus-Enzyklopädie ins Regal, wenn wir doch Google und Wikipedia haben? Wer hat einen Atlas oder einen Stadtplan im Auto, wenn man doch Google Maps oder ein Navi nutzen kann?
Auch ChatGPT verändert die Welt und wie wir uns in ihr bewegen. Vielleicht nutzt längst noch nicht jeder Mensch im Internet das Language-Modell von OpenAI oder eine der vielen Alternativen. Aber vor allem bei jungen Leuten dürft Ihr davon ausgehen, dass die Hausaufgaben und sonstige Projekte längst schon mit der Hilfe von ChatGPT und Co. bewältigt werden.
Ob sich dadurch unsere Gehirnaktivität verändert, wollten jetzt Wissenschaftler:innen des Massachusetts Institute of Technology (MIT) herausfinden. Ihr Versuchsaufbau kam dabei zu alarmierenden Ergebnissen. Vorab ein Hinweis für Euch: Diese Untersuchung ist bislang keinesfalls repräsentativ. Lediglich 54 Personen zwischen 18 und 39 Jahren nahmen an diesem Versuch teil, zudem fehlt noch die Bestätigung durch Fachkolleg:innen.
Das Team hat drei Gruppen gebildet, die jeweils einen Essay schreiben sollten: Es handelt sich dabei um einen Text, der bei College-Bewerbungen in den USA lange Zeit als ein Standard-Test zum Einsatz kam. Die erste Gruppe arbeitete an diesem Text komplett ohne Hilfsmittel. Eine weitere Gruppe durfte immerhin Google als Hilfsmittel nutzen. Die letzte Gruppe schließlich durfte sogar auf ChatGPT zurückgreifen.
Alarmierende Ergebnisse nach vier Monaten
Insgesamt vier Monate lang ging der Versuch und erstreckte sich über vier verschiedene Tests. Während dieser Zeit wurden die Gehirnaktivitäten der 54 Test-Kandidat:innen genauestens überwacht und ausgewertet. Das Resultat sollte vielleicht die Alarmglocken klingeln lassen: Die Gehirnaktivitäten waren bei der Gruppe spürbar am geringsten, die mithilfe von ChatGPT an diesem Text arbeitete. Sowohl linguistisch als auch neurologisch hinkt die Gruppe den an anderen beiden hinterher.
Wie die Time berichtet, verschlimmerte sich das Verhalten der ChatGPT-Nutzer:innen nach hinten heraus im Verlauf der vier Monate sogar noch. Soll heißen, dass später verstärkt 1:1 die Vorlagen übernommen wurden, die ChatGPT ausspuckte. Es sei zudem aufgefallen, dass die Essays sprachlich zu wünschen übrig ließen und sich zudem oft ähnelten. Die Wissenschaftler:innen ließen Lehrkräfte über die Texte schauen und mussten erschreckt feststellen, dass dort wenig eigenständige Ideen zu finden waren und sie nahezu seelenlos wirkten.
Im Nachgang fanden Interview mit den Proband:innen statt, zudem sollten sie in einem weiteren Test versuchen, eigenständig einen eigenen Aufsatz zu reproduzieren. Dabei stellte sich heraus, dass sich die ChatGPT-Gruppe an deutlich weniger Details erinnern konnte. Beim Wechsel der Arbeitsmethoden tat sich die Gruppe dann schwer, nun ohne ChatGPT auskommen zu müssen. Umgekehrt konnten die Teilnehmer:innen der Gruppe ohne ChatGPT später mit der KI dann verschiedene Areale im Gehirn stärker aktivieren.
Erkenntnis: Bitte aktiv bleiben und selbst denken
Eigentlich ist es keine Überraschung: Wer weniger selbst an Inhalten arbeitet und lediglich per Copy-and-paste agiert, muss damit leben, dass weniger haften bleibt. Das war schon so, als Schüler:innen beispielsweise Wikipedia für sich entdeckten und das verstärkt sich nun mit Tools wie ChatGPT natürlich nochmals.
Die Autorin der Studie, Nataliya Kosmyna, erklärte dazu, dass die Arbeit effizient und bequem ausgeführt wurde, aber leider nichts davon ins Gedächtnis integriert wurde. Das kann sich natürlich vor allem für junge Menschen negativ auswirken, bei denen sich das Gehirn auch kognitiv in dem Alter noch entwickelt. Manche Verbindungen werden so gar nicht oder nur schlechter hergestellt.
Die Wissenschaftler:innen wollten jetzt nicht offiziell die Bestätigung durchs Fachkollegium abwarten und ihre Ergebnisse veröffentlichen. Deswegen, und weil wie erwähnt nur wenige Proband:innen teilnahmen, sollten wir auch künftige Studien noch im Blick behalten. Aber ja: Es zeichnet sich ab, dass es die Gehirnaktivitäten deutlich beeinträchtigt, wenn Ihr zu sehr auf ChatGPT vertraut. Eltern sollten also durchaus erlauben, dass ihre Kids ChatGPT nutzen, beispielsweise fürs Brainstorming – aber stumpfes Copy-and-Paste sollte möglichst unterbunden werden.
Seid Ihr überrascht? Eigentlich nicht, oder? Aber erzählt uns gerne in den Comments, wie Ihr mit ChatGPT arbeitet und Ihr Euch selbst dabei ertappt, hier und da komplette Sätze aus ChatGPT zu verwenden.
Apps & Mobile Entwicklung
Auslagerung und Entlassungen: Intels-Marketing künftig von Accenture und AI
Gemäß Medienberichten wird Intel die eigene Marketing-Abteilung weiter deutlich verkleinern und Accenture und AI den Job übernehmen lassen. Auch hier sollen die Kündigungen, ähnlich wie bei den Fabrikarbeitern, bereits ab Juli ausgesprochen werden.
Wie üblich ist Intel offiziell verschlossen, was die Entlassungsthematik angeht, interne Briefe wurden aber erneut an die Presse weitergeleitet. Accenture, ein großes Beratungsunternehmen, wird dort als langjähriger Partner genannt, mit dem die Zusammenarbeit nun ausgebaut werden soll.
The transition of our marketing and operations functions will result in significant changes to team structures, including potential headcount reductions, with only lean teams remaining.
As we announced earlier this year, we are taking steps to become a leaner, faster and more efficient company. As part of this, we are focused on modernizing our digital capabilities to serve our customers better and strengthen our brand. Accenture is a longtime partner and trusted leader in these areas and we look forward to expanding our work together.
Intel in einem internen Memo
Bemängelt wird in Intels Abteilungen erneut die Ineffizienz, vor allem sei man im Vergleich zum Mitbewerber zu langsam. Neue Fähigkeiten mit Künstlicher Intelligenz (AI) sollen ebenfalls verstärkt ausgebaut werden.
While we expect that lower costs will be a natural end result of this decision, the reality is that we need to change our ‘go to market’ model to be more responsive to what customers want. We have received feedback that our decision-making is too slow, our programs are too complex, and our competitors are moving faster.
We are partnering with Accenture to leverage AI-driven technologies with the goals of moving faster, simplifying processes and reflecting best practices, while also managing our spending.
Intel in einem internen Memo
Aber auch die AI-Karte soll stärker gespielt werden und so am Ende Kosten sparen, hofft Intel. Das qualifizierte Personal soll sich stattdessen dann um die hochwertigeren Inhalte kümmern, während generische AI-Kampagnen das Grundrauschen übernehmen.
AI can help us analyze large amounts of information faster, automate routine tasks, personalize customer experiences, and make smarter business decisions. Our goal is to empower teams with more time to focus on strategic, creative and high-impact work by automating repetitive or time-consuming tasks.
Intel in einem internen Memo
Hintergrund zur zweiten Entlassungswelle
Intel ist in vielen Bereichen zu groß aufgestellt, hat zu viele Manager und Personal, verliert dadurch und zusammen mit falschen Entscheidungen und zum Teil nicht konkurrenzfähigen Produkten viel Geld.
Ende April hatte Intels neuer CEO Lip-Bu Tan die Belegschaft bereits auf weitere personelle Einschnitte vorbereitet, nachdem zuvor bereits von einer Entlassungswelle die Rede war, die bis zu 20 Prozent der Belegschaft treffen könnte. Intels CEO sprach damals selbst davon, dass die Entlassungen im zweiten Quartal beginnen würden.
In der vergangenen Woche wurde bekannt, dass in Intels Fabriken bis zu 20 Prozent des Personals gehen müssen. Dass vor allem nicht-technische Bereiche viel Personal verlieren würden, war zu erwarten, am „Overhead“ wird in der Regel gern als erstes gekürzt.
Bereits in der Entlassungswelle im vergangenen Jahr wurden in einigen dieser Abteilungen bis zu 30 Prozent der Arbeitskräfte vor die Tür gesetzt, seinerzeit aber noch über zum Teil große Abfindungspakete, Vorruhestandsregelungen und ähnlichem. Diese sollen in diesem Jahr nicht mehr so groß ausfallen oder gar komplett entfallen, hieß es zuletzt.
Apps & Mobile Entwicklung
Wie viel mehr Performance bringt die neue GPU-Architektur?
Blackwell und RDNA 4, also GeForce RTX 5000 und Radeon RX 9000, setzen gegenüber den Vorgängern Lovelace und RDNA 3 auf eine neue Architektur. ComputerBase hat beide bereits ausführlich getestet. Was noch fehlte: die „IPC-Analyse“. Haben die neuen Shadereinheiten auch an Leistung pro Takt zugelegt? Das klärt der Test.
Warum sind RTX 5000 und RX 9000 schneller?
Nvidia und AMD haben dieses Jahr mit Blackwell (RTX 5000) sowie RDNA 4 (RX 9000) neue Grafikkarten auf den Markt gebracht. Sie bieten neue Features und sind auch schneller als die vergleichbaren Vorgänger. Dafür verantwortlich: Mehr Ausführungseinheiten, höhere Taktraten, schnellerer Speicher, mehr Verbrauch – und auch mehr Leistung pro Shader pro Takt (IPC)?
Sieht so aus, denn Nvidia sprach unter anderem von deutlich schnelleren Raytracing-Einheiten, während AMD quasi durchweg die Compute Units verbessert haben will. Doch mit handfesten Auswirkungen auf die Gaming-Leistung unterlegt wurden die versprochenen IPC-Fortschritte nicht. ComputerBase holt das jetzt nach.
Dem IPC-Zugewinn in Spielen auf der Spur
Wie viel mehr Geschwindigkeit bringt die Blackwell-Architektur gegenüber Lovelace und RDNA 4 gegenüber RDNA 3 bei theoretisch gleicher Rechenleistung? Das soll dieser Artikel herausfinden, indem „Blackwell“ und „Lovelace“ sowie „RDNA 4“ und „RDNA 3“ jeweils bei möglichst gleicher Rechenleistung gegenübergestellt werden. Treten dennoch Leistungsunterschiede auf, muss dafür eine Architekturverbesserung verantwortlich zeichnen.
So wurden die Grafikkarten getestet
Um zu untersuchen, inwieweit sich die „IPC“ bei Grafikkarten geändert hat, ist es notwendig, die theoretische Rechenleistung so gut es geht anzugleichen. Das ist in dieser Generation gar nicht so einfach.
Nvidia GeForce: Blackwell vs. Ada Lovelace
Bei den Nvidia-Grafikkarten fiel die Wahl schlussendlich auf GeForce RTX 5070 Ti und GeForce RTX 4070 Ti Super, denn beide stehen sich im aktuellen Portfolio am nächsten.
Auch GeForce RTX 5070 Ti und GeForce RTX 4070 Ti Super kommen mit einer unterschiedlichen Anzahl an Shadereinheiten daher (8.960 ALUs zu 8.448 ALUs), was über den Takt ausgeglichen werden musste. Die RTX 5070 Ti arbeitet in den Benchmarks mit etwa 2.360 MHz, die GeForce RTX 4070 Ti Super mit 2.500 MHz. Das Power Limit ist auf beiden Grafikkarten maximiert, doch spielt dies ohnehin keine einschränkende Rolle. Von GPU-Seiten sind die zwei Grafikkarten damit so ähnlich wie möglich – inklusive derselben L2-Cachegröße.

Beim Speicher sind die zwei 3D-Beschleuniger nicht auf einen Nenner zu bringen, da die GeForce RTX 5070 Ti mit GDDR7, die GeForce RTX 4070 Ti Super aber mit GDDR6X arbeitet. Den VRAM der RTX 5070 Ti Super hat ComputerBase in den Tests maximal untertaktet, weniger als 13.500 MHz sind aber nicht einstellbar. Die Speicherbandbreite beträgt damit 864 GB/s. Bei der RTX 4070 Ti Super lässt sich der Speicher um maximal 1.756 MHz übertakten. 12.256 MHz beträgt die Frequenz, was in 784 GB/s resultiert. Ein Unterschied bleibt. Erfahrungsgemäß hat die Speicherbandbreite bei Gaming-Grafikkarten, solange sie nur hoch genug ist, aber kaum einen Einfluss auf die Gaming-Performance, für diesen Vergleich sollte das passen.
Der Nvidia-Vergleich wurde in der Auflösung 3.840 × 2.160 mitsamt Upsampling durchgeführt.
AMD Radeon: RDNA 4 vs. RDNA 3
Die AMD-Grafikkarten haben für den Vergleich einen Vor- und einen Nachteil. Der Vorteil: Radeon RX 9060 XT und Radeon RX 7600 XT sind gleich konfiguriert: 2.048 FP32-ALUs, 64 ROPs, 32 MB Infinity Cache, 16 GB Speicher und derselbe Speichertyp. Der L2-Cache wächst bei der neuen Grafikkarte zwar von 2 MB auf 4 MB an, doch gehört dies eben auch zur unterschiedlichen Architektur hinzu. So weit, so gut.
Kompliziert wird es in diesem Fall beim GPU-Takt. Die Radeon RX 7600 XT arbeitet mit maximal 2.730 bis 2.800 MHz, mehr sind einfach nicht drin (Firmware). Die Radeon RX 9060 XT taktet derweil immer höher, selbst wenn der Takt auf das Minimum gesetzt wird. Zwischen 2.860 MHz und 2.890 MHz liegen an. Das ist eine Differenz, die sich nicht ändern lässt.
ComputerBase hat jedoch den durchschnittlichen Takt beider Grafikkarten in jedem Spiel notiert, die Benchmark-Ergebnisse werden um diesen Taktunterschied bereinigt.

Dafür machen es einem die Radeons beim Speicher aber zumindest etwas einfacher. Beide Grafikkarten haben ein 128-Bit-Interface, beide nutzen GDDR6. Der VRAM der Radeon RX 7600 XT taktet mit 9.000 MHz, der der Radeon RX 9060 XT mit 10.000 MHz. Untertakten lässt sich der Speicher der RX 9060 XT nicht, dafür der der RX 7060 XT auf 9.748 MHz übertakten. Die Differenz in der Speicherbandbreite ist so gering, dass dies keinen Einfluss auf die Spiele-Leistung haben sollte.
Der AMD-Vergleich wurde in der Auflösung 2.560 × 1.440 mitsamt Upsampling durchgeführt.
Nvidia-Benchmarks: Blackwell gegen Lovelace
Rasterizer-Grafik
Nvidia wirbt bei Blackwell unter anderem mit einer deutlich gestiegenen Integer-Performance, in Spielen bringt dies aber schlicht und ergreifend nichts. Im Durchschnitt von 19 Spielen bei reiner Rasterizer-Grafik sind Blackwell und Lovelace bei gleicher Rechenleistung schlicht gleich schnell. Ja, die neue Architektur liegt 1 Prozentpunkt vor der alten Technik, doch dies kann auch der höheren Speicherbandbreite geschuldet sein. 1 Prozent ist aber ohnehin nichts, was als „schneller“ bezeichnet werden könnte.
In einzelnen Spielen zeigen sich kleinere Unterschiede, was jedoch auch bedeutet, dass Blackwell ab und zu auch mal etwas langsamer ist. In Atomfall ist die angepasste GeForce RTX 5070 Ti zum Beispiel 3 Prozent schneller als die ebenso angepasste GeForce RTX 4070 Ti Super unterwegs. In God of War Ragnarök ist Blackwell 4 Prozent schneller, in Kingdom Come Deliverance 2 5 Prozent, in The Last of Us Part II noch einmal 5 Prozent und in Warhammer 40k: Space Marine 2 immerhin sogar 6 Prozent. Das ist alles nicht viel, aber zumindest mehr als die durchschnittlichen 1 Prozent.
In Call of Duty: Black Ops 6 liegt die RTX 4000 wiederum 3 Prozent vor RTX 5000, in Ghost of Tsushima sogar 5 Prozent. In Spider-Man 2 kommen noch einmal 3 Prozent oben drauf und in Oblivion Remastered 2 Prozent. Schlussendlich ist Blackwell dadurch im Durchschnitt nur 1 Prozentpunkt schneller als Ada Lovelace.
3.840 × 2.160, Blackwell vs. Lovelace
Raytracing-Grafik
Neben der erhöhten Integer-Performance spricht Nvidia bei Blackwell auch von schnelleren Raytracing-Einheiten. Dies scheint aber ebenso absolut im Nichts zu verpuffen, denn mit Raytracing ist Blackwell bei gleicher Rechenleistung sogar geringfügig langsamer als Lovelace. Der einprozentige Vorsprung der neuen Technologie bei Rasterizer-Grafik verwandelt sich in einen einprozentigen Rückstand bei Raytracing.
Das ist keine neue Beobachtung, denn die RTX-5000-Modelle konnten sich mit Raytracing zuletzt immer weniger gut von den RTX-4000-Vorgängern absetzen als bei Rasterizer-Grafik. Der neue Vergleichstest zeigt jetzt aber, dass Blackwell und Lovelace bei Raytracing im Bereich der Messungenauigkeit eigentlich gleich schnell sind – im Durchschnitt.
Die einzelnen Benchmarks zeigen, dass es je nach Spiel größere Schwankungen gibt. Entsprechend kann dies auch schlicht an der Spiele-Auswahl liegen, dass der Durchschnitts-Wert so ausfällt wie er ausfällt.
Silent Hill 2 ist zum Beispiel ein gutes Spiel für Blackwell, hier liefert die neue Technik 9 Prozent mehr Bilder pro Sekunde als Lovelace. Dragon Age: The Veilguard läuft noch 2 Prozent schneller, Monster Hunter Wilds 1 Prozent.
Probleme hat Blackwell dagegen mit Assassin’s Creed Shadows, das auf Lovelace wiederum ordentliche 9 Prozentpunkte schneller läuft. Indiana Jones zeigt 6 Prozent mehr FPS auf der alten Hardware, in Doom: The Dark Ages sind es 2 Prozent.
Pathtracing-Grafik
Auch mit Pathtracing-Grafik kann sich die neue Architektur nicht von der alten absetzen. Im Durchschnitt läuft Blackwell 1 Prozentpunkt schneller als Lovelace, wobei der Schnitt auch nur aus drei Spielen gebildet wird.
Black Myth: Wukong läuft mit Pathtracing 1 Prozent schneller auf Blackwell als auf Lovelace. Interessant sind die Ergebnisse von F1 25 und Indiana Jones. Ersteres lief mit normalen Raytracing auf beiden Technologien gleich schnell, mit Pathtracing ist Blackwell 2 Prozent schneller. Einen noch größeren Unterschied gibt es bei Indiana Jones. Mit Raytracing ist Lovelace hier 6 Prozent schneller als Blackwell, mit Pathtracing sind es nur noch 2 Prozent.
AMD-Benchmarks: RDNA 4 gegen RDNA 3
Bei Nvidia hat es mit der neuen Generation keinen architekturbedingten Leistungssprung gegenüber der vorherigen Generation gegeben. Bei AMD ist der Sprung mit RDNA 4 dagegen groß. Die neuen Grafikkarten bieten bei gleicher Rechenleistung deutlich mehr Geschwindigkeit als der Vorgänger RDNA 3. Seit dem Wechsel von GCN auf RDNA ist dies der größte Leistungssprung von AMD.
Rasterizer-Grafik
AMD RDNA 4 arbeitet bei gleicher theoretischer Rechenleistung im Durchschnitt um 20 Prozent schneller als der Vorgänger RDNA 3. Das passt zu der massiven Leistungssteigerung der Radeon RX 9070 XT im Vergleich zur Radeon RX 7800 XT, obwohl erstere kaum mehr Ausführungseinheiten bietet.
In einzelnen Spielen ist RDNA 4 dabei gar nicht schneller als RDNA 3. In Atomfall arbeiten beide Architekturen zum Beispiel gleich schnell, in Final Fantasy XVI ist die Differenz mit 7 Prozent auch nicht gerade riesig. Aber es gibt auch andere Beispiele und sie sind im Parcours in der Überzahl: In Black Myth Wukong liefert RDNA 4 29 Prozent mehr FPS, in Spider-Man 2 30 Prozent, in Horizon Forbidden West 33 Prozent und in God of War: Ragnarök gleich massive 43 Prozent.
2.560 × 1.440, RDNA 4 vs. RDNA 3
Raytracing-Grafik
AMD hat Raytracing in RDNA 4 massiv verbessert und das zeigt sich auch in den Benchmarks. Im Schnitt arbeitet RDNA 4 31 Prozent schneller als RDNA 3, was noch einmal 11 Prozentpunkte mehr sind als bei reiner Rasterizer-Performance.
In den einzelnen Spielen wird es teils richtig wild: Zwischen 30 und 35 Prozent mehr Bilder pro Sekunde sind die meisten Spiele angesiedelt, was aber noch nicht das Ende der Fahnenstange ist. So liefert F1 25 42 Prozent mehr FPS, bei Doom: The Dark Ages sind es gleich 44 Prozent. Assassin’s Creed Shadows legt wiederum „nur“ um 17 Prozent zu – das Schlusslicht im Test.
Pathtracing-Grafik
RDNA 4 ist zwar nicht wirklich für massive Pathtracing-Last gedacht, die RT-Verbesserungen der Architektur schlagen in dem Szenario aber gleich doppelt durch: Im Durchschnitt ist RDNA 4 in diesem Szenario fast doppelt so schnell, durchschnittlich 83 mehr FPS lassen sich in den drei getesteten Spielen messen.
In Einzelergebnissen ausgedrückt bedeutet dies für RDNA 4 72 Prozent mehr FPS in F1 25, 77 Prozent mehr in Indiana Jones und 101 Prozent mehr FPS in Black Myth Wukong.
Fazit
Aufgrund der beschriebenen Einschränkungen beim Angleichen der Rechenleistung zwischen Blackwell und Lovelace respektive RDNA 4 und RDNA 3 war der Vergleich der Spieleleistung der Architekturen zwar nicht bis ins letzte Detail perfekt möglich, an der Aussagekraft der Ergebnisse – auch in ihrer Deutlichkeit – besteht aber kein Zweifel:
- Nvidia Blackwell ist gegenüber dem Vorgänger Lovelace in Spielen nicht schneller, weder in Rasterizer-, noch in Raytracing oder Pathtracing-Szenarien. Ja, es gibt einzelne Spiele, in denen Blackwell voraus liegt, genauso gibt es aber auch Titel, die auf Lovelace mehr Performance bieten. Generell mehr Leistung bringt die Architektur nicht. Die GeForce-RTX-5000-Generation holt ihren Leistungsvorteile gegenüber RTX 4000 über mehr Ausführungseinheiten, mehr Takt, eine höhere Leistungsaufnahme sowie neuere Features.
- Ganz anders sieht das bei AMD aus. RDNA 4 macht gegenüber RDNA 3 einen großen Schritt, den weitaus größten Schritt seit dem Wechsel von GCN zu RDNA. Es gibt 20 Prozent mehr FPS in Rasterizer-Spielen, 31 Prozent mehr FPS in Raytracing-Titeln und 83 Prozent mehr Leistung in Pathtracing-Spielen. Das ist ein massiver Sprung, der in der Praxis darüber hinaus noch durch höhere Taktraten vergrößert wird. Bei der RX-9000-Generation kommt rund die Hälfte der FPS-Steigerung durch die modernere Architektur, die andere durch höhere Taktraten zu Stande – das gilt zumindest für den Vergleich RX 9070 XT zu RX 7800 XT. Bei Raytracing-Spielen verschiebt sich der Anteil in Richtung Architektur.

Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
-
Social Mediavor 1 Woche
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 2 Wochen
Aktuelle Trends, Studien und Statistiken
-
Social Mediavor 2 Wochen
“Wir haben doch nichts zu erzählen…” – 3 Tricks für neue Social Media Content Ideen
-
Online Marketing & SEOvor 2 Wochen
Aus Marketing, Medien, Agenturen & Tech: Diese 40 klugen Köpfe unter 40 müssen Sie kennen
-
UX/UI & Webdesignvor 2 Wochen
Kunst & KI begleitet die Münchner Standort-Eröffnung › PAGE online
-
Online Marketing & SEOvor 2 Wochen
Influencer Marketing: Warum Influencer Vertrauen verlieren und klassische Medien gewinnen
-
UX/UI & Webdesignvor 2 Wochen
Wie gelingt eine einwandfreie Zusammenarbeit?
-
Online Marketing & SEOvor 1 Woche
#WantaFanta: Warum Fanta und Nico Santos der Gen Z Wünsche erfüllen
+ 1.571688 BTC.NEXT - https://yandex.com/poll/enter/VEd5av2daj3Zn1ERBFLKSq?hs=c3ac4d6ed65c11154a91a3aff1f5a590&
Juni 24, 2025 at 1:40 am
86ccgu