Apps & Mobile Entwicklung
Multiplayer-Benchmarks von Battlefield 6 – ComputerBase
Wie gut läuft der Multiplayer von Battlefield 6? ComputerBase hat 21 Grafikkarten von Nvidia, AMD und Intel im Test. Im Vergleich zur Kampagne (Benchmarks) zeigt der Multiplayer auch auf größeren Karten eine höhere Performance, zugleich verschieben sich die Verhältnisse zwischen den Grafikkarten etwas.
Multiplayer-Benchmarks von Battlefield 6 mit 21 Grafikkarten
Battlefield 6 (Kampagnen-Benchmarks) ist da und der Start ist nach einem enttäuschenden Vorgänger endlich wieder gelungen. Die Pressekritiken sind gut, der erste Eindruck der Spieler ist gut und die Spielerzahlen sind hoch. Auch die PC-Version hat im Test auf ComputerBase einen ordentlichen Eindruck hinterlassen, Probleme zum Launch gab es, wurden aber behoben. Auch die Grafik hat ihre Probleme, kann aber spektakulär sein, die Performance ist hoch, das Frame Pacing passt und größere technische Probleme haben sich nicht gezeigt.
Jetzt folgen Multiplayer-Benchmarks
Für das Launch-Review hat die Redaktion die Einzelspieler-Kampagne für die Benchmarks genutzt, denn der Mehrspieler-Modus war zu diesem Zeitpunkt nicht reproduzierbar zu testen und darüber hinaus zu 90 Prozent mit Bots gefüllt. Nach dem Start des Spiels ist das natürlich anders und da in Battlefield 6 den Fokus auf den Multiplayer legt, hat die Redaktion entsprechende Tests nun nachgeholt.
Der Artikel dreht sich rein um eben jene Multiplayer-Benchmarks, weitere Aspekte werden an dieser Stelle nicht untersucht. Für weitere Analysen kann ein Blick in das Launch-Review von Battlefield 6 (Test) geworfen werden.
Das Testsystem und die Benchmark-Szene
Alle Benchmarks werden auf einem AMD Ryzen 7 9800X3D (Test) durchgeführt, der mit den Standardeinstellungen betrieben wird. Als Mainboard ist das Asus ROG Crosshair X670E Hero (BIOS 2506) verbaut.

Die CPU wird von einem Noctua NH-D15S mit zentral installiertem 140-mm-Lüfter gekühlt. 48 GB Speicher (G.Skill TridentZ Neo, 2 × 24 GB, DDR5-6000, CL30-38-38-96) stehen dem Prozessor zur Verfügung. Windows 11 24H2 mit sämtlichen Updates und aktiviertem HVCI ist auf einer NVMe-M.2-SSD mit PCIe 4.0 installiert. Dasselbe gilt für das Spiel. Resizable BAR wird auf unterstützten Grafikkarten sowohl bei AMD als auch bei Nvidia sowie Intel genutzt.
Die 20 Sekunden lange Testsequenz findet im All-Out-Warfare-Modus mit 64 Spielern auf der großen Karte „Mirak-Tal“ statt. Bei großer Sichtweite sind einige Gebäude sowie viel Vegetation zu sehen. Die Performance ist verhältnismäßig niedrig, andere Multiplayer-Karten laufen etwas besser. In Gefechten kann die Framerate jedoch auch unter das Niveau der Benchmarks fallen.
Darüber hinaus gilt es zu bedenken, dass die Tests aufgrund der Natur des Multiplayers nicht völlig reproduzierbar sind. Entsprechend kann es zwischen einzelnen Läufen kleinere Schwankungen geben, jedoch sind diese ziemlich klein und haben keinen größeren Einfluss auf die Ergebnisse.
Wichtig: Unterschiede beim Upsampling-Ansatz!
DLSS 4, FSR 4, FSR 3 und XeSS im gleichen Preset in einen Topf zu werfen, ist inzwischen immer seltener ein fairer Vergleich. Denn auf Systemen, die DLSS 4 (alle GeForce RTX) oder FSR 4 (RX 9000) unterstützen, fällt die Bildqualität um Längen besser aus als mit FSR 3, das sogar schneller läuft – aber eben bei sichtbar schlechterer Bildqualität. Und es erscheinen immer mehr Spiele, die exklusiv mit DLSS 4 ausgestattet sind und auch FSR 4 unterstützen. Daher hat ComputerBase eine – im Podcast schon wiederholt besprochene – weitreichende Entscheidung getroffen:
Wenn DLSS 4 und FSR 4 unterstützt werden, dann …
Unterstützt ein Spiel DLSS 4 sowie FSR 4, wird auf älteren Radeons kein FSR 3.1 mit der gleichen Renderauflösung mehr genutzt, sondern stattdessen ein besseres Upsampling mit einer höheren Auflösung oder alternativ die native Auflösung mitsamt dem spieleigenen TAA – das ist davon abhängig, in welchem Leistungs-Modus mit DLSS 4 und FSR 4 getestet wird. So ist die Bildqualität eher vergleichbar und der unfaire Performance-Vorteil nicht mehr vorhanden.
Im Falle von Battlefield 6 bedeutet dies: DLSS 4 sowie FSR 4 laufen auf entsprechenden Grafikkarten im Quality-Modus (Skalierungsfaktor 1.5×), während ältere Radeons sowie Intel Arc mit XeSS Ultra Quality Plus laufen (Skalierungsfaktor 1.3×).
Benchmarks in WQHD, UWQHD und Ultra HD
- Die Performance ist auch auf großen Multiplayer-Karten deutlich besser als in der Kampagne
- Es verschieben sich die Verhältnisse im Multiplayer: AMD Radeon legt dabei mehr zu als Nvidia GeForce
- Der VRAM-bedarf ist höher als in der Kampagne, 8 GB in Verbindung mit PCIe ×8 sind zu wenig für maximale Texturdetails
- RDNA 4 ist stärker als in der Kampagne, in niedrigen Auflösungen etwas hinter GeForce, in hohen gleich auf
- Nvidia Blackwell ist etwas besser unterwegs als Nvidia Lovelace
- Die Intel Arc A770 ist leicht schneller als die Arc B580 – das ist selten
Und was ist mit dem Prozessor?
Auch im Multiplayer hat in Battlefield 6 die Grafikkarte das Kommando über die Performance, der Prozessor spielt nur eine untergeordnete Rolle. Bei einem ausgeglichenen System limitiert zuerst die GPU und dann erst die CPU, was in früheren Battlefield-Teilen durchaus auch schon einmal anders herum gewesen ist.
Der Prozessor ist nur in zwei verschiedenen Szenarien wichtig: Wenn das System unausgeglichen ist, also eine verhältnismäßig starke GPU mit einer verhältnismäßig schwachen CPU genutzt wird. Und wenn sehr hohe Frameraten erzielt werden sollen. Für 200 Bilder pro Sekunde benötigt es dann auch einen sehr schnellen Prozessor, dann hat auch ein Ryzen 7 9800X3D einiges zu tun.
8 GB VRAM ist zu wenig
Fazit
Battlefield 6 verhält sich im Multiplayer etwas anders als im Einzelspieler-Modus. Alle Grafikkarten laufen auch auf großen Maps mit durchweg höheren Frameraten als in der Kampagne, zumindest wenn der Grafikkartenspeicher ausreicht. Die Anforderungen an diesen sind auf den großen Karten etwas höher als in den kleineren Streaming-Abschnitten, 8 GB VRAM sind für maximale Grafikdetails nun definitiv zu wenig.
In den Benchmarks zeigt sich dann, dass Radeon-Grafikkarten im Multiplayer zulegen, sodass nun die aktuelle RX-9000-Riege in niedrigen Auflösungen zwar noch etwas langsamer als die RTX-5000-Produkte agiert, in höheren dagegen gleich schnell. Bei den Nvidia-Karten untereinander schneidet Blackwell dann leicht besser ab als Ada Lovelace, bei den Intel-Karten ist derweil die Arc A770 überraschenderweise geringfügig schneller als die Arc B580 – das passiert nicht häufig.
Der Prozessor ist (meistens) nicht so wichtig
Was nicht nur für die Kampagne, sondern auch für den Mehrspieler-Modus gilt ist, dass der Prozessor in Battlefield 6 keine sonderlich große Rolle spielt. Einzig bei unausgeglichenen Systemen oder wenn hohe Frameraten von um die 200 FPS erreicht werden sollen, bestimmt der Prozessor die Performance. Ansonsten ist es durchweg die Grafikkarte.
Die Technik von Battlefield 6 läuft auf dem PC im Multiplayer-Modus genauso gut wie in der Kampagne. Abstürze hat es während des Tests keine gegeben, Traversal-Stotterer zeigen sich anders als in der Kampagne ebenso wenig. Auch die Server halten der Belastung stand, auch wenn es manchmal eine kürzere Warteschlange gibt.
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.
Apps & Mobile Entwicklung
Support-Ende*: Goodbye, Windows 10! Und nun?
Es ist so weit: Heute nach etwas mehr als zehn Jahren Laufzeit beendet Microsoft den Support für Windows 10. Windows 10 (Test) war als kostenloses Update für Inhaber von Windows 7 und Windows 8 am 29. Juli 2015 erschienen. Es brachte das „klassische Startmenü“ zurück, das ComputerBase schon vor elf Jahren vorab exklusiv zeigte.
10 Jahre Windows 10
Unter dem Codenamen „Threshold“ entwickelt, wurde Windows 10 lange Zeit als „Windows 9“ gehandelt und trug auch in Testversionen lange Zeit diesen Namen. Am Ende entschied sich Microsoft allerdings für Windows 10, zu groß sei der Sprung von Windows 8 auf Windows 10 gewesen. Das „letzte Windows aller Zeiten“ wurde Windows 10 dann allerdings doch nicht, denn Windows 11 löste es vor vier Jahren im Oktober 2021 ab und aktuell nehmen Gerüchte um Windows 12 an Fahrt auf.
- Windows 10 im Test: Die Zukunft von Windows mit klassischem Startmenü
- Windows 10 für Spieler im Test: Mehr Geschwindigkeit auch ohne DirectX 12
Ab sofort keine Updates mehr
Seit dem Start von Windows 11 war klar: Auch das Leben von Windows 10 ist endlich, es endet offiziell heute am 14. Oktober 2025. Konkret bedeutet das: Es gibt keine Updates mehr, auch Sicherheits-Updates bleiben aus. Zwar ist, wie in der Vergangenheit bereits geschehen, nicht auszuschließen, dass Microsoft doch noch mal Patches für besonders gravierende Lücken verteilt, doch das wird die Ausnahme sein und nicht die Regel.
Ohne Sicherheitsupdates nicht mehr im Internet/Netzwerk nutzen
Ohne weitere Sicherheitsupdates sollte Windows 10 in Zukunft nicht weiter betrieben werden – zumindest nicht auf Rechnern, die an das Internet angeschlossen sind. Das Betriebssystem ist auf lange Sicht nicht mehr sicher. So sieht es auch das Bundesamt für Sicherheit in der Informationstechnik.
* Ein Jahr ESU-Updates auch für Privatnutzer
Höchstwahrscheinlich weil der Anteil der Windows-10-Nutzer weltweit noch immer hoch ist, gibt es in diesem Jahr aber erstmals eine Hintertür auch für Privatkunden: Das für Firmen und Behörden angebotene Extended Security Updates Program (ESU) steht auch Privatnutzern für ein Jahr zur Verfügung. 30 US-Dollar verlangt der Konzern bei Privatanwendern ausschließlich mit lokalem Konto (Firmen: drei Jahre gegen steigende Gebühr). Allen Nutzern, die Windows 10 mit Microsoft-Account nutzen, stellt Microsoft die ESU ein Jahr kostenlos zur Verfügung. Bei Windows 11 ist ein Microsoft-Account inzwischen sogar schon zur Installation Pflicht.
-
Ich nutze es weiter ohne Updates
-
Ich nutze es mit ESU-Updates
-
Ich wechsele auf Windows 11
-
Ich wechsele auf Linux (oder bin schon)
-
Ich wechsele auf macOS (oder bin schon)
-
Ich plane etwas anderes
-
Ich nutze kein Windows 10
Von Windows 10 zu Linux?
Wer aufgrund von Hardware-Einschränkungen – Windows 11 setzt zum Beispiel ein TPM-2.0-Modul voraus, was viele ältere Systeme ausschließt – oder produktpolitischer Entscheidungen von Microsoft, wie etwa des Sammelns von Telemetriedaten, partout nicht auf Windows 11 umsteigen will, dem bleibt auch die Option, Windows komplett den Rücken zu kehren und den Sprung auf eine Linux-Distribution zu wagen. Auch (Windows-)Spiele laufen unter Linux immer besser, dennoch bleibt dieser Aspekt die Achillesverse der Plattform. Wer mehr erfahren will, ist in nachfolgenden Artikeln und Podcasts perfekt aufgehoben:
Ist der PC oder das Notebook kompatibel zu Windows 11?
Ob der eigene PC zu Windows 11 kompatibel ist, lässt sich mit dem Windows 11 Installationsassistent prüfen. Mehr hilfreiche Hinweise liefert wiederum das kostenlose Drittanbieter-Tool WhyNotWin11.
Downloads
-
4,2 Sterne
WhyNotWin11 überprüft das eigene System auf seine Kompatibilität mit Windows 11.
-
3,5 Sterne
Der Windows 11 Installationsassistent unterstützt bei der Installation von Windows 11 aus 10 heraus.
- Version 25H2 Build 1.4.19041.6448 Deutsch
-
3,6 Sterne
Mit den ISO-Dateien von Windows 11 lassen sich bootfähige Installationsmedien erstellen.
- Version 25H2 (Build 26200.6584) Deutsch
- Version 25H2 (Build 26200.6584) Deutsch
-
4,7 Sterne
Das Windows 11 Media Creation Tool erstellt bootfähige USB-Sticks oder updatet Windows 10 auf 11.
- Version 25H2 (Build 26200.6584) Deutsch
Apps & Mobile Entwicklung
Neuer Funkstandard: Erstmals Wi-Fi-8-Verbindung erfolgreich hergestellt
Wi-Fi 8 wurde zum ersten Mal erfolgreich getestet. TP-Link hat für den Funkstandard der nächsten Generation einen erfolgreichen Konnektivitätstest durchgeführt. Die Datenübertragung wurde dabei auf Basis eines branchenpartnerschaftlich entwickelten Prototyps demonstriert.
Erfolgreiche Testverbindung
Mit dem Konnektivitätstest hat Wi-Fi 8 alias 802.11bn seine Realisierbarkeit untermauert und den nächsten Schritt Richtung Markteinführung genommen. Laut TP-Link konnten im Test sowohl der Wi-Fi 8-Beacon als auch der Datendurchsatz erfolgreich validiert werden. TP-Link zielt im Bereich Wi-Fi 8 auf Technologieführerschaft und möchte zu den ersten Unternehmen gehören, die den neuen Funkstandard in ihren Wireless-Geräten anbieten.
Wi-Fi 8: Zuverlässigkeit statt Geschwindigkeit
WiFi 8 setzt den Fokus auf eine besonders hohe Zuverlässigkeit. Anstatt nach maximaler Geschwindigkeit zu streben, legt der Standard den Schwerpunkt auf stabile Verbindungen, stärkere Abdeckung und flüssigeres Roaming, wobei alle Bereiche vor allem auch in stark ausgelasteten Netzwerken verbessert werden sollen.
Die neuen Techniken von Wi-Fi 8
Zu den Hauptfunktionen von Wi-Fi 8 gehören Distributed Resource Units (DRUs) und Enhanced Long Range (ELR), die Leistung und Reichweite verbessern. DRU soll vor allem stromsparenden oder weit entfernten Geräten helfen, weiterhin eine Verbindung zum Router aufrecht zu erhalten. ELR liefert dafür eine robustere Paketstruktur und verbesserte Codierung, was die Abdeckung an den Rändern des Funknetzwerks erhöht.
Unequal Modulation (UEQM) sorgt dafür, dass alle Geräte die bestmögliche Verbindung erhalten. Denn jeder Wi-Fi-Stream kann mit Wi-Fi 8 mit der besten Rate laufen, die er erreichen kann, anstatt dass alle Streams dieselbe Rate nutzen. So bremsen sich die Streams nicht mehr gegenseitig aus.
Neue Modulation- und Codierungsschemata (MCS) sollen hingegen unter anderem plötzliche Geschwindigkeitseinbrüche reduzieren, indem weitere MCS-Stufen eingebaut wurden.
Die neue Multi-Access-Point-Koordination, die Router, Mesh-Knoten und Repeater beinhaltet, sorgt dafür, dass Access Points nicht mehr um die Versorgung eines Endgeräts konkurrieren, sondern zusammenarbeiten, um die Wi-Fi-Signale gezielter auszurichten und Überlappungen zu reduzieren. So sollen auch Interferenzen im eigenen Netzwerk verringert werden und die Verbindungen zuverlässiger aufrecht gehalten werden.
Abwärtskompatibel zu aktuellen Geräten
WiFi 8 ist abwärtskompatibel und funktioniert auch mit aktuellen Smartphones, Notebooks und Smart-Home-Geräten. Sie können nur nicht von den Vorteilen des neuen Standards profitieren, da es hierfür neue Wi-Fi-8-Clients benötigt.
Apps & Mobile Entwicklung
10 Gigawatt Rechenleistung: OpenAI kooperiert mit Broadcom für eigenen Custom-ASIC
Nach Deals mit Nvidia und AMD hat OpenAI auch eine Vereinbarung mit Broadcom geschlossen. Am kommenden AI-ASIC könnten beide aktiv zusammenarbeiten, denn zuvor waren bereits Gerüchte im Umlauf, OpenAI wolle eine maßgeschneiderte eigene Lösung nutzen. Wie genau die aber aussehen könnte, dazu gibt es noch keine Details.
Die größte Neuheit der Ankündigung ist deshalb die offizielle Bestätigung, dass OpenAI einen eigenen Chip entwirft. Wie viel Eigenleistung darin enthalten ist, was genau auf Broadcom entfällt und viele weitere Details bleiben aber unklar. Fakt ist, dass Broadcom die Racks und die Skalierbarkeit via „Ethernet und anderen Lösungen“ realisieren soll, OpenAI wiederum soll Beschleuniger und Systeme entwickeln. Dabei will OpenAI die Erfahrungen verarbeiten, die sie in den letzten Jahren mit AI-Lösungen anderer Hersteller gemacht haben, und so eine maßgeschneiderte Lösung bauen.
Entwickler von OpenAI geben auf X zumindest kleine Einblicke. Demnach ist der Chip bereits seit 18 Monaten in Entwicklung – anders wäre ein Start in rund neun Monaten auch nicht durchführbar. Laut OpenAI soll dies einer der schnellsten Wege zu einem Massenprodukt sein, wobei natürlich auch ein Auftragsfertiger eine Rolle spielen dürfte. Broadcom lässt traditionell bei TSMC fertigen, „the fastest and largest volume ramp of any first time chip“ gilt es entsprechend mit Fakten zu belegen. Da sich Unternehmen wie Apple, Nvidia, AMD und weitere um TSMCs State-of-the-Art-Fertigungskapazität streiten, bleibt auch abzuwarten, worauf diese OpenAI-Lösung fußen wird.
Am Ende soll es ein ganzes System werden, welches beide bereitstellen wollen. Broadcom kümmert sich dabei um die komplette Infrastruktur.
Our partnership with OpenAI continues to set new industry benchmarks for the design and deployment of open, scalable and power-efficient AI clusters. Custom accelerators combine remarkably well with standards-based Ethernet scale-up and scale-out networking solutions to provide cost and performance optimized next generation AI infrastructure. The racks include Broadcom’s end-to-end portfolio of Ethernet, PCIe and optical connectivity solutions, reaffirming our AI infrastructure portfolio leadership.
Broadcom
Bereits ab Ende 2026 soll der Aufbau von 10 Gigawatt Rechenleistung beginnen und bis Ende 2029 abgeschlossen sein. Auf dem Papier steht die Vereinbarung damit der Kooperation mit Nvidia in nichts nach, wenngleich dort wohl bereits die Fußnote existiert, dass es auch über die bis dato angekündigte Kapazität hinausgehen könnte.
Wer und wie das ganze am Ende finanziert wird, darüber gibt es keine Informationen. Die Kritik wurde deshalb zuletzt stetig lauter, woher angesichts der Ankündigungen die vielen hundert Milliarden US-Dollar und mehr denn überhaupt kommen sollen.
-
UX/UI & Webdesignvor 2 Monaten
Der ultimative Guide für eine unvergessliche Customer Experience
-
UX/UI & Webdesignvor 2 Monaten
Adobe Firefly Boards › PAGE online
-
Social Mediavor 2 Monaten
Relatable, relevant, viral? Wer heute auf Social Media zum Vorbild wird – und warum das für Marken (k)eine gute Nachricht ist
-
Entwicklung & Codevor 2 Monaten
Posit stellt Positron vor: Neue IDE für Data Science mit Python und R
-
Entwicklung & Codevor 1 Monat
EventSourcingDB 1.1 bietet flexiblere Konsistenzsteuerung und signierte Events
-
UX/UI & Webdesignvor 4 Wochen
Fake It Untlil You Make It? Trifft diese Kampagne den Nerv der Zeit? › PAGE online
-
Apps & Mobile Entwicklungvor 3 Monaten
Firefox-Update 141.0: KI-gestützte Tab‑Gruppen und Einheitenumrechner kommen
-
Online Marketing & SEOvor 3 Monaten
So baut Googles NotebookLM aus deinen Notizen KI‑Diashows