Apps & Mobile Entwicklung
Benchmarks Linux vs. Windows 11 auf Radeon & GeForce
Wie steht es um die Gaming-Performance von Linux auf GeForce und Radeon (Mesa 26) im Vergleich zu Windows 11? ComputerBase hat in 19 Spielen den Benchmark-Test gemacht. Dabei kamen die neuesten Treiber inklusive Mesa-26-Update für AMD-Grafikkarten zum Einsatz, das die Raytracing-Performance deutlich beschleunigt haben soll.
Linux vs. Windows 11 in der Gaming-Performance mit CachyOS
Linux mausert sich immer mehr zu einer ernsten Gaming-Alternative zu Windows. Entsprechend wird das Interesse der Leser an diesem Thema immer größer und so hatte sich ComputerBase vor etwas mehr als einem halben Jahr erstmals die Spiele-Performance von Linux angesehen und diese mit Windows 11 verglichen. Seitdem ist einige Zeit verstrichen und Treiber- sowie Linux-Updates sind erschienen. Es ist also wieder Zeit für einen neuen Vergleich.
Diesmal gibt es dabei eine neue Linux-Distribution: Anstatt EndeavourOS wie beim letzten Mal setzt die Redaktion auf den Community-Liebling CachyOS, das zwar ebenso Arch Linux als Basis nutzt, aber potenziell mit weiteren Optimierungen ausgestattet ist. Die aktuelle Version nutzt den Linux-Kernel „6.19.5-3-cachyos“ Die Linux-Version basiert auf dem aktuellen Open-Source-Paket Mesa 26.0.1, das weitreichende Raytracing-Optimierungen für Radeon-Grafikkarten erhalten hat. Die Treiberversion hört auf die Bezeichnung „26.0.1-arch2.3“. Nvidia-Grafikkarten setzen auf den aktuellen 590.48.01-Treiber. Unter Windows werden der GeForce 591.86 und der Adrenalin 26.2.1 genutzt.
Als Grafikkarten kommen eine GeForce RTX 5070 Ti und eine Radeon RX 9070 XT zum Einsatz. In 19 verschiedenen Spielen müssen diese in WQHD und in Ultra HD, meistens in Kombination mit DLSS 4 beziehungsweise FSR Upscaling AI, zeigen, wie viele Bilder pro Sekunde unter Linux erreicht werden können. Verglichen werden die Ergebnisse mit einem klassisch konfigurierten Windows 11 25H2 inklusive sämtlicher Updates. Die genauen Spieleinstellungen sind weiter unten detaillierter aufgeführt.
Es gibt Beschränkungen und Unterschiede
ComputerBase nutzt für diesen Test ausschließlich Proton für Steam, entsprechend werden auch nur auf Steam verfügbare Spiele getestet. Zwar lassen sich auch Spiele auf anderen Launchern oder native Titel einbinden, doch ist dies teils komplexer, was für den Test vermieden werden sollte. Die meisten Steam-Spiele laufen hingegen unter Linux mit nicht mehr als einem Doppelklick auf „Starten“. Wie gut welche Spiele laufen, darüber klärt Steam selbst, aber auch die ProtonDB auf. Handfeste Aussagen zur Performance Windows vs. Linux gibt es dort aber nicht.
Was darüber hinaus ebenso nicht getestet werden kann, sind Spiele mit gewissen Anti-Cheat-Mechanismen. EA-Spiele wie zum Beispiel F1 25 laufen generell nicht unter Linux, da diese nicht mit dem Betriebssystem kompatibel sind. Diese Spiele können entsprechend ebenso nicht getestet werden.
Keine „Windows-Benchmark-Tools“
Was die klassischen Hardware- sowie Benchmark-Tools angeht, herrscht unter Linux Flaute. Das, was man unter Windows gewohnt ist, funktioniert unter Linux nicht, so zum Beispiel MSI Afterburner oder CapFrameX – auch wenn von letzterem eine angepasste Linux-Version demnächst erscheinen soll. Bei einer Radeon fehlt sogar das gesamte Treibermenü. Das hat zur Folge, dass potenziell eine ganze Menge Dritt-Software installiert werden muss.
Als Benchmark-Software dient MangoHUD mit Goverlay als grafische Oberfläche, in der sich durchaus einiges einstellen lässt. Wichtig zu erwähnen ist, dass die Zählweise der Frames völlig anders als unter Windows funktioniert und mit MangoHUD deutlich ungenauer ist.
Denn während die Benchmark-Tools unter Windows zum Beispiel durchweg jeden einzelnen Frame erfassen, macht dies zumindest MangoHUD nicht. Stattdessen wird nur alle x Millisekunden (konfigurierbar) die Informationen abgefragt, was weniger genau ist und auch mehr Hardware-Ressourcen fordert. Das framegenaue Protokollieren unter Windows kostet weniger CPU-Zeit als das Protokollieren alle 10 Millisekunden unter Linux, obwohl ersteres genauer ist. Die Performancekosten sind zwar gering, aber auch mit einer schnellen CPU messbar. Das gilt auch für diesen Artikel: Je nach Spiel gehen zwischen 0 bis 2 Prozent an FPS durch die Benchmark-Protokollierung unter Linux verloren.
Es werden viele (ganz viele) Shader kompiliert
Shader vorab zu kompilieren, ist in Spielen mittlerweile ganz normal. Auch über Steam für Linux wird dies gemacht, in diesem Fall aber initiiert auch über Proton. Das von Windows bekannte Kompilieren in Spielen fällt dann weg oder kürzer aus, das Prozedere vor dem Start zieht sich aber. Auf einer Radeon-Grafikkarte ist die Wartezeit meistens ziemlich kurz, ganz anders dagegen schaut es auf einer GeForce aus. Auch hier kann die Sache nach wenigen Sekunden erledigt sein. Immer mal wieder – und das gar nicht so selten – dauert es aber mehrere Minuten. Und da können auch auf einem Ryzen 7 9800X3D schnell einmal 15 bis 20 Minuten bis zum Spielstart vergehen. Das ist eine ziemlich nervige Angelegenheit.
Apps & Mobile Entwicklung
Gratis-Spiel: Bei Epic gibt es Doomblade aufs Haus

In dieser Woche spendiert der Epic Games Store einen Indie-Liebling. Mit Doomblade erhalten Spieler einen Metroidvania-Titel, der mit schnellen Kämpfen und Schwertkombos für teils knifflige Action sorgt. Doomblade kann noch bis zum 30. April 2026 um 17 Uhr kostenfrei zur eigenen Bibliothek hinzugefügt werden.
Metzel-Action mit dem „Düsterduo“
Die Story von Doomblade schnell erklärt. In den Abgründen der Erde entdeckt ein einsames Düstermädchen (eine geisterartige Gestalt) die Unheilsklinge, ein mächtiges lebendiges Schwert mit eigenem Willen. Gemeinsam beginnt ein turbulenter Rachefeldzug, bei dem sich in guter Metroidvania-Manier durch Schlauchlevel gemetzelt werden muss. Neben kleineren Rätseln stehen dabei auch zahlreiche Bosskämpfe auf der Tagesordnung.
Doomblade stammt aus 2023 und wird seitens der Spielerschaft zwar als knifflig aber sehr gut betitelt. Eine teils wilde Steuerung muss jedoch zunächst verinnerlicht werden, ehe sich das Gesamt-Gameplay als gut erweist. Ein Metascore von 83/100 Punkten, eine User-Wertung von 7,7/10 Punkten sowie eine „sehr positive“ Steam-Wertung zeugen ebenfalls von einem sehr guten Spiel. Doomblade ist ab 12 Jahren freigegeben und schlägt regulär mit einem Preis von rund 15 Euro zu Buche.
Games-Schnäppchen im Forum
Neben den allwöchentlichen Gratis-Spielen im Epic Games Store gibt es zahlreiche weitere Angebote und Rabatte, die seitens der Community im Games-Schnäppchen-Thread im Forum gesammelt und geteilt werden. Vorbeischauen und Hinweise zu potenziellen Schnäppchen sind äußerst willkommen!
Apps & Mobile Entwicklung
Interview: Wie gefährlich sind KI-Modelle wie Claude Mythos?
Nur weil Modelle wie Claude Mythos mit enorme Lautstärke auf den Markt kommen, krempeln diese die IT-Landschaft nicht von heute auf morgen um, erklärt der IT-Sicherheitsexperte Manuel ‚HonkHase‘ Atug im Interview mit ComputerBase. Er warnt stattdessen vor einer drohenden Abhängigkeit.
Laut Anthropic ist Claude Mythos beim Entdecken und Ausnutzen von Sicherheitslücken so leistungsfähig, dass die Freigabe für die Öffentlichkeit zu riskant sei. „Bei unseren Tests haben wir festgestellt, dass Mythos Preview in der Lage ist, Zero-Day-Sicherheitslücken in allen gängigen Betriebssystemen und Webbrowsern zu identifizieren und auszunutzen“, heißt es im Blog-Beitrag. Aufgrund der Menge der entdeckten Schwachstellen konnte man bislang nur einen Bruchteil verifizieren, lieferte aber Beispiele, wie etwa den Linux-Kernel und das für besondere Sicherheit bekannte Betriebssystem OpenBSD.
- Claude Mythos und Opus 4.7: Was leisten Anthropics neue Spitzenmodelle?
- Autonom Exploits entwickeln: Anthropics neues Modell ist so stark, dass es nicht veröffentlicht wird
Sind Modelle wie Claude Mythos tatsächlich ein Risiko für die IT-Sicherheit? Oder ist es eher der Hype, der Anthropic schürt, um sich etwa für den anvisierten Börsengang zum Jahresende in Stellung zu bringen?
Unabhängige Bewertungen wie die des AI Security Institute ergeben immerhin neue Bestwerte in Benchmarks. Ein Knackpunkt ist aber, inwieweit sich solche Labortests in die Praxis übertragen lassen. Analysen der Linux-Distribution Red Hat klingen bereits zurückhaltender. Die im Linux-Kernel entdeckten Sicherheitslücken, die Anthropic im Blog beschreibt, bewertet man mit einem schwachen bis moderaten Sicherheitslevel. Relevanter ist laut Red Hat vor allem die Menge an Sicherheitslücken und Berichten, mit denen IT-Anbieter konfrontiert werden.
Was ist also dran am Hype um Claude Mythos? Was bedeuten KI-Modelle, die systematisch Sicherheitslücken identifizieren, für die IT-Landschaft? Und wie ist diese Entwicklung generell zu bewerten?
Über diese Themen hat ComputerBase mit Manuel ‚HonkHase‘ Atug gesprochen. Er ist eines der bekannten Gesichter der deutschen IT-Sicherheitsszene und befasst sich regelmäßig mit dem Schutz kritischer Infrastrukturen. Er ist einer der Gründer und Sprecher der AG Kritis. Die unabhängige Organisation berät Politik, Unternehmen und Öffentlichkeit im Bereich Cyber-Sicherheit, unter anderem war er Sachverständiger für die Bundesregierung und die Bundesländer tätig.
Das Interview wurde am 15. April via Teams geführt.
ComputerBase: Mit Claude Mythos hat Anthropic ein neues Modell vorgestellt, das hohe Wellen geschlagen hat. Ist es tatsächlich ein Meilenstein oder eher Marketing und einfacher Modellfortschritt, der angesichts des anstehenden Börsengangs besonders befeuert wird?
Manuel Atug:
Im Wesentlichen ist es sehr viel Marketing und Börsengang. Es ist jetzt nicht so, als hätten sie völlig magisch etwas Neues entwickelt. Auch mit Claude und den Opus-Modellen kann man beispielsweise Schwachstellen schon relativ gut finden, wenn man genug Tokens reinwirft und einen guten Workflow aufbaut. Natürlich werden die Modelle auch immer besser, wenn sie spezifisch sind. Das ist aber keine Magie und nichts weltbewegend Spezielles.
Mal so gesagt: Wenn das System wirklich richtig krasse Sicherheitslücken ohne Ende zum Vorschein bringen würde und es gar nicht so aufwendig oder teuer wäre, dann müsste man sich ernsthaft die Frage stellen, warum es in den USA eine kleine Runde mit Banken gibt, in der man das Modell vorstellt, bespricht und zugänglich macht. Und nicht als erstes beispielsweise Atomkraftwerke oder andere kritische Infrastrukturen mit in den Kreis packt. Da merkt man schon, da stimmt was nicht. Banken haben durchaus viel Geld, um solche Lösungen zu bezahlen und natürlich sind Banken auch kritische Infrastruktur. Aber das passt alles insgesamt nicht ins Bild.
Es gibt bereits freie Modelle, mit denen sich ein Workflow aufbauen lässt, durch den sich schon recht gut Schwachstellen beispielsweise in Quellcode finden lassen. Das funktioniert, nur muss man sich dabei ein bisschen Mühe geben. So etwas wird in der Zukunft auch weiter vereinfacht werden, weil es halt mehr Automatisierung ist. Das ist aber der normale Weg.
Was wir erleben, ist also Automatisierung durch Software und somit Automatisierung durch Algorithmen. KI ist jetzt eine neue Variante davon. Aber eine Variante, die mit viel Marketing auf den Markt geschmissen wurde. Wir werden damit umgehen müssen, aber deswegen fällt jetzt keiner tot um.
ComputerBase:
Für Aufsehen sorgte bereits ein Projekt, bei dem Anthropic mit der Mozilla Foundation kooperiert und zahlreiche Sicherheitslücken im Firefox-Browser entdeckt hat. Diese wurden sogar schon mit Firefox 148 geschlossen. Sind solche Kooperationen bislang noch Experimente oder ein Hinweis für den Weg, den die Branche in den nächsten Monaten und Jahren gehen wird?
Manuel Atug:
Ich denke, für Anthropic selber war es eine interessante Kooperation. Tendenziell findet man in Microsoft-Betriebssystemen oder in Webbrowsern viele Sicherheitslücken, weil ständig neue Entwicklungen integriert werden, die Sicherheitslücken verursachen. Das endet auch nie. Insofern war es eine Low Hanging Fruit, bei so einer Kooperation möglichst viele Lücken zu entdecken.
Vom Marketing her ist so eine Kooperation mit großen Browserherstellern oder Betriebssystemherstellern natürlich immer nett. Aber wenn es dem Browserhersteller hilft, Lücken zu finden und zu schließen, warum nicht – solange Hersteller sich nicht dumm und dusselig zahlen müssen.
Das ist nämlich das nächste Problem. Diese Lösungen verbrauchen unheimlich viele Tokens und die muss man bezahlen [Anmk. der Red.: Das Finden und Ausnutzen der Lücke in OpenBSD soll 20.000 US-Dollar gekostet haben]. Man hat mehr Automatisierung, findet mehr Lücken. Die Frage ist nur, lohnt es sich, alle Lücken zu finden? Wenn ich viele Agenten parallel laufen lasse, ist das nicht kostengünstig. Nicht unbedingt attraktiv, wenn ich andere Wege habe, um ans Ziel zu kommen.
ComputerBase:
Was heißt das für Unternehmen?
Manuel Atug:
Nun haben viele Betreiber von IT-Systemen und Enterprise-Softwarehersteller in der Regel kein Interesse, sichere Systeme zu bauen, also Security by Design und Default zu konzipieren. Davon sind sie abgerückt und stellen oftmals echt schlechte Software bereit. Mal schauen, wie viele Unternehmen KI-Dienste oder etwas Vergleichbares integrieren. Diejenigen, die sich ernsthaft in IT-Umgebungen um die Sicherheit kümmern, müssen natürlich die neuen Möglichkeiten beachten.
Für Unternehmen heißt das, dass sie gut beraten sind, wenn sie sichere Systeme einkaufen, das vertraglich einfordern und auf Security by Design & Default bestehen. Wenn sie selbst eine sichere Umgebung betreiben wollen, sollten sie in ihren Geschäftsprozessen sichere Prozessabläufe in den Kernprozessen und den damit verbundenen IT-Systemen aufbauen, um ihr Geschäft abzusichern. Denn Sicherheit ist ein Prozess und kein Zustand. Wer also weiß, wie er präventiv und reaktiv agieren muss, weil alle Prozesse existieren und die Abläufe geübt werden, der weiß auch, wie er einen Angriff übersteht, ohne Panik haben zu müssen. Egal ob mit oder ohne KI. Und natürliche Intelligenz gepaart mit klaren (Sicherheits-)Zielen, die man erreichen will, ist essenziell für ein nachhaltiges Bestehen als Unternehmen am Markt.
Aufpassen müssen wir aber alle generell, dass wir nicht mit KI auf IT-Systeme feuern, um uns dann mit KI vor diesen Lücken abzuschotten. Denn dann müssten wir die ganze Zeit diese KI-Dienstleistungen „KI gegen KI“ einkaufen und das wird richtig teuer. Die einzigen, die daran wirklich verdienen, sind die KI-Betreiber und damit wieder die üblichen Verdächtigen Tech-Konzerne der Tech-Bros aus den USA. Das wäre sehr schlecht. Wir müssen wirklich aufpassen, dass wir nicht in diese Falle tappen, die uns da gerade aufgebaut wird, weil das ein lukratives Geschäftsmodell für die ist.
Am Ende wird die Zeit zeigen, wie viele Kooperationen es mit KI-Betreibern geben wird und wie der Wettbewerb zwischen den KI-Anbietern aussieht. Oder ob man irgendwann in der Lage ist, Modelle in einer eigenen Umgebung zu betreiben, sodass man diese auch mit vertraulichem Code nutzen kann. Die Frage ist auch, ob KI-Betreiber dabei mitspielen, weil diese ja ein sehr hohes Interesse an der Abhängigkeit haben.
Apps & Mobile Entwicklung
Bezahldienst Wero: Wegen Amazon-Servern nicht ganz souverän
Der Bezahldienst Wero soll die europäische Antwort auf US-Amerikanische Bezahldienste werden. Doch eine Anfrage von netzpolitik.org offenbart die Nutzung von Amazon-AWS-Servern im Rahmen der zugrunde liegenden Infrastruktur. Doch im Zweifelsfall muss Amazon auch in Europa gehostete Daten an US-Behörden abgeben.
Wero … was?
Wero – ein Neologismus aus „We“ und „Euro“ – soll als Zahlungsdienst die Nachfolge mehrerer nationaler Zahlungssysteme wie Giropay antreten. Unter dem Dach der European Payments Initiative (EPI), einem Zusammenschluss mehrerer europäischer Banken, soll ein gemeinsames, unkompliziertes, sicheres und souveränes Zahlungssystem auf Basis von Echtzeitüberweisungen etabliert werden.
Primär soll – direkt aus der Handy-App des Nutzers – das private Senden von Geld zwischen zwei Konten möglich sein. Daneben soll auch der Einkauf im Online-Handel und an Ladenkassen möglich sein. Auch Käuferschutz und Ratenzahlungen sind geplant. Der offizielle Startschuss im Online-Handel fiel im November 2025. Während aktuell die Anzahl der teilnehmenden Händler noch begrenzt ist, sollen im Laufe des Jahres 2026 mehrere namhafte Geschäfte dazustoßen.
Mit europäischem Datenschutz … oder doch nicht?
Gerade durch den Verzicht auf außereuropäische Dienstleister sollen Datenschutzstandards nach europäischem Recht eingehalten und Zahlungen direkt zwischen europäischen Banken abgewickelt werden. Doch eine Anfrage von netzpolitik.org eröffnet Zweifel an der Umsetzung der Ziele.
Und das Beste: ganz ohne Drittanbieter und Zwischenschritte, weil sich für wero europäische Banken und Finanzinstitute erstmals direkt zusammenschließen.
Die Antwort seitens der EPI offenbart, dass Dienste zum Teil über die aus den USA stammende Amazon Web Services abgewickelt werden. Das wirft nicht nur die Frage nach der Unabhängigkeit von Drittanbietern auf, sondern auch nach der Datensicherheit im Hinblick auf Datenabgriff durch US-Behörden.
So berichtet netzpolitik.org auf Grundlage der Antwort der EPI, dass diese auf „europäische und internationale Technologieanbieter“ zurückgreift. Das betreffe auch „Managed-Infrastructure- und Software-Services von AWS“.
Dabei soll dennoch die Kontrolle über das Sicherheitsmodell und den Betrieb bei Wero liegen und auch Maßnahmen wie Verschlüsselung für Sicherheit sorgen. Auch AWS selbst als Cloud-Anbieter bietet im Rahmen der AWS European Sovereign Cloud rein in der EU gespeicherte Daten an.
Datenzugriff durch US-Behörden?
Als US-amerikanisches Unternehmen unterliegt AWS dem seit 2018 bestehenden Cloud Act und muss daher US-Behörden Zugriff auf Daten gewähren, auch wenn diese nicht in den USA gespeichert werden. Selbst wenn die Sicherheitsmaßnahmen der EPI ausreichen, um den Datenabfluss zu verhindern, stellt sich weiterhin die Frage nach der Souveränität. Laut dem Bericht von netzpolitik.org hat die EPI bereits „Notfall- und Ausstiegspläne für kritische Technologiedienstleistungen“. Das Problem scheint den Verantwortlichen entsprechend bewusst zu sein.
-
Künstliche Intelligenzvor 2 Monaten
Top 10: Die beste kabellose Überwachungskamera im Test – Akku, WLAN, LTE & Solar
-
Social Mediavor 2 MonatenCommunity Management und Zielgruppen-Analyse: Die besten Insights aus Blog und Podcast
-
Social Mediavor 2 MonatenCommunity Management zwischen Reichweite und Verantwortung
-
UX/UI & Webdesignvor 3 MonatenEindrucksvolle neue Identity für White Ribbon › PAGE online
-
Entwicklung & Codevor 1 MonatCommunity-Protest erfolgreich: Galera bleibt Open Source in MariaDB
-
Künstliche Intelligenzvor 2 MonatenSmartphone‑Teleaufsätze im Praxistest: Was die Technik kann – und was nicht
-
Apps & Mobile Entwicklungvor 2 MonatenIntel Nova Lake aus N2P-Fertigung: 8P+16E-Kerne samt 144 MB L3-Cache werden ~150 mm² groß
-
Social Mediavor 1 MonatVon Kennzeichnung bis Plattformpflichten: Was die EU-Regeln für Influencer Marketing bedeuten – Katy Link im AllSocial Interview
