Apps & Mobile Entwicklung
Amiga 1000: Vor 40 Jahren brach das Zeitalter der 16 Bit endgültig an
Mit dem Amiga 1000 stellte Commodore vor genau 40 Jahren einen Rechner vor, dessen Bedeutung für die Entwicklung moderner Computertechnik vielfach unterschätzt blieb, was nicht zuletzt auch daran lag, dass der später sehr erfolgreiche Amiga 500 nie wirklich aus dem Schatten des legendären Commodore C64 heraustreten konnte.
Computer für den berühmten Jedermann
Die Geschichte des Amiga, genauer gesagt des ersten Modells, des Amiga 1000, das zunächst nur aus einem Motherboard mit dem Code-Namen „Lorraine“ bestand, reicht zurück bis in die frühen 1980er-Jahre. Damals formierte sich eine Gruppe technikbegeisterter Computer-Entwickler mit dem Ziel, ein leistungsstarkes, aber dennoch erschwingliches System zu schaffen, das sowohl für den Heimgebrauch als auch im Büroalltag überzeugen konnte. Im Zentrum der Gruppe stand der Chipdesigner Jay Miner, ein Ausnahmetalent, der bereits maßgeblich an der Entwicklung der Spielkonsole Atari VCS 2600 sowie an den Computern Atari 400 und 800 beteiligt gewesen war.
Hoch gesteckte Ziele in Sachen Ausstattung
Der Amiga war von Beginn an darauf ausgelegt, echtes Multitasking zu ermöglichen, und sollte standardmäßig mit Tastatur, Diskettenlaufwerk, der Möglichkeit für eine Speichererweiterung sowie diversen Schnittstellen für externe Geräte ausgestattet werden. Herzstück des Systems war der Motorola 68000, einer der leistungsfähigsten Prozessoren seiner Zeit, der von mehreren eigens entwickelten Chips unterstützt wurde, welche unter anderem die Grafik- und Audioverarbeitung übernahmen.
Pakt mit dem Teufel
Da die Entwicklung zunehmend kostspieliger wurde, drohte das Projekt jedoch zeitweise zu scheitern. In dieser Phase konnte Atari als Kapitalgeber gewonnen werden, mit einem Darlehen über 500.000 US-Dollar wurde die Weiterentwicklung der Chips gesichert. Die Vereinbarung hatte jedoch einen entscheidenden Haken: Würde das Geld nicht bis zum 30. Juni 1984 zurückgezahlt, sollten die entwickelten Chips und ihre Technologie an Atari übergehen. Um dies zu verhindern, wurde Amiga an Commodore verkauft, wodurch die fällige Summe erst kurz vor Ablauf der 24-Stunden-Frist beglichen werden konnte.

Zunächst geringes Interesse
Der Amiga 1000 wurde am 23. Juli 1985 in den USA vorgestellt, während die Präsentation in Deutschland am 21. Mai 1986 stattfand – moderiert von Frank Elstner. Trotz seiner technischen Stärken blieb das Interesse gering, was unter anderem auf fehlendes Marketing und eine unklar definierte Zielgruppe zurückgeführt werden kann. Der Einstiegspreis von 5.900 DM (inflationsbereinigt etwa heute 6.500 Euro) dürfte ebenfalls eine Hürde dargestellt haben. Zudem versuchte Commodore 1985 gleichzeitig mit dem C128 den Nachfolger des C64 zu etablieren, was jedoch ebenfalls scheiterte. Mit der Fokussierung auf mehrere Modelle gleichzeitig agierte das Unternehmen über seinen Möglichkeiten und so schaffte es dieses nicht, zum Weihnachtsgeschäft 1985 ausreichende Stückzahlen des Amiga 1000 zu produzieren.
Aufteilung als Erfolg
Erst mit der Aufteilung der Produktlinie im Jahr 1987 in den für Heimanwender gedachten Amiga 500 und das für den professionellen Einsatz konzipierte Modell Amiga 2000 – letzteres entwickelt von der Commodore-Niederlassung in Braunschweig – konnte Commodore Erfolge verbuchen. Beide Modelle wurden zunächst zu Preisen von etwas über 1.000 DM beziehungsweise rund 3.000 DM angeboten. Besonders der Amiga 500 entwickelte sich zu einem Verkaufsschlager, nicht zuletzt durch die für diese Zeit außergewöhnlichen Spielefähigkeiten. Diese waren unter anderem den Chips Agnus als Adressgenerator, Denise (ursprünglich Daphne) für Grafik, Paula für Audio und Peripherie sowie Gary, der exklusiv im Amiga 500 verbaut war, zu verdanken. Denise ermöglichte eine Auflösung von bis zu 640 × 512 Pixel – zwar im Zeilensprungverfahren und dadurch mit starkem Flackern verbunden, aber immerhin mit bis zu 4.096 darstellbaren Farben. Eine derartige grafische Leistungsfähigkeit war in dieser Preisklasse bis dahin unerreicht.
Weltweit sollen bis zum Konkurs von Commodore im Jahr 1994 rund sechs Millionen Geräte verkauft worden sein – davon etwa eine Million in Deutschland und 1,5 Millionen in Großbritannien. Dennoch blieb der Amiga 500 deutlich hinter dem C64 zurück, der es während seiner elfjährigen Produktionszeit auf über 22 Millionen verkaufte Einheiten brachte.

Bis heute lebendig
Der Commodore Amiga hat bis heute nichts von seiner Faszination eingebüßt und lebt sowohl in der Popkultur als auch in Form zahlreicher Emulationen weiter, zuletzt etwa mit dem TheA500 Mini (Test) von Retro Games. Eine neue, größere Variante mit echter Tastatur war zuletzt ebenfalls geplant, doch kommt deren Entwicklung aufgrund von Schwierigkeiten bei den Lizenzverhandlungen rund um das Betriebssystem aktuell nicht voran.
Wer mehr über die Geschichte des Commodore Amiga erfahren möchte, dem sei die sehenswerte Dokumentation „Die Amiga-Story“ empfohlen, die auf YouTube und gelegentlich auch in der ZDF-Mediathek verfügbar ist und deutlich umfassendere Einblicke in die Entstehung des Systems bietet, als es dieser kurze Überblick leisten kann.
Apps & Mobile Entwicklung
High Bandwidth Flash: SanDisk gründet technischen Beirat mit Raja Koduri
Um die Entwicklung des angekündigten High Bandwidth Flash (HBF) zu unterstützen, hat SanDisk einen technischen Beirat gegründet. Diesem gehört ein alter Bekannter der GPU-Branche an: Raja Koduri, der zuvor bei AMD und später bei Intel die Geschicke der GPU-Abteilungen geleitet hat.
Auf X äußert sich Koduri erfreut über die Partnerschaft mit SanDisk und erklärt, dass beim High Bandwidth Flash die Speicherkapazität im Fokus stehe, während beim High Bandwidth Memory (HBM) seinerzeit vor allem die Verbesserung beim Durchsatz pro Watt und Fläche wichtig war.
„HBF wird Edge-KI revolutionieren, indem es Geräte mit Speicherkapazität und Bandbreite ausstattet, die anspruchsvolle Modelle unterstützen, die lokal in Echtzeit ausgeführt werden“, wird Koduri in der aktuellen Pressemitteilung von SanDisk zitiert.
Neben Koduri wird David Patterson, ein renommierter Professor der Computer Science und Google-Ingenieur, zum technischen Beirat zählen und diesen anführen.
Mehr zum Thema HBF
High Bandwidth Flash soll GPUs (vor allem KI-Beschleuniger) künftig mit viel mehr Speicher versorgen, als es mit dem bisherigen High Bandwidth Memory (HBM) möglich wäre.
Ausführliche Details liefert der nachfolgend verlinkte Artikel:
- High Bandwidth Flash: SanDisk plant Riesenspeicher für KI-Beschleuniger
Apps & Mobile Entwicklung
Tür auf per Lächeln! SwitchBot Smart Lock Ultra jetzt im Bundle bei tink
Bei tink hat sich ein echtes Schnäppchen versteckt. Der Online-Shop, bei dem sich alles ums Smart Home dreht, bietet aktuell das richtig starke SwitchBot Smart Lock Ultra im Bundle an. Hier ist auch das Keypad Vision enthalten, dass Euch ein neues Feature bietet, dass wir sonst nur aus Actionfilmen kennen. Worum es hier geht und warum sich der Deal lohnt, verrät Euch nextpit in diesem Artikel.
Habt Ihr schon einmal den Haustürschlüssel vergessen? Falls ja, dann wisst Ihr, wie unnötig teuer so ein Schlüssel-Notdienst werden kann. Eine geniale Lösung bieten hier Smart Locks. Mit Eurem Smartphone kommt Ihr somit jederzeit wieder in Eure Wohnung und müsst nicht ständig den Schlüssel bei Euch tragen. Doch was passiert, wenn Ihr auch Euer Smartphone gerade nicht nutzen könnt? Die Lösung bietet ein aktuelles Angebot bei tink. Hier bekommt Ihr das neue SwitchBot Smart Lock Ultra samt Keypad zum richtig spannenden Kurs*.
Das smarteste Türschloss? So gut ist das SwitchBot Smart Lock Ultra
Die Funktionsweise ist so simpel, wie Ihr Euch das vorstellt. Ihr schließt das Gadget an, verbindet die App und schon braucht Ihr keinen Haustürschlüssel mehr. Was dieses Bundle jedoch so besonders macht, ist das beiliegende Keypad. Denn hier hat sich der Hersteller etwas ganz Besonderes überlegt. Neben dem üblichen Zahlencode und Fingerabdrucksensor, habt Ihr jetzt sogar die Möglichkeit, die Tür mit einem Lächeln zu öffnen.

Genauer gesagt, hat SwitchBot eine Gesichtserkennung integriert. Laut SwitchBot soll diese eine Sicherheit auf Bankenniveau bieten und erstellt eine „Gesichtskarte“ anhand von 30.000 Infrarotpunkten, damit Ihr auch an schlechten Tagen direkt erkannt werdet und kein zwanghaftes Lachen aufsetzen müsst. Im Paket ist zudem der passende Hub enthalten, über den Ihr das Gerät auch fernsteuern könnt und als Zugabe winkt ein SwitchBot Bot Toggle, der herkömmliche Schalter in smarte Geräte umwandelt. Alternativ könnt Ihr Euch hier auch für einen gratis NFC-Tracker entscheiden.
Lohnt sich das Smart-Home-Angebot von tink?

Das SwitchBot Smart Lock Ultra ist noch einmal besser als sein Vorgänger, das Smart Lock Pro (zum Test). Es nutzt einen Motor mit einem höheren Drehmoment, wodurch es noch schneller Eure Tür öffnet und ist zudem etwas schlanker im Design. Auch in puncto Stromversorgung müsst Ihr Euch keine Sorgen machen: Das Smart Lock wird über einen Akku betrieben, der beim Ladevorgang durch einen Backup-Akku ersetzt wird. Die Konnektivität via Alexa ist mittlerweile nichts Neues mehr, allerdings bietet das Gadget auch eine Kompatibilität gegenüber Matter, wodurch Ihr es in Thread-Protokolle einbinden könnt.
Fehlt also nur noch der Preis. Bei tink zahlt Ihr für das SwitchBot-Bundle aktuell 224,95 Euro*. Möglich wird das, indem Ihr den Code „SWITCHBOT15“ beim Bezahlvorgang nutzt. Damit liegt Ihr rund 25 Euro unter dem nächstbesten Preis für das Bundle. Bereits im Juni haben wir Euch ein ähnliches Angebot, allerdings ohne Hub, vorgestellt und hier lag der Preis noch bei 259 Euro. Dementsprechend ist dieses Rundum-Sorglos-Paket durchaus interessant. Vor allem dann, wenn Ihr zu den vergesslicheren Menschen zählt oder Euer Zuhause einfach smarter machen möchtet.
Was haltet Ihr von dem Angebot? Ist das SwitchBot Smart Lock Ultra mit dem Keypad Vision interessant für Euch? Lasst es uns in den Kommentaren wissen!
Apps & Mobile Entwicklung
Benchmarks Linux vs. Windows 11 auf Radeon & GeForce
Windows ist nach wie vor die mit Abstand größte Gaming-Plattform, Windows-Spiele auf Linux auszuführen funktioniert aber immer besser. Doch wie viel Leistung kostet das? ComputerBase hat sich im Test die Gaming-Performance von Linux auf einer GeForce- und einer Radeon-Grafikkarte angesehen und diese mit Windows 11 verglichen.
Windows-Spiele unter Linux spielen
In den letzten Jahren hat sich Linux immer weiter verbessert, was die Kompatibilität zu Windows-Spielen angeht. Denn dank Projekten wie Wine, DXVK oder VKD3D und deren Bündelung durch Valve und CodeWeavers in Proton für Steam (Linux) laufen die meisten auf Steam verfügbaren Windows-Spiele tatsächlich auch auf Linux problemlos. Wie schnell, klärt dieser Test mit Benchmarks auf einer Radeon RX 9070 XT und einer GeForce RTX 5070 Ti.
Auch Windows-Spiele, die nicht auf Steam erschienen sind, lassen sich über Wine und Co. oder über den Umweg über Steam fit machen – das ist dann allerdings nicht ganz so einfach. Denn bei Steam reicht es aus den Linux-Client zu installieren und ein Windows-Spiel zu starten.
Eine Diskussion über die Erfahrungen und Ergebnisse haben Wolfgang und Jan auch in der aktuellen Episode des ComputerBase-Podcasts CB-Funk geführt:
Anti-Cheat-Mechanismen sind ein Problem
Ein Aspekt, der das Ausführen eines Windows-Spiels unter Linux verhindern kann, ist ein Anti-Cheat-Mechanismus. Das gilt nicht für alle Spiele, denn der Hersteller kann den Schutz kompatibel zu Linux gestalten. Aber oft entscheiden sich Publisher dagegen, weil sie fürchten, ansonsten eine Hintertür zu schaffen. F1 25 von EA, das eigentlich mit getestet werden sollte, läuft beispielsweise nicht. Dasselbe gilt seit 2024 auch für League of Legends.
Die meisten Steam-Spiele laufen hingegen unter Linux. Wie gut welche Spiele laufen, darüber klärt Steam selbst, aber auch die ProtonDB auf. Handfeste Aussagen zur Performance Windows vs. Linux gibt es dort aber nicht.
Dieser Artikel soll die Lücke schließen. Ein aktuelles Linux muss sich beweisen und in 21 Spielen gegen Windows 11 stellen. Die Benchmarks werden dabei mit zwei verschiedenen Grafikkarten-Herstellern, der GeForce RTX 5070 Ti und der Radeon RX 9070 XT durchgeführt, sodass etwaige Unterschiede zwischen einer Nvidia- und einer AMD-Grafikkarte bzw. den Treibern sofort sichtbar werden. Alle Tests werden in den Auflösungen WQHD sowie Ultra HD durchgeführt.
Die Distribution im Test: Arch Linux (EndeavourOS)
Als Distribution ist die Wahl auf EndeavourOS gefallen, das Arch Linux als Technik-Plattform nutzt und mit dem KDE-Plasma-Desktop als Oberfläche daherkommt. Bei Arch Linux handelt es sich um eine Variante, die auf das Konzept der „maximalen Schlankheit“ setzt, während EndeavourOS das Konzept zwar weiterführt, dem Ganzen aber etwas Komfort beimischt. Der Vorteil des minimalistischen Ansatzes ist, dass die Programmversionen frühzeitig aktualisiert werden und damit immer dem Stand der Dinge entsprechen. Jedoch handelt es sich nicht unbedingt um eine Kombination, die immer selbsterklärend ist, Linux-Anfänger sollten sich lieber nach einer anderen Distribution umsehen. Der Linux-Kernel im Test liegt in der Version 6.15.5-arch1-1 vor.
Die Grafikkarten im Test
Als Grafikkarten kommen die GeForce RTX 5070 Ti und die Radeon RX 9070 XT zum Einsatz. Da unter Linux nicht die von Windows gewohnten Tools und teils auch Treibermenüs zur Verfügung stehen, verzichtet die Redaktion dieses Mal darauf, die eingesetzten Custom-Designs auf das Referenzniveau von Nvidia und AMD herunterzutakten. Denn unter den gegebenen Möglichkeiten ist es nicht gesichert, dass sich Linux und Windows diesbezüglich gleich verhalten.
Entsprechend arbeiten die von Haus aus übertakteten Grafikkarten etwas schneller als gewöhnlich. Im Test wird die MSI GeForce RTX 5070 Ti Ventus 3X OC (Test) sowie die Sapphire Radeon RX 9070 XT Pure (Test) eingesetzt, beide sind geringfügig übertaktet. Mehr als 1 bis 2 Prozent zusätzliche Leistung erbringen diese jedoch nicht. Dennoch hat die Redaktion auch die Windows-Benchmarks entsprechend erneuert, damit die Ergebnisse 1:1 zusammenpassen.
Die Treiber im Test
Bei den Treibern ist es kompliziert: Denn ComputerBase testet die Radeon-Performance mit gleich zwei verschiedenen Treibern – die von verschiedenen Entwicklern kommen. Zum einen handelt es sich um RADV (25.1.5-arch1.1). Dies ist ein „Userspace Treiber“, der nicht von AMD kommt, aber Code von AMD enthält und Teil des Open-Source-Mesa-Pakets ist. Dieser soll erfahrungsgemäß eine bessere Performance aufweisen als der eigentliche AMD-Treiber.
AMD selbst bietet auch einen Treiber an, der in Spielen oft jedoch langsamer sein soll – zumindest in Rasterizer-Titeln. Bei Raytracing wird diesem eine bessere Leistung nachgesagt. Ob dies tatsächlich so ist, wird ComputerBase mit AMDvlk in der Version 2025.Q2.1-1 herausfinden.
Einfacher ist die Situation bei Nvidia, denn einen wirklichen Open-Source-Treiber gibt es (auch nach Jahren anhaltender Kritik der Linux-Community) nicht, die Hauptbestandteile des Treibers stammen nach wie vor komplett von Nvidia selbst. Und damit gibt es im Test auch nur einen Treiber, der auf die Versionsnummer 575.64.03 hört.
Unter Windows kommen die Treiberversionen GeForce 576.88 und Adrenalin 25.6.3 zum Einsatz.
Das Testsystem und die Spiele
Als Rechner dient das Grafikkarten-Testsystem, das unter anderem mit einem AMD Ryzen 7 9800X3D als CPU ausgestattet ist. Das komplette System ist bei den Linux- und den Windows-Benchmarks identisch, einzig die NVMes mit dem Betriebssystem wurden ausgetauscht.
Aus insgesamt 21 Spielen besteht der Testparcours, mit dabei sind aktuelle AAA-Spiele, ältere AAA-Titel, kleinere Spiele sind vertreten und dasselbe gilt auch für einen Multiplayer-Klassiker. Als Auflösungen werden WQHD sowie Ultra HD genutzt, die Grafikdetails sind durchweg maximiert. Neben Rasterizer-Benchmarks wird, wenn vorhanden, auch Raytracing getestet.
Sämtliche Spiele werden, wenn verfügbar, mit Upsampling getestet. Die GeForce RTX 5070 Ti arbeitet mit DLSS 3 SR Quality, wenn im Spiel nativ integriert, kommt alternativ DLSS 4 SR Quality zum Einsatz. Die Radeon RX 9070 XT arbeitet dagegen durchweg mit FSR 3 Quality, was vor allem DLSS 4 Quality qualitativ weit unterlegen ist. Das ebenbürtige FSR 4 steht aktuell unter Linux jedoch nicht zur Verfügung und ist entsprechend keine Alternative. Deshalb ist zu bedenken, dass die Bildqualität auf der Nvidia-Grafikkarte sichtbar besser ist, was für den direkten Linux-Windows-Vergleich aber keine Rolle spielt – schon aber, wenn die GeForce-Leistung direkt mit der der Radeon verglichen wird, das gibt es zu bedenken!
Probleme beim Spielen von Windows-Spielen unter Linux
Die gute Nachricht: Der ohne einen Blick in Kompatibilitätsdatenbanken gewählte Testparcours läuft gut. ComputerBase hat insgesamt 23 Titel ausprobiert, von denen 20 absolut problemlos laufen.
Probleme mit Spielen
Eines zeigt leichte Grafik-Probleme (die laut Community auch unter Windows auftreten können), zwei laufen (zuerst) nicht.
- Überhaupt nicht läuft F1 25. Das liegt an der EA-eigenen Anti-Cheat-Software, die nicht lauffähig unter Linux ist.
- The Alters startete zwar normal, stürzte aber entweder bereits im Hauptmenü, spätestens jedoch nach wenigen Sekunden beim eigentlichen Spielgeschehen ab. ProtonDB nennt das Problem: Im Fenstermodus will es nicht.
Hinzu kommen Grafikfehler auf einer Nvidia-Grafikkarte in Spider-Man 2, dort flimmern die Baumschatten sichtbar. Indiana Jones und der große Kreis arbeitet ebenso nicht fehlerfrei, wobei die Probleme sowohl AMD- als auch Nvidia-Grafikarten betreffen. An sich funktioniert das Spiel zwar normal. Doch manchmal startet das Spiel einfach nicht, stürzt im Hauptmenü ab oder eben im Spiel selbst. Manchmal gibt es aber auch keine Probleme, das ist immer ein wenig eine Überraschungstüte.
Nvidia Reflext geht, AMD Anti-Lag 2 nicht
Alle Grafik-Features, die in einem Spiel integriert sind, funktionieren eigentlich auch unter Linux. Sei es Raytracing, DLSS oder FSR. Was jedoch nicht funktioniert, ist AMD Anti-Lag 2, die Option ist in Spiele ausgegraut und steht nicht zur Verfügung. Das Feature wird vermutlich in einem der kommenden Mesa-Updates Einzug in Linux erhalten. Besser schaut es dagegen bei Nvidia Reflex aus, das in allen Titeln einwandfrei funktioniert.
Der Energiesparmodus will nicht so richtig
Auch der Energiesparmodus verhält sich auf dem Testsetup unter Linux zickig. Auf der Radeon RX 9070 XT will er nur ab und zu funktionieren. Anstatt der gewünschten 10 Watt liegen oft aber auch 20 Watt, teilweise auch 40 bis 50 Watt an, ohne dass auf dem Windows-Desktop irgend etwas passiert. Warum der Idle-Modus so „hibbelig“ ist, ist unklar, doch gibt es so ein Verhalten von Zeit zu Zeit auch unter Windows.
Die GeForce RTX 5070 Ti reagiert etwas gleichmäßiger, benötigt aber ebenso zu viel Energie. Rund 33 Watt meldet die Telemetrie und dies fluktuiert auch nicht großartig. Mal sind es ein paar wenige Watt mehr, mal weniger, größere Unterschiede finden sich aber weder nach oben, noch nach unten.
Keine „Windows-Benchmark-Tools“
Was die klassischen Hardware- sowie Benchmark-Tools angeht, herrscht unter Linux Flaute. Das, was man unter Windows gewohnt ist, funktioniert unter Linux nicht, so zum Beispiel MSI Afterburner oder CapFrameX. Auf einer Radeon fehlt sogar das gesamte Treibermenü. Das hat zur Folge, dass potenziell eine ganze Menge Dritt-Software installiert werden muss.
Das fehlende Treibermenü hat eine weitere schwerwiegende Folge: Dass es aktuell kein FSR 4 unter Linux gibt (denn dafür benötigt es das Treibermenü). FSR-4-Kompatibilität wird derzeit von der Community über Mesa zur Verfügung gestellt – regulär allerdings erst mit dem kommenden Release Mesa 25.2 und somit bisweilen nur mit der nicht finalen Mesa-Git-Version.
Zumindest die der Redaktion bekannten Software-Alternativen bieten weder den Funktionsumfang, noch die Qualität der Windows-Tools. Mit Hilfe von „Linux GPU Control Application“ (LACT) lassen sich die Grafikkarten zum Beispiel ordentlich übertakten und protokollieren, doch ist dies eben nur ein Teil von dem, was die Windows- beziehungsweise Treiber-Tools ermöglichen.
Als Benchmark-Software dient MangoHUD mit Goverlay als grafische Oberfläche, wo sich durchaus einiges einstellen lässt, Funktionen aber auch Bugs aufweisen und nicht funktionieren. Wichtig ist, dass die Zählweise der Frames völlig anders als unter Windows funktioniert und zumindest mit MangoHUD deutlich ungenauer ist.
Denn während die Benchmark-Tools unter Windows zum Beispiel durchweg jeden einzelnen Frame erfassen, macht dies zumindest MangoHUD nicht. Stattdessen wird nur alle x Millisekunden (konfigurierbar) die Informationen abgefragt, was weniger genau ist und auch mehr Hardware-Ressourcen fordert. Das Frame-genaue Protokollieren unter Windows kostet weniger CPU-Zeit als das Protokollieren alle 10 Millisekunden unter Linux, obwohl ersteres genauer ist. Die Performancekosten sind zwar gering, aber auch mit einer schnellen CPU messbar. Das gilt auch für diesen Artikel: Je nach Spiel gehen zwischen 0 bis 2 Prozent an FPS durch die Benchmark-Protokollierung unter Linux verloren.
Es werden viele (ganz viele) Shader kompiliert
Shader vorab zu kompilieren, ist in Spielen mittlerweile ganz normal. Auch via Steam für Linux wird dies gemacht, in diesem Fall aber initiiert auch über Proton. Das von Windows bekannte Kompilieren in Spielen fällt dann weg oder kürzer aus, das Prozedere vor dem Start zieht sich aber. Wenn es gut läuft, ist es nach einer Minute erledigt, der Vorgang kann aber auch schonmal 20 Minuten dauern. Man kann in Steam auch auswählen, dass darauf verzichtet wird – laut Community sogar weitestgehend problemlos. Für den Test wurde das aber nicht gemacht, um jedweden Einfluss auf die Benchmarks auszuschließen.

-
Datenschutz & Sicherheitvor 1 Monat
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 1 Monat
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 1 Monat
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 1 Monat
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 4 Wochen
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 1 Monat
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 1 Monat
Aktuelle Trends, Studien und Statistiken