Apps & Mobile Entwicklung
Benchmarks Linux vs. Windows 11 auf Radeon & GeForce
Windows ist nach wie vor die mit Abstand größte Gaming-Plattform, Windows-Spiele auf Linux auszuführen funktioniert aber immer besser. Doch wie viel Leistung kostet das? ComputerBase hat sich im Test die Gaming-Performance von Linux auf einer GeForce- und einer Radeon-Grafikkarte angesehen und diese mit Windows 11 verglichen.
Windows-Spiele unter Linux spielen
In den letzten Jahren hat sich Linux immer weiter verbessert, was die Kompatibilität zu Windows-Spielen angeht. Denn dank Projekten wie Wine, DXVK oder VKD3D und deren Bündelung durch Valve und CodeWeavers in Proton für Steam (Linux) laufen die meisten auf Steam verfügbaren Windows-Spiele tatsächlich auch auf Linux problemlos. Wie schnell, klärt dieser Test mit Benchmarks auf einer Radeon RX 9070 XT und einer GeForce RTX 5070 Ti.
Auch Windows-Spiele, die nicht auf Steam erschienen sind, lassen sich über Wine und Co. oder über den Umweg über Steam fit machen – das ist dann allerdings nicht ganz so einfach. Denn bei Steam reicht es aus den Linux-Client zu installieren und ein Windows-Spiel zu starten.
Eine Diskussion über die Erfahrungen und Ergebnisse haben Wolfgang und Jan auch in der aktuellen Episode des ComputerBase-Podcasts CB-Funk geführt:
Anti-Cheat-Mechanismen sind ein Problem
Ein Aspekt, der das Ausführen eines Windows-Spiels unter Linux verhindern kann, ist ein Anti-Cheat-Mechanismus. Das gilt nicht für alle Spiele, denn der Hersteller kann den Schutz kompatibel zu Linux gestalten. Aber oft entscheiden sich Publisher dagegen, weil sie fürchten, ansonsten eine Hintertür zu schaffen. F1 25 von EA, das eigentlich mit getestet werden sollte, läuft beispielsweise nicht. Dasselbe gilt seit 2024 auch für League of Legends.
Die meisten Steam-Spiele laufen hingegen unter Linux. Wie gut welche Spiele laufen, darüber klärt Steam selbst, aber auch die ProtonDB auf. Handfeste Aussagen zur Performance Windows vs. Linux gibt es dort aber nicht.
Dieser Artikel soll die Lücke schließen. Ein aktuelles Linux muss sich beweisen und in 21 Spielen gegen Windows 11 stellen. Die Benchmarks werden dabei mit zwei verschiedenen Grafikkarten-Herstellern, der GeForce RTX 5070 Ti und der Radeon RX 9070 XT durchgeführt, sodass etwaige Unterschiede zwischen einer Nvidia- und einer AMD-Grafikkarte bzw. den Treibern sofort sichtbar werden. Alle Tests werden in den Auflösungen WQHD sowie Ultra HD durchgeführt.
Die Distribution im Test: Arch Linux (EndeavourOS)
Als Distribution ist die Wahl auf EndeavourOS gefallen, das Arch Linux als Technik-Plattform nutzt und mit dem KDE-Plasma-Desktop als Oberfläche daherkommt. Bei Arch Linux handelt es sich um eine Variante, die auf das Konzept der „maximalen Schlankheit“ setzt, während EndeavourOS das Konzept zwar weiterführt, dem Ganzen aber etwas Komfort beimischt. Der Vorteil des minimalistischen Ansatzes ist, dass die Programmversionen frühzeitig aktualisiert werden und damit immer dem Stand der Dinge entsprechen. Jedoch handelt es sich nicht unbedingt um eine Kombination, die immer selbsterklärend ist, Linux-Anfänger sollten sich lieber nach einer anderen Distribution umsehen. Der Linux-Kernel im Test liegt in der Version 6.15.5-arch1-1 vor.
Die Grafikkarten im Test
Als Grafikkarten kommen die GeForce RTX 5070 Ti und die Radeon RX 9070 XT zum Einsatz. Da unter Linux nicht die von Windows gewohnten Tools und teils auch Treibermenüs zur Verfügung stehen, verzichtet die Redaktion dieses Mal darauf, die eingesetzten Custom-Designs auf das Referenzniveau von Nvidia und AMD herunterzutakten. Denn unter den gegebenen Möglichkeiten ist es nicht gesichert, dass sich Linux und Windows diesbezüglich gleich verhalten.
Entsprechend arbeiten die von Haus aus übertakteten Grafikkarten etwas schneller als gewöhnlich. Im Test wird die MSI GeForce RTX 5070 Ti Ventus 3X OC (Test) sowie die Sapphire Radeon RX 9070 XT Pure (Test) eingesetzt, beide sind geringfügig übertaktet. Mehr als 1 bis 2 Prozent zusätzliche Leistung erbringen diese jedoch nicht. Dennoch hat die Redaktion auch die Windows-Benchmarks entsprechend erneuert, damit die Ergebnisse 1:1 zusammenpassen.
Die Treiber im Test
Bei den Treibern ist es kompliziert: Denn ComputerBase testet die Radeon-Performance mit gleich zwei verschiedenen Treibern – die von verschiedenen Entwicklern kommen. Zum einen handelt es sich um RADV (25.1.5-arch1.1). Dies ist ein „Userspace Treiber“, der nicht von AMD kommt, aber Code von AMD enthält und Teil des Open-Source-Mesa-Pakets ist. Dieser soll erfahrungsgemäß eine bessere Performance aufweisen als der eigentliche AMD-Treiber.
AMD selbst bietet auch einen Treiber an, der in Spielen oft jedoch langsamer sein soll – zumindest in Rasterizer-Titeln. Bei Raytracing wird diesem eine bessere Leistung nachgesagt. Ob dies tatsächlich so ist, wird ComputerBase mit AMDvlk in der Version 2025.Q2.1-1 herausfinden.
Einfacher ist die Situation bei Nvidia, denn einen wirklichen Open-Source-Treiber gibt es (auch nach Jahren anhaltender Kritik der Linux-Community) nicht, die Hauptbestandteile des Treibers stammen nach wie vor komplett von Nvidia selbst. Und damit gibt es im Test auch nur einen Treiber, der auf die Versionsnummer 575.64.03 hört.
Unter Windows kommen die Treiberversionen GeForce 576.88 und Adrenalin 25.6.3 zum Einsatz.
Das Testsystem und die Spiele
Als Rechner dient das Grafikkarten-Testsystem, das unter anderem mit einem AMD Ryzen 7 9800X3D als CPU ausgestattet ist. Das komplette System ist bei den Linux- und den Windows-Benchmarks identisch, einzig die NVMes mit dem Betriebssystem wurden ausgetauscht.
Aus insgesamt 21 Spielen besteht der Testparcours, mit dabei sind aktuelle AAA-Spiele, ältere AAA-Titel, kleinere Spiele sind vertreten und dasselbe gilt auch für einen Multiplayer-Klassiker. Als Auflösungen werden WQHD sowie Ultra HD genutzt, die Grafikdetails sind durchweg maximiert. Neben Rasterizer-Benchmarks wird, wenn vorhanden, auch Raytracing getestet.
Sämtliche Spiele werden, wenn verfügbar, mit Upsampling getestet. Die GeForce RTX 5070 Ti arbeitet mit DLSS 3 SR Quality, wenn im Spiel nativ integriert, kommt alternativ DLSS 4 SR Quality zum Einsatz. Die Radeon RX 9070 XT arbeitet dagegen durchweg mit FSR 3 Quality, was vor allem DLSS 4 Quality qualitativ weit unterlegen ist. Das ebenbürtige FSR 4 steht aktuell unter Linux jedoch nicht zur Verfügung und ist entsprechend keine Alternative. Deshalb ist zu bedenken, dass die Bildqualität auf der Nvidia-Grafikkarte sichtbar besser ist, was für den direkten Linux-Windows-Vergleich aber keine Rolle spielt – schon aber, wenn die GeForce-Leistung direkt mit der der Radeon verglichen wird, das gibt es zu bedenken!
Probleme beim Spielen von Windows-Spielen unter Linux
Die gute Nachricht: Der ohne einen Blick in Kompatibilitätsdatenbanken gewählte Testparcours läuft gut. ComputerBase hat insgesamt 23 Titel ausprobiert, von denen 20 absolut problemlos laufen.
Probleme mit Spielen
Eines zeigt leichte Grafik-Probleme (die laut Community auch unter Windows auftreten können), zwei laufen (zuerst) nicht.
- Überhaupt nicht läuft F1 25. Das liegt an der EA-eigenen Anti-Cheat-Software, die nicht lauffähig unter Linux ist.
- The Alters startete zwar normal, stürzte aber entweder bereits im Hauptmenü, spätestens jedoch nach wenigen Sekunden beim eigentlichen Spielgeschehen ab. ProtonDB nennt das Problem: Im Fenstermodus will es nicht.
Hinzu kommen Grafikfehler auf einer Nvidia-Grafikkarte in Spider-Man 2, dort flimmern die Baumschatten sichtbar. Indiana Jones und der große Kreis arbeitet ebenso nicht fehlerfrei, wobei die Probleme sowohl AMD- als auch Nvidia-Grafikarten betreffen. An sich funktioniert das Spiel zwar normal. Doch manchmal startet das Spiel einfach nicht, stürzt im Hauptmenü ab oder eben im Spiel selbst. Manchmal gibt es aber auch keine Probleme, das ist immer ein wenig eine Überraschungstüte.
Nvidia Reflext geht, AMD Anti-Lag 2 nicht
Alle Grafik-Features, die in einem Spiel integriert sind, funktionieren eigentlich auch unter Linux. Sei es Raytracing, DLSS oder FSR. Was jedoch nicht funktioniert, ist AMD Anti-Lag 2, die Option ist in Spiele ausgegraut und steht nicht zur Verfügung. Das Feature wird vermutlich in einem der kommenden Mesa-Updates Einzug in Linux erhalten. Besser schaut es dagegen bei Nvidia Reflex aus, das in allen Titeln einwandfrei funktioniert.
Der Energiesparmodus will nicht so richtig
Auch der Energiesparmodus verhält sich auf dem Testsetup unter Linux zickig. Auf der Radeon RX 9070 XT will er nur ab und zu funktionieren. Anstatt der gewünschten 10 Watt liegen oft aber auch 20 Watt, teilweise auch 40 bis 50 Watt an, ohne dass auf dem Windows-Desktop irgend etwas passiert. Warum der Idle-Modus so „hibbelig“ ist, ist unklar, doch gibt es so ein Verhalten von Zeit zu Zeit auch unter Windows.
Die GeForce RTX 5070 Ti reagiert etwas gleichmäßiger, benötigt aber ebenso zu viel Energie. Rund 33 Watt meldet die Telemetrie und dies fluktuiert auch nicht großartig. Mal sind es ein paar wenige Watt mehr, mal weniger, größere Unterschiede finden sich aber weder nach oben, noch nach unten.
Keine „Windows-Benchmark-Tools“
Was die klassischen Hardware- sowie Benchmark-Tools angeht, herrscht unter Linux Flaute. Das, was man unter Windows gewohnt ist, funktioniert unter Linux nicht, so zum Beispiel MSI Afterburner oder CapFrameX. Auf einer Radeon fehlt sogar das gesamte Treibermenü. Das hat zur Folge, dass potenziell eine ganze Menge Dritt-Software installiert werden muss.
Das fehlende Treibermenü hat eine weitere schwerwiegende Folge: Dass es aktuell kein FSR 4 unter Linux gibt (denn dafür benötigt es das Treibermenü). FSR-4-Kompatibilität wird derzeit von der Community über Mesa zur Verfügung gestellt – regulär allerdings erst mit dem kommenden Release Mesa 25.2 und somit bisweilen nur mit der nicht finalen Mesa-Git-Version.
Zumindest die der Redaktion bekannten Software-Alternativen bieten weder den Funktionsumfang, noch die Qualität der Windows-Tools. Mit Hilfe von „Linux GPU Control Application“ (LACT) lassen sich die Grafikkarten zum Beispiel ordentlich übertakten und protokollieren, doch ist dies eben nur ein Teil von dem, was die Windows- beziehungsweise Treiber-Tools ermöglichen.
Als Benchmark-Software dient MangoHUD mit Goverlay als grafische Oberfläche, wo sich durchaus einiges einstellen lässt, Funktionen aber auch Bugs aufweisen und nicht funktionieren. Wichtig ist, dass die Zählweise der Frames völlig anders als unter Windows funktioniert und zumindest mit MangoHUD deutlich ungenauer ist.
Denn während die Benchmark-Tools unter Windows zum Beispiel durchweg jeden einzelnen Frame erfassen, macht dies zumindest MangoHUD nicht. Stattdessen wird nur alle x Millisekunden (konfigurierbar) die Informationen abgefragt, was weniger genau ist und auch mehr Hardware-Ressourcen fordert. Das Frame-genaue Protokollieren unter Windows kostet weniger CPU-Zeit als das Protokollieren alle 10 Millisekunden unter Linux, obwohl ersteres genauer ist. Die Performancekosten sind zwar gering, aber auch mit einer schnellen CPU messbar. Das gilt auch für diesen Artikel: Je nach Spiel gehen zwischen 0 bis 2 Prozent an FPS durch die Benchmark-Protokollierung unter Linux verloren.
Es werden viele (ganz viele) Shader kompiliert
Shader vorab zu kompilieren, ist in Spielen mittlerweile ganz normal. Auch via Steam für Linux wird dies gemacht, in diesem Fall aber initiiert auch über Proton. Das von Windows bekannte Kompilieren in Spielen fällt dann weg oder kürzer aus, das Prozedere vor dem Start zieht sich aber. Wenn es gut läuft, ist es nach einer Minute erledigt, der Vorgang kann aber auch schonmal 20 Minuten dauern. Man kann in Steam auch auswählen, dass darauf verzichtet wird – laut Community sogar weitestgehend problemlos. Für den Test wurde das aber nicht gemacht, um jedweden Einfluss auf die Benchmarks auszuschließen.

Apps & Mobile Entwicklung
NAND-Flash von Kioxia/SanDisk: BiCS9 ist ein Hybrid aus alter und neuer Technik
Das CBA-Herstellungsverfahren mit Logik und Speicherzellen auf verschiedenen Wafern eröffnet Kioxia und SanDisk neue Möglichkeiten. Und so gibt es zwischen den Generationen BiCS8 und BiCS10 den Zwischenschritt BiCS9, der aber sogar bis auf BiCS5 zurückgeht. Verwirrend? Hier kommt die Aufklärung.
Kioxia stellt BiCS9-TLC-Flash vor
Zunächst einmal zur heutigen Vorstellung von Kioxia, dem japanischen NAND-Flash-Hersteller, der gemeinsam mit SanDisk 3D-NAND entwickelt und produziert: Kioxia lässt verlauten, dass die ersten TLC-Speicherchips der 9. Generation (BiCS9) bemustert werden. Die Serienfertigung soll noch im Laufe des Geschäftsjahres 2025 erfolgen, das allerdings erst am 31. März 2026 endet. Somit kann es also noch bis zum nächsten Kalenderjahr dauern.
Die TLC-Speicherchips mit 3 Bit pro Zelle besitzen eine Speicherkapazität von 512 Gbit pro Die. Das ist nur halb so viel wie inzwischen für TLC-NAND üblich und nur ein Viertel dessen, was die BiCS8-Generation als QLC-Variante liefert.
Kioxia verspricht eine gegenüber TLC-Flash mit 512 Gbit aus der sechsten Generation (BiCS6) um 61 Prozent verbesserte Schreibleistung und ein 12 Prozent schnelleres Lesen. Außerdem soll die Energieeffizienz beim Schreiben um 36 Prozent und beim Lesen um 27 Prozent besser ausfallen.
- Write performance: 61% improvement
- Read performance: 12% improvement
- Power efficiency: enhanced by 36% during write operations and 27% during read operations
- Data transfer speed: the Toggle DDR6.0 interface enables high-speed 3.6Gb/s(5) NAND interface performance
- Bit density: increased by 8% through advancements in planar scaling
Kioxia
Verwirrend wird es dann bei den weiteren Angaben, denn der BiCS9-Flash soll einerseits in einem 112-Layer-Verfahren auf Basis des älteren BiCS5 entwickelt worden sein, andererseits verfüge er über eine moderne Toggle-DDR6.0-Schnittstelle mit 3.600 MT/s und könne sogar unter Idealbedingungen 4.800 MT/s erreichen.
Des Rätsels Lösung: CBA
Die Auflösung dieser Diskrepanz liegt in dem seit BiCS8 eingeführten Herstellungsprinzip „CMOS directly Bonded to Array“ (CBA). Wie es zuerst beim chinesischen Hersteller YMTC geschah, werden Logik und Zellen jeweils auf eigenen Wafern gefertigt und anschließend verbunden. Das grundlegende Verfahren nennt sich Waferbonden. In diesem Fall werden Chip-Logik (I/O) und Speicherbereich zunächst getrennt voneinander auf separaten Wafern gefertigt und erst später zu einem Speicherchip vereint. Obwohl somit zwei Wafer benötigt werden, sollen die Kosten insgesamt nicht steigen, da sich auf diesem Weg die Speicherdichte so weit optimieren lasse, dass sich der zusätzliche Wafer lohne, hieß es bei YMTC.
Kioxia und SanDisk nutzen das Prinzip jetzt, um ein älteres, aber kostengünstiges Speicher-Design (BiCS5, 112 Layer) mit einem modernen I/O-Paket samt hoher Leistung zu kombinieren. Daraus entsteht BiCS9 als Abzweig der traditionellen Roadmap. Es handelt sich praktisch um ein Hybrid-Design aus alter und neuer Architektur.

Während beim kommenden BiCS10 primär die Erhöhung der Flächendichte im Fokus steht, die durch die (teure) Anhebung auf 332 Layer erreicht wird, soll BiCS9 primär die Herstellungskosten senken, dank eines neuen I/O-Bereichs aber auch mehr Leistung bieten.
Verwirrung komplett: BiCS9 kann auch BiCS8 enthalten
Eine Fußnote sorgt dann aber erneut für Verwirrung: Kioxia schreibt dort, dass BiCS9 je nach „Modell“ entweder 112-Layer-Technik (BiCS5) oder 218-Layer-Technik (BiCS8) enthalten kann.
- 9th generation BiCS FLASH™ products: these achieve high performance at reduced production cost by leveraging CBA (CMOS directly Bonded to Array) technology(2), which integrates existing memory cell technologies(3) with the latest CMOS technology.
- 10th generation BiCS FLASH™ products: these incorporate an expansion in the number of memory layers to meet the expected future demand for larger-capacity, high-performance solutions.
(2) Technology wherein each CMOS wafer and cell array wafer are manufactured separately in their optimized condition and then bonded together.
(3) A 112-layer 5th generation BiCS FLASH™ and a 218-layer 8th generation BiCS FLASH™ technologies. The new lineup of 9th generation BiCS FLASH™ products will incorporate one of these, depending on the model.
Kioxia
Apps & Mobile Entwicklung
SwitchBot Smart Lock Ultra im Test: Die beste Nuki-Alternative
SwitchBot legt wirklich alles in die Waagschale, was sie zu bieten haben! Das neueste Modell vereint ein Smart Lock mit Keypad, Fingerabdruckscanner und Gesichtserkennung! Ob das ganze Zubehör reicht, um Nuki vom Thron zu stoßen und ob sich der Kauf des intelligenten Türschlosses lohnt, verrät der ausführliche Test.
Pro
- Kein Zylindertausch notwendig
- Modernes Design
- Viele Funktionen in der App
- Optional mit Gesichtserkennung
Contra
- Langsamer als Konkurrenz-Modelle


SwitchBot Smart Lock Ultra: Alle Angebote
Montage des SwitchBot Smart Lock Ultra
Design und Verarbeitung | |
---|---|
Zylindertausch notwendig? | |
Kompatibles Zubehör |
|
SwitchBot bietet einen riesigen Lieferumfang. Abgesehen vom Smart Lock sind ein Keypad mit Fingerabdruckscanner und ein Matter-Hub enthalten. Vor der Installation des Geräts solltet Ihr Euch in der SwitchBot-App registrieren. Hier müsst Ihr eine E-Mail-Adresse hinterlegen und eine WLAN- sowie Bluetoothverbindung herstellen. Zuallererst muss der Matter-Hub hinzugefügt werden. Ist dieser am Strom angeschlossen, müsst Ihr die Taste für drei Sekunden drücken, damit der Kopplungsprozess startet. Nachdem der Matter-Hub hinzugefügt wurde, ist das Smart Lock an der Reihe.
Das Türschloss besteht aus Vollmetallgehäuse und wirkt modern. Mir gefällt das Design besser als das des SwitchBot Smart Lock Pro (zum Test). Das Smart Lock Ultra ist mit den meisten EU-Schlössern kompatibel. Einzige Voraussetzung ist, dass es eine Not- und Gefahrenfunktion gibt. Das beste: Ein Zylindertausch ist bei diesem Modell nicht notwendig.
Die App führt Euch detailliert durch den gesamten Montage-Prozess. Diesbezüglich hat sich SwitchBot eine Scheibe von Nuki abgeschnitten. Egal, welche Fixierplatte Ihr benötigt, egal welche Adapter genutzt werden müssen, Smart-Lock-Neulinge werden keine Sekunde an der Installation verzweifeln. Außerdem ist sämtliches Werkzeug, das notwendig ist, im Lieferumfang enthalten. Chapeau SwitchBot! Der gesamte Installations-Vorgang hat im Test etwa zehn Minuten gedauert.
Funktionen und Entsperrmöglichkeiten
Funktionen der SwitchBot-App | |
---|---|
Auto-Lock | |
Geofence-Funktion? |
|
Matter-kompatibel? |
|
Das SwitchBot-Modell hat alle Funktionen, die man sich von einem Smart Lock nur wünschen kann. Inbegriffen sind Auto-Lock-Features, Auto-Unlock-Funktionen oder die Option festzulegen, was bei einmaligem oder doppeltem Klick der Taste passieren soll. SwitchBot bietet drei Tempo-Modi an. Der Sound beim Öffnen ist neutral. Ich finde, es klingt in keiner Weise so metallisch wie das erwähnte Nuki-Modell.
Auf der schnellsten Stufe kann das Türschloss nicht mit dem Nuki Smart Lock Pro (zum Test) mithalten. Das muss es aber nicht. Denn in allen anderen Belangen weiß das Smart Lock zu überzeugen. Angefangen bei der beeindruckenden Batterielaufzeit. SwitchBot verspricht eine Laufzeit von neun Monaten! Damit nicht genug, hat SwitchBot an sämtliche Notfälle gedacht.
Denn für den Fall, dass der Akku leer ist, ohne dass es Euch auffällt, übernimmt ein zusätzlicher Notfallakku die Stromversorgung. Solange der Hauptakku geladen wird, versorgt der Zusatzakku das Türschloss mit Energie. So könnt Ihr das Smart Lock weiterhin wie gehabt nutzen. Das hat noch einen weiteren Vorteil. Normalerweise hätte ich kritisiert, dass der Akku des Schlosses zum Laden herausgenommen werden muss. Aber durch die beschriebene Lösung ist das gar kein Thema mehr.
Das Keypad bietet die Speicherung von vier Passworttypen, die in der App festgelegt werden:
- Permanentes Passwort
- Einmal-Passwort
- Zeitlich begrenztes Passwort
- Tarn-Passwort
Die Fingerabdruckerkennung klappt in der Praxis zuverlässig und schnell. Für einen Aufpreis von 149,99 Euro bietet SwitchBot das Keypad Vision an. Dabei handelt es sich um ein Keypad mit Fingerabdruckscanner und Gesichtserkennung. Wie schon beim gewöhnlichen Keypad funktioniert die Fingerabdruckerkennung schnell und zuverlässig. Die Gesichtserkennung dauert in der Praxis einen Moment, aber klappt ebenfalls tadellos. Auf diese Weise müsst Ihr wirklich nichts machen, um Nachhause zu kommen – na ja, eventuell lächeln.
Lohnt sich das SwitchBot Smart Lock Ultra?
Ja, das SwitchBot Smart Lock Ultra ist ein beeindruckendes Smart Lock (Bestenliste), das mit verschiedenen Öffnungsmöglichkeiten begeistert. In meinen Augen sticht es das Aqara U200 (zum Test) als die beste Nuki-Alternative aus. Wer auf das rasante Öffnungstempo des Nuki-Schlosses verzichten kann, sollte den Kauf des SwitchBot-Modells in Betracht ziehen. Das Modell bietet alle Funktionen, die bei einem smarten Türschloss wichtig sind. Hinzu kommt, dass ein Zylindertausch nicht notwendig ist.
Das Beste ist das vorhandene Zubehör. Dadurch fällt die ohnehin schon leichte Bedienung noch leichter. Der Preis spricht ebenfalls für das Smart Lock. Das Paket kostet Euch 249,99 Euro bei Amazon. Wer das Keypad Vision mit 3D-Gesichtserkennung haben möchte, zahlt weitere 149,99 Euro.

SwitchBot Smart Lock Ultra
Zur Geräte-Datenbank
Apps & Mobile Entwicklung
Synology DS225+: Neues 2-Bay-NAS mit 2,5 Gbit/s ist jetzt im Handel verfügbar
Mit der DS225+ komplettiert Synology die neue Plus-Serie und bringt nach der DS725+, DS925+ (Test) und DS425+ das neue 2-Bay-Modell auf den Markt. Im Handel ist es bei ersten Händlern auch bereits zur unverbindlichen Preisempfehlung von 355,81 Euro verfügbar.
Die DS225+ für bis zu zwei HDDs setzt auf die gleiche Hardware wie die für bis zu vier HDDs ausgelegte DS425+ und ist unterhalb der DS725+ mit Ryzen-CPU angesiedelt.
Jetzt mit 2,5 Gigabit im LAN
Die wichtigste Veränderung im Vergleich zum Vorgänger, der DS224+ (Test), liegt bei den Netzwerkanschlüssen. Denn anstelle von zwei 1-Gigabit-LAN-Anschlüssen setzt die DS225+ nun auf einen LAN-Anschluss mit 2,5 Gigabit/s und einen LAN-Anschluss mit 1 Gigabit/s. In Netzwerken, die diese LAN-Geschwindigkeit unterstützen, kann die Übertragungsrate allein dadurch und auch ohne veränderte Hardware enorm erhöht werden. Synology selbst spricht von 280/210 MB/s beim Lesen bzw. Schreiben.
Unveränderter Prozessor und Arbeitsspeicher
Denn beim Prozessor und Arbeitsspeicher gibt es mit der DS225+ im Vergleich zur DS224+ keine Veränderungen. Beim Prozessor nutzt Synology weiterhin den Intel Celeron J4125. Er entstammt der Gemini-Lake-Refresh-Serie, die schon Ende 2019 veröffentlicht wurde. Der Celeron J4125 bietet vier CPU-Kerne bei insgesamt vier Threads. Der Basistakt beträgt 2,0 GHz, im Turbo können die Kerne aber auf bis zu 2,7 GHz takten. Die TDP liegt bei 10 Watt und der Cache ist 4 MB groß. Der J4125 verfügt über eine integrierte Intel UHD Graphics 600, so dass Videos über diese schneller transkodiert werden können.
Der Arbeitsspeicher ist ab Werk nur 2 GB groß, bietet keine Fehlerkorrektur (ECC) und ist auf der Platine verlötet. Über die Vorderseite des NAS kann jedoch ein weiteres DDR4-SODIMM-Modul mit offiziell maximal 4 GB eingesetzt werden.
Keine M.2-SSDs
Auch die restliche Ausstattung des neuen NAS bleibt unverändert. So verfügt auch die DS225+ insbesondere nicht über M.2-Steckplätze für einen SSD-Cache oder ein SSD-Volume. Möchte man SSDs mit kurzen Zugriffszeiten in der DS225+ nutzen, kann nur auf 2,5-Zoll-SATA-SSDs in den normalen Laufwerksrahmen anstelle von HDDs zurückgegriffen werden.
Nur zertifizierte HDDs auch für die DS225+
Wie bei den anderen NAS ab der neuen Plus-Serie können auch in der DS225+ nur noch Synologys eigene oder zertifizierte HDDs von anderen Herstellern eingesetzt werden. Die Kompatibilitätsliste der DS225+ listet aktuell nur Synologys eigene HDDs auf. Eine Zertifizierung von Laufwerken anderer Hersteller ist bislang nicht erfolgt.
Ein Schlupfloch stellt für Besitzer eines Synology-NAS noch die Migration dar. Laufwerke aus einem älteren Synology-NAS können in die neue DS225+ umgezogen und dann weiterhin genutzt werden.
ComputerBase erläutert in einem gesonderten Bericht, was die neue HDD-Richtlinie genau bedeutet, was derzeit noch möglich ist, was nicht mehr funktioniert und wie sich die Laufwerkssperre derzeit noch umgehen lässt.
Preis und Verfügbarkeit
Die Synology DS225+ ist ab sofort im Handel erhältlich. Ein Händler listet die DS225+ aktuell bereits als lieferbar. Synology nennt eine unverbindliche Preisempfehlung von 299 Euro zuzüglich Mehrwertsteuer, was in 355,81 Euro resultiert. Der Vorgänger, die DS224+, war im August 2023 für ebenfalls rund 356 Euro (UVP) auf den Markt gekommen. Die DS224+ ist derzeit im Handel ab 327 Euro verfügbar.
-
Datenschutz & Sicherheitvor 1 Monat
Geschichten aus dem DSC-Beirat: Einreisebeschränkungen und Zugriffsschranken
-
Online Marketing & SEOvor 1 Monat
TikTok trackt CO₂ von Ads – und Mitarbeitende intern mit Ratings
-
Apps & Mobile Entwicklungvor 1 Monat
Metal Gear Solid Δ: Snake Eater: Ein Multiplayer-Modus für Fans von Versteckenspielen
-
UX/UI & Webdesignvor 1 Monat
Philip Bürli › PAGE online
-
Digital Business & Startupsvor 4 Wochen
80 % günstiger dank KI – Startup vereinfacht Klinikstudien: Pitchdeck hier
-
Apps & Mobile Entwicklungvor 1 Monat
Patentstreit: Western Digital muss 1 US-Dollar Schadenersatz zahlen
-
Social Mediavor 1 Monat
LinkedIn Feature-Update 2025: Aktuelle Neuigkeiten
-
Social Mediavor 1 Monat
Aktuelle Trends, Studien und Statistiken