Sicherungen und Backups: Habt ihr schon mal Daten verloren und wie schützt ihr euch?
Datenverlust ist für viele Anwender kein Thema – bis es dann passiert. Ob die Community auf ComputerBase auch schon betroffen war, wie es im Detail dazu kam und welcher Backup-Strategien ihr euch privat bedient, um eure eigenen wichtigen Daten zu sichern, darum geht es in der heutigen Sonntagsfrage.
Backups schützen vor Datenverlust
Das heutige Thema ist weitestgehend selbsterklärend und fortlaufend aktuell: Wichtige oder emotional behaftete Daten werden immer häufiger digital gespeichert, auch im persönlichen Bereich – seien es Urlaubsbilder, das Studium oder Hobby-Projekte. Wie riskant es sein kann, das eigene digitale Leben auf einem einzelnen Datenträger in einem einzelnen Endgerät an einem einzelnen Ort zu sichern, wird vielen alltäglichen Anwendern leider erst dann bewusst, wenn diese Einsicht schon zu spät ist.
Von Community-Mitglied klampf kommt der Vorschlag zu einer Sonntagsfrage zu diesem Thema, dem die Redaktion prompt folgt: Habt auch ihr schon einmal privat wichtige oder persönliche Daten – schlimmstenfalls permanent – verloren, weil es kein Sicherheitsbackup oder eine Versionierung gab?
Hast du schon einmal privat digitale Daten dauerhaft verloren?
Ja, das ist mir leider sogar schon mehrfach passiert.
Ja, das ist mir einmal passiert.
Na ja, schon, aber die betroffenen Daten waren mir nicht wichtig und ich hab das bewusst bzw. fahrlässig in Kauf genommen.
Ja, zuerst sah es danach aus, aber eine aufwändige Datenrettung konnte die Daten oder zumindest Teile der Daten wieder herstellen.
Nein, noch nie – obwohl ich keine systematischen Backups anlege.
Nein, noch nie – dank meines Backups, das hat mich schon mindestens einmal vor einem Datenverlust bewahrt.
Wie kam es zum Datenverlust?
Die nächste Frage richtet sich an alle Teilnehmer, die privat schon einmal Daten verloren haben: Wisst ihr noch, was die Ursache war? Lag ein technischer Defekt bei Hard- oder Software vor, gab es Schadeinwirkung von außen oder wart ihr schlicht und ergreifend schusselig?
Falls du schon einmal einen solchen Datenverlust hattest, wie kam es dazu?
Altersbedingter Defekt bzw. Materialermüdung bei Festplatte oder SSD
Software-Fehler oder -Defekt (korruptes Dateisystem, Partition fehlerhaft etc.)
Menschlicher Fehler (bspw. versehentlich gelöscht, überschrieben oder formatiert)
Backup-Fehler (bspw. fehlerhafte Synchronisation oder schadhaftes Überschreiben)
Ein anderer Grund, siehe meinen Kommentar im Forum
Die nächsten drei Fragen zielen darauf ab, ob und wie umfangreich die Community ihre Daten sichert und Backups erstellt. Dabei geht es explizit um private Daten, also nicht etwa den eigenen Arbeitsplatz im Unternehmen oder dessen IT-Strategie.
Mit Blick auf eure eigenen persönlichen oder wichtigen Daten, wie habt ihr diese überwiegend gespeichert oder gesichert? Und gibt es Backups?
Wie sicherst du deine eigenen wichtigen Daten aktuell?
Ich habe meine Daten einfach lokal bei mir gespeichert, ohne Backup
Meine persönlichen digitalen Daten verteilen sich – teils einfach lokal gesichert, teils redundant – auf mehrere Endgeräte
Ich habe meine Daten in der Cloud gespeichert oder gespiegelt (bspw. iCloud, OneDrive, Google Drive) und verlasse mich ohne weitere Redundanz auf den jeweiligen Anbieter
Von ausgewählten persönlichen bzw. wichtigen Daten gibt es Backups bzw. eine Versionierung
Ich halte von (fast) all meinen digitalen Daten Backups vor
Falls ihr Backups eurer Daten erstellt, wie geht ihr dabei vor? Setzt ihr auf manuelle Kopien oder habt ihr einen systematischen Ansatz? Und wo landen die Daten?
Wenn du ein Backup deiner privaten bzw. wichtigen Daten erstellst, wie?
Ich setze für meine Daten auf RAID 1 (automatisch und fortlaufend gespiegeltes Laufwerk)
Ich kopiere die Daten auf einen anderen Datenträger im selben System
Ich spiegele meine Daten manuell auf ein externes Laufwerk
Ich kopiere die Daten manuell auf ein zweites System
Ich nutze automatisierte Backup-Software bzw. Versionierung mit einem Backup-Datenträger
Ich erstelle regelmäßig Backups auf oder nutze Versionierung mit meinem NAS-System
Ich fertige „richtige“ Cloud-Backups bei kommerziellen Anbietern an, d.h. ich synchronisiere meine Daten nicht bloß
Versierten Anwendern wird freilich bereits aufgefallen sein, dass einige der zuvor als Antwortmöglichkeit gegebenen Strategien überlegen sind, während andere die Definition eines Backups gar nicht erst erfüllen. Daher folgt im Anschluss die Frage, wie ernst es euch mit den privaten Backups ist.
Wie rigoros bist du privat mit deiner Backup-Strategie?
Ich fertige fast nie Backups an
Ich sichere nur gelegentlich manuell, wenn ich daran denke
Ich fertige in regelmäßigen Abständen manuelle Backups an
Backups oder eine Versionierung laufen bei mir voll automatisiert und regelmäßig
Ich sichere voll automatisiert, regelmäßig und für zusätzliche Redundanz auch noch mit einer weiteren Kopie an einem anderen Ort (bspw. Cloud, Elternhaus, Freunde, Arbeit)
Kein Backup = kein Mitleid?
„Kein Backup, kein Mitleid“ ist eine in Internet-Foren immer wieder anzutreffende Bemerkung, wenn verzweifelte Nutzer bei einem Datenverlust um Rat fragen oder gar ein betrieblicher Schaden durch verlorene Daten entstanden ist. Wie seht ihr das: Ist diese harte Gangart gerechtfertigt? Oder schiebt sie die Schuld zu sehr auf Anwender, die es schlicht und ergreifend nicht besser wussten?
Habt ihr Mitleid bei einem Datenverlust ohne Backup?
Nein, wer kein Backup anfertigt, verdient kategorisch kein Mitleid – selbst schuld. Nur so lernen es die betroffenen schließlich doch.
Ja, durchaus. Mitleid ist vielleicht der falsche Begriff, aber ich reagiere da mit Verständnis: Das Thema ist zu komplex und wird weniger versierten Nutzern schlicht und ergreifend nicht ausreichend vermittelt. Missverständnisse, was tatsächlich ein richtiges Backup ist, sind allgegenwärtig.
Mitmachen ist ausdrücklich erwünscht
Die Redaktion freut sich wie immer über fundierte und ausführliche Begründungen zu euren Entscheidungen in den Kommentaren zur aktuellen Sonntagsfrage. Wenn ihr persönlich ganz andere Ansichten vertretet, die von den bei den Umfragen im Artikel gegebenen Antwortmöglichkeiten nicht abgedeckt werden, könnt ihr davon ebenfalls im Forum berichten. Auch Ideen und Anregungen zu inhaltlichen Ergänzungen der laufenden oder zukünftigen Umfragen sind gerne gesehen.
Leser, die sich noch nicht an den vergangenen Sonntagsfragen beteiligt haben, können dies gerne nachholen, denn die Umfragen laufen stets über eine Dauer von 30 Tagen. Voraussetzung zur Teilnahme ist lediglich ein kostenloser ComputerBase-Account. Insbesondere zu den letzten Sonntagsfragen sind im Forum häufig nach wie vor spannende Diskussionen im Gange.
Die letzten zehn Sonntagsfragen in der Übersicht
Motivation und Datennutzung
Die im Rahmen der Sonntagsfragen erhobenen Daten dienen einzig und allein dazu, die Stimmung innerhalb der Community und die Hardware- sowie Software-Präferenzen der Leser und deren Entwicklung besser sichtbar zu machen. Einen finanziellen oder werblichen Hintergrund gibt es dabei nicht und auch eine Auswertung zu Zwecken der Marktforschung oder eine Übermittlung der Daten an Dritte finden nicht statt.
Big Tech setzt auf „Winner takes all“: 650 Mrd. Dollar an Investitionen für KI-Wettrüsten in 2026
Bild: Nvidia
Mit den in den letzten Tagen veröffentlichten Geschäftszahlen haben die Big-Tech-Konzerne auch bekannt gegeben, welche Ausgaben man für das KI-Wettrüsten in diesem Jahr plant. Laut Bloomberg erreicht die Summe, die Amazon, Microsoft, Google und Meta investieren wollen, ein nochmals deutlich gesteigertes Rekordniveau.
Zusammen kommen die Konzerne auf Investitionsausgaben in Höhe von rund 650 Milliarden US-Dollar, ergeben die Berechnungen von Bloomberg. Das wäre ein Anstieg von rund 60 Prozent im Vergleich zu diesem Jahr.
Amazon investiert am meisten
Die höchsten Ausgaben plant Amazon. Der Konzern kündigte am Donnerstag Investitionsausgaben („CapEx“) in Höhe von 200 Milliarden US-Dollar an. Beim Google-Mutterkonzern Alphabet sollen es bis zu 185 Milliarden US-Dollar sein, Meta will die Investitionsausgaben auf bis zu 135 Milliarden US-Dollar steigern. Bei Microsoft werden für das Geschäftsjahr 2025, das am 30. Juni 2026 endet, Investitionsausgaben von 105 Milliarden US-Dollar erwartet.
Die Dimensionen sind enorm. Jeder der vier Konzerne hätte mit den jeweils geplanten Ausgaben einen Höchstwert erreicht, wenn man auf die letzten zehn Jahre zurückblickt. Um Vergleiche zu finden, muss man weiter zurückschauen. Als Beispiele nennt Bloomberg in dem Bericht die Investitionen in den Telekommunikationsmarkt in den 1990er Jahren, den Eisenbahnbau im 19. Jahrhundert oder den Ausbau des Interstate-Highway-Systems in den USA nach dem 2. Weltkrieg.
Ein „Winner-takes-all“-Wettrüsten
Laut Bloomberg bewerten die vier Big-Tech-Konzerne das Wettrüsten um KI-Rechenleistung als „Winner-takes-all“-Markt. Wer ab einem gewissen Punkt die Marktführerschaft hat, soll sich also auf Dauer durchsetzen. Historische Beispiele sind etwa Google bei den Suchmaschinen oder Meta im Bereich der sozialen Netzwerke. Dementsprechend hoch ist die Bereitschaft der Konzerne für Investitionen.
Was in der letzten Woche allerdings auffällig war: die Skepsis der Analysten. Es bestehen Zweifel, ob sich die Ausgaben auf Dauer rentieren. Microsoft erlebte daher etwa trotz guter Quartalsergebnisse einen Kursrutsch an der Börse, die Gesamtwert des Konzerns liegt laut Companies Market Cap bei unter 3 Billionen US-Dollar. So tief stand der Kurs zuletzt vor einem Jahr. Sinkende Kurse verzeichneten auch Google, Amazon und Meta.
Konsequenzen des KI-Wettrüstens
Indem Big Tech die Ausgaben weiter nach oben schraubt, dürften laut Bloomberg auch die Schattenseiten des Rechenzentren-Ausbaus noch mehr in den Vordergrund rücken. Der Ausbau der Kapazitäten sorgt bereits jetzt für steigende Strompreise sowie Umweltbelastungen in den Regionen, in denen die Rechenzentren entstehen.
Die Konsequenzen bleiben auch im Gaming-Markt spürbar, das zeigen allein die Nachrichten der letzten Tage. The Information meldete diese Woche, dass Nvidias kommende GeForce-RTX-60-Generation auf Basis der Rubin-GPUs voraussichtlich auf Anfang 2028 verschoben wurde. Ursprünglich war ein Start Ende 2027 erwartet worden. Ein Refresh der RTX-50-Reihe soll es in diesem Jahr ebenfalls nicht geben.
Valve hat derweil den Start der Steam Machine verschoben und nennt nach wie vor keinen Preis. Der Grund sind Engpässe und erhöhte Kosten beim Speicher.
Unbekannte Nummer: Diese Funktion verhindert Betrug
Unbekannte Telefonnummern nerven nicht nur – sie sind ein Sicherheitsrisiko. Kaum ein Smartphone-Nutzer geht heutzutage noch an jeden Anruf dran. Doch jetzt ändert sich etwas. Die Telekom hat etwas in ihrem Netz geändert.
Euer Telefon klingelt, es zeigt eine Nummer an, die Ihr nicht kennst. Und Ihr geht nicht dran. Doch was, wenn hinter einer unbekannten Nummer doch ein legitimes Unternehmen steckt? Das Autohaus, das euch anruft, weil Euer Auto repariert ist. Genau hier setzt ein neues Netzfeature im deutschen Mobilfunk an, das weit über eine simple Rufnummernanzeige hinausgeht – und Euch künftig helfen soll, schneller und sicherer zu entscheiden, ob Ihr rangeht oder nicht.
Was steckt hinter „Branded Calls“?
Beim klassischen Anruf seht Ihr meist nur die Nummer – kein Name, keine Kontext-Infos. Das ändert sich jetzt mit den sogenannten Branded Calls, die die Deutsche Telekom in ihrem Mobilfunknetz ausrollt. Statt nur einer Rufnummer wird beim Klingeln künftig auch ein Firmenname eingeblendet, ähnlich dem, was Dienste wie Hiya oder Truecaller bereits tun.
Spam- und Scam-Anrufe sind so allgegenwärtig, dass viele Menschen standardmäßig nicht mehr rangehen. Ohne Zusatzinfo bleibt legitimen Unternehmen oft nur der Weg über eine SMS oder Mail – mit all ihren eigenen Problemen.
Wie funktioniert die neue Anzeige technisch?
Die Branded-Calls-Funktion ist netzintern implementiert – Ihr müsst keine App installieren oder Berechtigungen zustimmen. Laut Telekom läuft sie auf allen gängigen Mobiltelefonen. Zudem arbeitet das Unternehmen mit Drittanbietern wie First Orion und Hiya zusammen, um die Anzeige auch netzübergreifend nutzbar zu machen. Das bedeutet: Ein eingehender Anruf sieht nicht mehr so aus: „+49 170 1234567“ sondern so: „Deutsche Werkstatt GmbH“
Parallel zur Branded-Calls-Einführung hat die Telekom bereits im Dezember 2025 einen Service namens Call Check gestartet. Dieser vergleicht jede eingehende Nummer mit einer Datenbank bekannter Spam- oder Betrugsnummern und warnt Euch auf dem Display mit einem Hinweis wie: „Vorsicht, möglicher Betrug!“ Wichtig: Diese Funktion blockiert Anrufe nicht automatisch – sie liefert lediglich einen Warnhinweis. Die finale Entscheidung, ob Ihr den Anruf annehmt, liegt bei Euch.
Jetzt weiterlesen
Telekom: Warum ein harmloser Anruf teuer werden kann
Für euch recherchiert von
Thorsten Neuhetzki
Thorsten ist alter Hase im Bereich des Tech-Journalismus, der sich sein Handwerk nicht am Schreibtisch ausgedacht hat, sondern klassisch über Radio Praktika und die Lokalpresse reingewachsen ist. Fünf Jahre lang war er als freier Mitarbeiter fürs Bielefelder Westfalen Blatt unterwegs, bevor es ihn nach Berlin gezogen hat. Dort hat er dann richtig Strecke gemacht: 15 Jahre berichtete er für den Branchendienst teltarif, mitten aus der Welt von Netzen, Anbietern, Tarifen und allem, was man erst versteht, wenn man es lange genug beobachtet hat. Seit 2018 gehört Thorsten zum Team von beebuzz media. Bei uns ist er die Anlaufstelle, wenn es um Medien, Breitband, Netze und Tarife geht. Ob Super Vectoring, Glasfaser, DOCSIS 3.1 oder 5G: Am Ende läuft es bei ihm immer auf dieselbe Frage hinaus: Wie kommt schnelles, stabiles Internet wirklich beim Menschen an und was steckt technisch und politisch dahinter? Und wenn er nicht gerade am Newsdesk sitzt, ist er meistens in Bewegung: mit Begeisterung auf dem Tourenrad oder einfach schnell eine Runde laufen, gern auch mal in der Mittagspause.
AMD Vega: Die Radeon VII mit 7-nm-GPU wird heute 7 Jahre alt
Zur CES 2019 hat AMD-CEO Lisa Su überraschend ein neues Grafikkarten-Topmodell für Spieler vorgestellt. Rund einen Monat später kam die letzte Vega-Radeon und erste Gaming-GPU aus 7-nm-Fertigung schließlich am 7. Februar auf den Markt – heute ist das exakt 7 Jahre her. Rückblickend markiert die Radeon VII eine Zeitenwende.
Vega in Vollendung
Bei der Radeon VII handelt es sich um die letzte Grafikkarte für Spieler, die auf die Vega-Architektur und die eigentlich für professionelle Zwecke entwickelte Vega-20-GPU setzt. Der Name birgt gleich mehrere Anspielungen: Einerseits handelte es sich um die erste GPU auf einer Gaming-Grafikkarte, die im 7-nm-Prozess gefertigt wurde (VII = 7). Andererseits entspringt der Grafikchip der zweiten Vega-Generation (VII = Vega 2). Und sogar das Erscheinungsdatum steckt im Namen (VII = 7. 2.). Aber auch abseits der Namensgebung handelt es sich um eine ungewöhnliche Grafikkarte.
AMD Radeon VII im Test
Denn abseits des professionellen Ursprungs der 13,2 Milliarden Transistoren starken GPU setzt die Radeon VII auch beim Speicher ein letztes Mal auf eine Technik, die seitdem lediglich Profi-Grafikkarten für Compute- und AI-Workloads vorbehalten ist: High Bandwith Memory. Im Vergleich zu Vega 1 verdoppelten sich Interface und Kapazität, sodass im Gaming-Kontext auch das erste Mal 1 TB/s Speicherbandbreite und 16 GB VRAM geknackt wurden.
Der GeForce RTX 2080 auf den Fersen
Eben jener Aspekt war damals das stärkste Argument für die neue Radeon-Grafikkarte, bot die konkurrierende GeForce RTX 2080 (Test) doch nach einer Nullrunde beim Grafikspeicher weiterhin bloß 8 GB VRAM. Bei der reinen FP32-Grafikleistung reichte es aber im Durchschnitt nicht ganz, um mit der Turing-GPU mithalten zu können. Ab Werk war die RTX 2080 in UHD rund 9 Prozent schneller; die Radeon VII schaffte nur knapp einen Gleichstand mit der älteren GeForce GTX 1080 Ti (Test).
Mit einer Übertaktung ließ sich der Rückstand zwar beinahe aufholen, allerdings war dieser Zugewinn auch beim Übertakten der GeForce möglich. Und in niedrigeren Auflösungen tat sich AMDs altgediente GCN-Architektur wie üblich schwerer, bis in Full HD sogar die GeForce RTX 2070 (Test) in Schlagdistanz kam.
Undervolting war Pflicht
Nicht Overclocking war aber das Gebot der Stunde beim Einsatz der Radeon VII, sondern Undervolting. Je nach Güte des GPU-Chips konnte das Leistungsniveau des Werkszustands mit teilweise deutlich niedriger Spannung erhalten oder gar übertroffen werden. Der Effizienz leistete AMDs Standard-Konfiguration von 1,05 Volt nämlich einen Bärendienst; mit 0,95 Volt waren bereits über 30 Prozent mehr FPS pro Watt möglich.
Wohingegen die Radeon VII ab Werk also kaum effizienter arbeitete als die vorherigen Vega-Topmodelle, die Radeon RX Vega 56 und RX Vega 64 (Test), konnte mit starkem Undervolting sogar das Niveau der Turing-Architektur erreicht werden.
Die Lautstärke war damals das größte Problem
Der Speicher sprach also für die Radeon VII, die Leistung war zumindest nahe an Nvidias Pendant – wo war der Haken? Bei der Kombination aus 300 Watt TDP und 2-Slot-Referenzdesign, wie die Redaktion im Test schnell zu hören bekam. Custom-Designs der Radeon VII erlaubte AMD nicht, sodass Spieler zwangsläufig mit dem schicken, silbernen Aluminium-Block vorlieb nehmen mussten. Lüfterdrehzahlen von rund 3.000 Umdrehungen pro Minute waren ab Werk die Regel und sorgten für über 50 dB(A), womit die Grafikkarte sehr laut war. Im Vergleich zum Referenzdesign der RTX 2080 war die Lautstärke gar doppelt so hoch.
Die Lösung lautete auch in diesem Fall Undervolting. Wer die Leistungsaufnahme unter Gaming-Last mit niedrigere Spannung von gut 300 Watt auf nur noch gut 200 Watt senken konnte, wurde mit einem deutlich leiseren Betrieb belohnt.
Eine Zeitenwende in 7 nm
In der Summe erhielten Spieler mit der Radeon VII das letzte Mal eine Grafikkarte, die mit aufgebohrtem Vega-Chip, GCN-Architektur, Compute-Ursprung und 16 GB HBM2 einen absoluten Fokus auf maximalen Durchsatz im Raster-Rendering in hohen Auflösungen legte – „Brute Force“ lautete das Motto. Und 16 GB Grafikspeicher waren im Jahr 2019 mit Sicherheit ein Highlight: Keine andere Gaming-Grafikkarte bot zu jener Zeit so viel und so schnellen VRAM.
Spezifikationen ausgewählter Gaming-Grafikkarten im Vergleich
Die größten Nachteile waren damit zum Zeitpunkt des Tests die Lautstärke, die Leistung im Vergleich zur GeForce RTX 2080 und letztlich auch der Preis: Mit 729 Euro war das Radeon-Topmodell teurer als das Nvidia-Pendant. Dass die Vega-Architektur selbstredend nicht in der Lage ist, Raytracing effizient zu beschleunigen, war mit Blick auf die Verbreitung der Strahlen in den Spielen des Jahres 2019 nur eine Fußnote.
Nicht gut gealtert
Rückblickend wiegt die fehlende Raytracing-Unterstützung schwerer. Insbesondere war es aber das fehlende Upsampling, dass über das Altern im Vergleich zur GeForce RTX 2080 entscheiden sollte. Schon damals unterstützte die Nvidia-Grafikkarte DLSS in erster Generation, der Mehrwert hielt sich aber anfangs in Grenzen.
Über die vergangenen sieben Jahre wurden Upscaling und Upsampling aber immer wichtiger; heute sind die Techniken aus modernen Spielen nicht mehr wegzudenken. Doch während die RTX 2080 heute sogar DLSS 4 und mit Abstrichen auch DLSS 4.5 unterstützt und damit seit Marktstart stets auf das beste verfügbare Upsampling-Featureset zurückgreifen konnte, muss die Radeon VII noch heute mit dem qualitativ massiv unterlegenen FSR 3.1 Vorlieb nehmen – gutes Upsampling gab es hier nie.
Das Versprechen einer hohen Zukunftssicherheit, das mit den 16 GB HBM2-Speicher einherging, hat die letzte Vega- und erste 7-nm-Grafikkarte damit im Kontext Gaming nicht einlösen können. AMD hat die Fertigung des Modells schon im August 2019 eingestellt, also nur ein halbes Jahr nach Erscheinen. Zu diesem Zeitpunkt waren Radeon RX 5700 (XT) (Test) bereits erschienen und setzten der Zukunft der Marke Radeon mit gänzlich neuer und viel effizienterer Architektur das Fundament. Raytracing war zwar noch nicht mit dabei und bis zu einem guten Upsampling auf einer AMD-Grafikkarte sollte es weitere fünfeinhalb Jahre dauern, aber der Grundstein war gelegt.
Die Titel zum Test
Das deutliche Fazit der Redaktion zum Test der Radeon VII fand bereits vor sieben Jahren seinen Weg in die Überschrift: „Zu laut, zu langsam und zu teuer, aber mit 16 GB HBM2“ lautete der Titel bei ComputerBase. Das harte Urteil sorgte im Forum für rege Diskussionen, war aber tatsächlich nicht der einzige Entwurf. Während der Entstehung des Tests wurden im Team einige alternative – und nicht immer ganz ernst gemeinte – Überschriften ersonnen, die in der Redaktion fortwährend für Erheiterung sorgten.
Aufmerksamen CB-Funk-Hörer ist das nicht neu, mit sieben Jahren Abstand ist die Zeit aber nun reif, die Liste auch an dieser Stelle zu veröffentlichen. Welchen Titel hättet ihr gerne über dem fertigen Test gesehen? Die Redaktion freut sich über eure Kommentare.
Das Titel-Brainstorming der Redaktion zum Test der Radeon VII
Radeon VII im Test: Zu laut! Langsam! Und teuer! Aber! 16 GB HBM2!
Radeon VII im Test: 16 GB HBM2 vor die Säue
Radeon VII im Test: Besser als die Vega 64 ist immer noch zu schlecht
Radeon VII im Test: Von echten Masochisten empfohlen
Radeon VII im Test: Vega-Neuauflage mit 16 GB HBM2 lässt von sich hören
Radeon VII: Schon 7 nm und doch noch nicht leiser
Radeon VII im Test: Mehr als genug Speicher auf die Ohren
Radeon VII im Test: Maximum Dezibelum
1 FPS/DB(A): Radeon VII koppelt FPS an Lautstärke
Radeon VII im Test: AMD nur auf akustischen Höhenflügen
Nun taub: CB-Redakteur testet Radeon VII
Radeon VII im Test: AMD vereint Heizung, Föhn und GTX 1080 Ti
Radeon VII im Test: Mehr als 7 Nanometer am Ziel vorbei
Der Föhn ist zurück: Radeon VII tritt Erbe der FX 5800 Ultra an
Radeon VII im Test: Flughafen-Feeling und doch kein Takeoff
Radeon VII im Test: Leistungsaufnahme ist nicht mehr das größte Problem
Dieser Artikel war interessant, hilfreich oder beides? Die Redaktion freut sich über jede Unterstützung durch ComputerBase Pro und deaktivierte Werbeblocker. Mehr zum Thema Anzeigen auf ComputerBase.