Samsung-TV bei Amazon zeigt, warum sich Preisvergleiche lohnen
Händler wie Amazon und MediaMarkt werben oft mit großen Rabatten. Dass diese allein aber gar nicht aussagen, wie gut ein Angebot wirklich ist, weiß mittlerweile jeder Schnäppchen-Profi. Gute Deals lassen sich auch unabhängig von aufgeblasenen Rabatten finden – wie dieser Samsung-TV jetzt beweist.
Auf den ersten Blick ist dieser 75 Zoll große 4K-Fernseher von Samsung nämlich gar kein Angebot. Amazon weist keinerlei Rabatt aus und verkauft ihn für 647,10 Euro. Warum das trotzdem ein Schnäppchen ist und man keinesfalls immer nur auf Rabatte achten sollte, wollen wir Euch in diesem Artikel zeigen.
Kein Rabatt & trotzdem Tiefstpreis?
Um ein Angebot richtig einordnen zu können, sollte man stets einen Blick auf den Preisvergleich und -verlauf werfen. Denn erst hierdurch sieht man, ob es sich bei dem entsprechenden Deal wirklich um ein Schnäppchen handelt oder nicht. Insbesondere den Preisverlauf sollte man aber auch nicht zu eng sehen. Nur weil ein Produkt vielleicht schon mal einige Euro günstiger war, ist ein aktuelles Angebot nicht gleich schlecht.
Der Samsung Crystal UHD U8079F 4K 75 Zoll bei Amazon ist aber selbst mit sehr strengem Blick ein absolutes Schnäppchen. Denn: Kein anderer Händler im Netz ist momentan günstiger und zuvor war der 4K-Fernseher auch noch nie günstiger als jetzt. Wohlgemerkt ohne ausgewiesenen Rabatt beim Versandriesen.
Dadurch ist der Samsung-TV-Deal ein echtes Paradebeispiel dafür, dass Rabatte allein nicht unbedingt viel aussagen müssen und man für echte Schnäppchen manchmal etwas genauer hinsehen muss.
Das bietet Euch der 75 Zoll Samsung-TV
Falls Ihr momentan einen neuen – und besonders großen – 4K-Fernseher einer Top-Marke sucht, ist das Amazon-Angebot rein preislich also echt eine Empfehlung wert. Doch natürlich muss auch die Technik stimmen.
Samsung setzt beim Smart-TV aus der Crystal-Produktreihe auf ein 75 Zoll (189 cm) großes LED-Display mit 4K-Auflösung und einer Bildwiederholrate von 60 Hz. Letztere ist fürs alltägliche Fernsehen absolut ausreichend. Anspruchsvolle Gamer sollten hingegen eher zu einem anderen Modell mit höherer Hz-Zahl greifen, damit rasche Bewegungen flüssig dargestellt werden.
Im Inneren arbeitet währenddessen der Crystal-Prozessor 4K, welcher gemeinsam mit der UHD-Auflösung, HDR10, Dolby Vision und diversen Bildoptimierungen wie PurColor und einem Contrast Enhancer für ein rundum gelungenes Fernsehbild sorgen soll. 4K Upscaling ist natürlich ebenso am Start. Praktisch: Das Modell aus dem Jahr 2025 soll sieben Jahre Updates auf Betriebssystem (One UI Tizen) bekommen. Bei den Anschlüssen bietet Euch der Samsung-TV unter anderem 3x HDMI (eARC) sowie selbstverständlich eine LAN- und WLAN-Schnittstelle, damit Ihr auf gängige Streaming-Apps zugreifen könnt.
Mit diesem Symbol kennzeichnen wir Partner-Links. Wenn du so einen Link oder Button anklickst oder darüber einkaufst, erhalten wir eine kleine Vergütung vom jeweiligen Website-Betreiber. Auf den Preis eines Kaufs hat das keine Auswirkung. Du hilfst uns aber, nextpit weiterhin kostenlos anbieten zu können. Vielen Dank!
Nvidia DGX Station: GB300 mit 288 GB HBM3e für den Desktop ist jetzt bestellbar
Ein Jahr nach der Ankündigung der DGX Station lassen sich die von Nvidia und Partnern entwickelten AI-Workstations mit GB300 für den Desktop in Kürze vorbestellen. Entwickler erhalten damit den großen Datacenter-Chip GB300 mit 288 GB HBM3e – nur eben für den Schreibtisch. Die Auslieferung wird aber noch einige Monate brauchen.
Wem ein DGX Spark (Test) für die lokale KI-Entwicklung nicht genügend Rechenleistung zur Verfügung stellt, kann sich mittelfristig auch eine DGX Station auf den Schreibtisch stellen. Anstelle des „kleinen“ GB10 erhalten Käufer dann einen GB300, den großen Grace-Blackwell-Chip, wie er auch in den Datacenter-Racks von Nvidia zum Einsatz kommt. Dort bringt ein Server-Rack gleich 72 GPUs mit 36 CPUs zusammen.
GB300 Grace Blackwell Ultra Desktop Superchip,
Auf dem Schreibtisch geht zwar alles eine Nummer kleiner vonstatten, die technischen Daten sind dennoch beachtlich. Die DGX Station setzt auf den GB300 Grace Blackwell Ultra Desktop Superchip, der ein Blackwell-Ultra-Package mit zwei GPU-Dies und 288 GB HBM3e über einen 900 GB/s schnellen NVLink-C2C-Interconnect mit einer Grace-CPU verbindet, die 72 Neoverse-V2-Kerne von Arm und 496 GB LPDDR5X mit 396 GB/s bietet.
Nvidia gibt die AI-Leistung des Systems mit 20 PetaFLOPS an, wobei es sich dabei um 20 PetaFLOPS für FP4 mit Sparsity-Beschleunigung handelt, nachdem Blackwell Ultra im Data Center auf 15 PetaFLOPS für FP4 Dense und höhere 30 PetaFLOPS mit FP4 Sparsity kommt. Zum Vergleich: GB10 im kleineren DGX Spark bietet eine GPU mit 1 PetaFLOPS FP4-Leistung (mit Sparsity) – also nur 5 Prozent der Leistung.
DGX Station Board (r.) (Bild: Nvidia)
DGX Station als On-Demand-Node nutzen
KI-Entwickler erhalten somit eine Workstation mit 784 GB DRAM verteilt über den HBM der GPU und den SOCAMM-LPDDR5X der CPU. Sprachmodelle mit bis zu einer Billion Parametern sollen sich lokal ausführen lassen. Die Systeme lassen sich als eigener „AI Supercomputer“ oder aber remote als On-Demand-Node mit verteilter Rechenleistung für ein ganzes Team nutzen. Weil die Architektur dieselbe ist wie im Datacenter, sollen sich Projekte nahtlos von der lokalen Umgebung ins Rechenzentrum portieren lassen.
Developers can run and fine-tune state-of-the-art models on DGX Station — including OpenAI [gpt-oss-120b], Google Gemma 3, Qwen3, Kimi K2.5, Mistral Large 3, DeepSeek V3.2 and NVIDIA Nemotron — and tap into a wide variety of familiar tools and platforms from 1x, Aible AI, Anaconda, Docker, Red Hat, JetBrains, Docker, Inc., Ollama, llama.cpp, ComfyUI, LM Studio, Llm.c, Weights & Biases (acquired by CoreWeave), Odyssey, Roboflow, VLLM, SGLang, Unsloth, Learning Machine, Quali, Lightning AI and more.
Nvidia über die DGX Station
Bis zu 1.600 Watt kann eine DGX Station ziehen
Die einzige Voraussetzung für den Arbeitsplatz? US-Kunden empfiehlt Nvidia einen „20A circuit“, also eine Steckdose an einem Stromkreis mit 20A/120V, demnach bis zu 2.400 Watt. Üblich sind in den USA nämlich 15A/120V für maximal 1.800 Watt. Nvidia gibt den Leistungsbedarf einer DGX Station offiziell mit bis zu 1.600 Watt an.
Auslieferung in den kommenden Monaten
Während Nvidia bei dem DGX Spark auch ein eigenes Modell in Gold mit besonders viel Storage anbietet und Acer, Asus, Dell, Gigabyte, HP, Lenovo und MSI alternative, günstigere Designs mit demselben Board zur Auswahl stellen, hält sich Nvidia bei der DGX Station zurück und überlässt das Feld Asus, Dell, Gigabyte, MSI und Supermicro. Später im Jahr soll auch HP mit einer DGX Station folgen. Weil Nvidia nicht selbst mit einem System involviert ist, fehlen derzeit auch noch Preise. Bei den Partnern dürften Interessenten aber in jedem Fall fünfstellig tief ins Portemonnaie greifen müssen.
Apropos später im Jahr: Für eine DGX Station muss man weiterhin Geduld zeigen. Vorbestellungen seien laut Nvidia zwar ab dem 16. März möglich, doch die Auslieferung soll ohne konkreten Termin erst in den „kommenden Monaten“ erfolgen.
ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.
Den Oscar für den Besten Animationsfilm hat dieser Titel zwar knapp verpasst, doch es ist immer noch der erfolgreichste aus dem vergangen Jahr. Und jetzt landet der Kassenschlager auch noch bei Disney+. Schon erraten, um welchen Film es geht?
Wer die aktuellen Entwicklungen in der Filmbranche verfolgt, dem dürfte dieser Streifen sicherlich nicht entgangen sein. Schließlich ist er bereits der zweite Teil einer wahnsinnig erfolgreichen Animationsreihe. Drumroll please: Es geht natürlich um „Zoomania 2“! Die Fortsetzung kam Ende November 2025 in die Kinos und ist in gut drei Monaten zum erfolgreichsten Film des Jahres (zumindest in den USA) avanciert. Doch jede Ära geht einmal zu Ende und so verschwindet der Titel nun aus den Kinos. Wer ihn noch nicht gesehen hat, findet ihn jetzt bei Disney+. Seit Mitte März kommen Abonnenten auch hier auf ihre Kosten.
„Zoomania 2“ kommt zu Disney+
„Zoomania 2“ landet im März exklusiv auf Disney+ – ziemlich genau neun Jahre nach dem Kinostart des ersten Teils. Ja, es ist tatsächlich schon fast ein Jahrzehnt her, dass wir die langohrige Polizistin Judy Hopps und ihren verwegenen Partner Nick Wilde auf der großen Leinwand kennenlernen durften. Seitdem ist die sprichwörtliche Zoomania ausgebrochen. Eine Kurzfilmserie folgte, dann der zweite Kinofilm – und womöglich bald ein dritter?
Aber erst mal zu „Zoomania 2“: Seit dem 11. März können Disney+-Abonnenten auf den Animationsfilm der Walt Disney Animation Studios zugreifen. Sicherlich haben einige Nutzer diesen Moment bereits herbeigesehnt. Erfolgreichster Film des Jahres, achtbester Film aller Zeiten, ausgezeichnet mit dem BAFTA Award und erneut nominiert für einen Oscar – das kann sich sehen lassen. Und dann hat der Kino-Hit auch noch 1,85 Milliarden US-Dollar eingespielt (knapp 1,6 Millionen Euro). Holla die Waldfee!
>>> Deutschlandpremiere: Dieser packende Thriller ist der erste große Streaming-Geheimtipp im März <<<
Ein tierisches Wiedersehen
Der Film wartet wieder mit spannender Undercover-Action auf und nimmt Euch mit in die entlegensten Winkel der Tiermetropole. Dabei trefft Ihr auf neue Charaktere wie Gary De’Snake und den Biber Nibbles Maplestick. Disney bleibt sich hier bei der Namensgebung so treu wie schon im ersten Teil. Doch gibt es natürlich auch das ein oder andere Wiedersehen mit besonders beliebten Figuren. So zum Beispiel Gepard Benjamin Clawhauser, dem Ultra-Gazelle-Fan vom Empfang der Polizeistation sowie der Sängerin selbst, der Mega-Star Shakira ihre Stimme für den nächsten tierischen Hit „Zoo“ leiht.
Inhaltlich wollen wir Euch hier nicht spoilern. Doch eins sei gesagt: Wie auch schon beim Vorgänger könnt Ihr Euch auf einen optisch eindrucksvollen Blockbuster gefasst machen. Und wer den Film bereits gesehen hat, darf sich auf eine entspannte Wiederholung im Heimkino freuen.
Auch interessant
Keine Chance gegen Netflix: Nächster Streaming-Dienst zieht in Deutschland den Stecker
CPUs bleiben wichtig: Nvidia bietet reines Vera-CPU-Rack mit 256 Prozessoren an
Agentic AI und Reinforcement Learning benötigen schnelle CPUs, erklärt Nvidia zur GTC. Deshalb bietet das Unternehmen seine neue Vera-CPU jetzt auch in einem Rack ausschließlich mit CPUs an. Es reiht sich damit neben der Vera-Rubin- und der neuen LPU/LPX-Lösung ein. Partner gehen dabei noch weiter als Nvidia selbst mit 256 CPUs.
Vera hat 88 Custom-Arm-Kerne mit SMT für 176 Threads
Vera ist Nvidias neue Custom-Arm-CPU und bildet den CPU-Teil der neuen Vera-Rubin-Plattform, die in der zweiten Jahreshälfte 2026 an den Start gehen soll. Nvidia hatte Vera erstmals zur Computex 2024 benannt, zudem sind seit der letztjährigen GTC erste technische Details bekannt. Vera bietet 88 Custom-Arm-Kerne mit SMT für 176 Threads und wird mittels NVLink-C2C-Interconnect mit 1,8 TB/s an Rubin angebunden.
Zur diesjährigen GTC zeigt Nvidia die Vera-CPU allerdings auch als Einzellösung im Rack – ohne Rubin-GPU. Datacenter-Installationen lassen sich damit um mehr Prozessoren erweitern, als sie die Vera-Rubin-Plattform in der CPU-GPU-Kombination alleine mitbringt. Zur Erinnerung: Im „Oberon“ getauften Rack von Vera Rubin (VR NVL72) kommen 18 Compute Trays mit jeweils zwei Boards zum Einsatz, wobei auf jedem Board zwei Rubin-GPUs und eine Vera-CPU verbaut sind, also vier GPUs und zwei CPUs pro Tray für insgesamt 72 GPUs (mit 144 Dies) und 36 CPUs pro Rack.
Warum schnelle CPUs auch bei KI wichtig sind
Schnelle CPUs können im Zeitalter von Agentic AI und Reinforcement Learning von hoher Bedeutung im KI-Rechenzentrum sein. Reinforcement Learning ist ein Verfahren aus dem Machine Learning, bei dem ein KI-System durch Ausprobieren und Feedback lernt. Ein Agent führt Aktionen in einer Umgebung aus und erhält dafür Belohnungen oder Strafen. Durch viele Wiederholungen lernt das System, welche Entscheidungen langfristig die beste Belohnung bringen, und verbessert so schrittweise seine Strategie.
CPUs bleiben im KI-Zeitalter von Bedeutung (Bild: Nvidia)
Nvidia sieht eine Architektur für das Reinforcement-Learning-Training von KI-Agenten vor, bei der GPUs und CPUs unterschiedliche Aufgaben übernehmen. Ein großer GPU-Cluster führt das Training und Inference des Modells durch. Das Modell erzeugt dabei Tokens – z. B. Code, Befehle oder Abfragen. Eine Sandbox-Infrastruktur mit CPU-Kernen führt diese erzeugten Tokens tatsächlich aus, z. B. SQL-Abfragen, Code kompilieren, Python-Programme laufen lassen. Die CPUs liefern die Ergebnisse und Daten zurück, die als Bewertung (Evaluation/Reward) für das Training dienen. Damit wird Reinforcement Learning umgesetzt: Das Modell probiert Aktionen aus (Code schreiben), sieht das Ergebnis der Ausführung und lernt daraus, bessere Lösungen zu erzeugen.
Olympus-Kern mit „world-class“ Single-Thread-Leistung
Zur GTC hat sich Nvidia erstmals auch zur Mikroarchitektur von Vera geäußert und dabei erklärt, was die Custom-Arm-Kerne auszeichnet. Die eigens entwickelten Kerne laufen demnach unter der Bezeichnung „Olympus“ und sollen eine „world-class“ Single-Thread-Leistung erreichen. Vera biete die 1,5-fache IPC von Grace, erklärte Nvidia in San Jose zur Hausmesse für KI-Entwickler.
Olympus bietet ein „10-wide instruction decode“, kann demnach bis zu 10 Instruktionen pro Takt dekodieren und an die Ausführungseinheiten weiterreichen. Die Mikroarchitektur bietet einen Neural Branch Predictor, also eine neue Art der Sprungvorhersage, bei der ein kleines neuronales Modell verwendet wird, das Muster in früheren Programmverläufen erkennt und dadurch oft genauere Vorhersagen trifft als klassische Tabellen- oder Heuristik-basierte Verfahren. Dadurch werden Pipeline-Stalls im Idealfall reduziert und die CPU kann effizienter arbeiten. Zwei Sprungvorhersage pro Taktzyklus sind bei Olympus möglich. Außerdem kommt bei der CPU ein für PyTorch optimierter Instruction-Buffer zum Einsatz.
Vera-CPU mit 88 Olympus-Kernen (Bild: Nvidia)
Mehr Speicherbandbreite als x86-Prozessoren
Eine weitere Eigenschaften von Vera ist die laut Nvidia dreifache Speicherbandbreite pro Kern im Vergleich zu – namentlich nicht genannten – x86-Prozessoren. Das Unternehmen gibt insgesamt 1,2 TB/s für die 1,5 TB SOCAMM-LPDDR5X an, die jeder CPU zur Seite stehen. Pro Kern ist von bis zu 80 GB/s die Rede. Die CPUs bieten einen NVLink GPU Connect mit 1,8 TB/s sowie einen CPU-Chip-zu-Chip-Support für 2P-Lösungen.
Vera-CPU-Rack mit 256 Prozessoren
Nvidia selbst zeigt zur GTC ein neues Vera-CPU-only-Rack mit insgesamt 256 Vera-CPUs (22.528 Kerne mit 45.056 Threads), 400 TB SOCAMM-LPDDR5X für insgesamt 300 TB/s und 64 BlueField-4 DPUs. Vera-Racks setzen auf dieselbe MGX-Architektur zur Flüssigkeitskühlung wie die Vera-Rubin-Plattform.
Die Partner gehen noch weiter
Vera sei in voller Produktion, sagt Nvidia, und soll im Laufe des zweiten Halbjahres 2026 von zahlreichen namhaften Server-Partnern verfügbar sein. Einer davon ist HPE, der mit seinem GX5000 Rack weit über die Lösung von Nvidia hinausgeht. Bis zu 40 Blades mit jeweils 8 Nodes mit jeweils 2 Vera-CPUs (16 CPUs pro Blade) sind bei HPE möglich, sodass in einem Rack bis zu 640 CPUs mit 56.320 Olympus-Kernen zum Einsatz kommen.
Nvidia Vera CPU Rack (Bild: Nvidia)
ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.