Connect with us

Apps & Mobile Entwicklung

Nvidia DGX Station: GB300 mit 288 GB HBM3e für den Desktop ist jetzt bestellbar


Ein Jahr nach der Ankündigung der DGX Station lassen sich die von Nvidia und Partnern entwickelten AI-Workstations mit GB300 für den Desktop in Kürze vorbestellen. Entwickler erhalten damit den großen Datacenter-Chip GB300 mit 288 GB HBM3e – nur eben für den Schreibtisch. Die Auslieferung wird aber noch einige Monate brauchen.

Wem ein DGX Spark (Test) für die lokale KI-Entwicklung nicht genügend Rechenleistung zur Verfügung stellt, kann sich mittelfristig auch eine DGX Station auf den Schreibtisch stellen. Anstelle des „kleinen“ GB10 erhalten Käufer dann einen GB300, den großen Grace-Blackwell-Chip, wie er auch in den Datacenter-Racks von Nvidia zum Einsatz kommt. Dort bringt ein Server-Rack gleich 72 GPUs mit 36 CPUs zusammen.

GB300 Grace Blackwell Ultra Desktop Superchip,

Auf dem Schreibtisch geht zwar alles eine Nummer kleiner vonstatten, die technischen Daten sind dennoch beachtlich. Die DGX Station setzt auf den GB300 Grace Blackwell Ultra Desktop Superchip, der ein Blackwell-Ultra-Package mit zwei GPU-Dies und 288 GB HBM3e über einen 900 GB/s schnellen NVLink-C2C-Interconnect mit einer Grace-CPU verbindet, die 72 Neoverse-V2-Kerne von Arm und 496 GB LPDDR5X mit 396 GB/s bietet.

Nvidia gibt die AI-Leistung des Systems mit 20 PetaFLOPS an, wobei es sich dabei um 20 PetaFLOPS für FP4 mit Sparsity-Beschleunigung handelt, nachdem Blackwell Ultra im Data Center auf 15 PetaFLOPS für FP4 Dense und höhere 30 PetaFLOPS mit FP4 Sparsity kommt. Zum Vergleich: GB10 im kleineren DGX Spark bietet eine GPU mit 1 PetaFLOPS FP4-Leistung (mit Sparsity) – also nur 5 Prozent der Leistung.

DGX Station Board (r.)
DGX Station Board (r.) (Bild: Nvidia)

DGX Station als On-Demand-Node nutzen

KI-Entwickler erhalten somit eine Workstation mit 784 GB DRAM verteilt über den HBM der GPU und den SOCAMM-LPDDR5X der CPU. Sprachmodelle mit bis zu einer Billion Parametern sollen sich lokal ausführen lassen. Die Systeme lassen sich als eigener „AI Supercomputer“ oder aber remote als On-Demand-Node mit verteilter Rechenleistung für ein ganzes Team nutzen. Weil die Architektur dieselbe ist wie im Datacenter, sollen sich Projekte nahtlos von der lokalen Umgebung ins Rechenzentrum portieren lassen.

Developers can run and fine-tune state-of-the-art models on DGX Station — including OpenAI [gpt-oss-120b], Google Gemma 3, Qwen3, Kimi K2.5, Mistral Large 3, DeepSeek V3.2 and NVIDIA Nemotron — and tap into a wide variety of familiar tools and platforms from 1x, Aible AI, Anaconda, Docker, Red Hat, JetBrains, Docker, Inc., Ollama, llama.cpp, ComfyUI, LM Studio, Llm.c, Weights & Biases (acquired by CoreWeave), Odyssey, Roboflow, VLLM, SGLang, Unsloth, Learning Machine, Quali, Lightning AI and more.

Nvidia über die DGX Station

Bis zu 1.600 Watt kann eine DGX Station ziehen

Die einzige Voraussetzung für den Arbeitsplatz? US-Kunden empfiehlt Nvidia einen „20A circuit“, also eine Steckdose an einem Stromkreis mit 20A/120V, demnach bis zu 2.400 Watt. Üblich sind in den USA nämlich 15A/120V für maximal 1.800 Watt. Nvidia gibt den Leistungsbedarf einer DGX Station offiziell mit bis zu 1.600 Watt an.

Auslieferung in den kommenden Monaten

Während Nvidia bei dem DGX Spark auch ein eigenes Modell in Gold mit besonders viel Storage anbietet und Acer, Asus, Dell, Gigabyte, HP, Lenovo und MSI alternative, günstigere Designs mit demselben Board zur Auswahl stellen, hält sich Nvidia bei der DGX Station zurück und überlässt das Feld Asus, Dell, Gigabyte, MSI und Supermicro. Später im Jahr soll auch HP mit einer DGX Station folgen. Weil Nvidia nicht selbst mit einem System involviert ist, fehlen derzeit auch noch Preise. Bei den Partnern dürften Interessenten aber in jedem Fall fünfstellig tief ins Portemonnaie greifen müssen.

Apropos später im Jahr: Für eine DGX Station muss man weiterhin Geduld zeigen. Vorbestellungen seien laut Nvidia zwar ab dem 16. März möglich, doch die Auslieferung soll ohne konkreten Termin erst in den „kommenden Monaten“ erfolgen.

ComputerBase hat Informationen zu diesem Artikel von Nvidia unter NDA im Vorfeld und im Rahmen einer Veranstaltung des Herstellers in San Jose, Kalifornien erhalten. Die Kosten für An-, Abreise und fünf Hotelübernachtungen wurden vom Unternehmen getragen. Eine Einflussnahme des Herstellers oder eine Verpflichtung zur Berichterstattung bestand nicht. Die einzige Vorgabe aus dem NDA war der frühestmögliche Veröffentlichungszeitpunkt.



Source link

Apps & Mobile Entwicklung

Philips Evnia AmbiScape: Raumbeleuchtung folgt Ambiglow-Monitor auf den Fuß


Philips Evnia AmbiScape: Raumbeleuchtung folgt Ambiglow-Monitor auf den Fuß

Bild: Philips

Die Umgebungsbeleuchtung „Ambiglow“ der Evnia-Monitore von Philips kann nun mit Matter-kompatibler Innenraumbeleuchtung in Einklang gebracht werden. AmbiScape nennt sich die neue Funktion, die Raum und Monitor synchron leuchten lässt.

Voraussetzung dafür ist zum einen der Besitz eines Evnia-Monitors mit Ambiglow und zum anderen ein netzwerkfähiges Beleuchtungssystem, das mit dem Matter-Ökosystem kompatibel ist.

Realisiert wird der Abgleich der Beleuchtung über die kostenlose Software Philips Evnia Precision Center. Ambiglow nutzt eine mit KI optimierte Technik, die die Beleuchtung dynamisch an das Geschehen im Spiel anpasst. Dabei werden unter anderem Farbbalance und Szenenwechsel erfasst und mit der Umgebungsbeleuchtung in Einklang gebracht. Das Pendant dazu bei Philips-Fernsehern ist Ambilight.

AmbiScape im „Lifestyle Room“
AmbiScape im „Lifestyle Room“ (Bild: Philips)

AmbiScape nutzt Matter-Standard

Mit AmbiScape wurde jetzt eine Matter-zertifizierte Schnittstelle hinzugefügt, „die das Geschehen auf dem Bildschirm in die Umgebung überträgt, indem sie Matter-kompatible Smart-Leuchten mit dem Geschehen auf dem Bildschirm synchronisiert“, erklärt Philips.

Aktuelle Version des Precision Center nötig

Die neue Funktion stehe allen Besitzern eines Evnia-Monitors kostenlos zur Verfügung. Dafür müssen diese mindestens die Version 1.9 der Precision Center Software installiert haben, die seit dem 29. April zum Download angeboten wird.

Nähere Informationen liefert Philips auf seiner Webseite zu AmbiScape.



Source link

Weiterlesen

Apps & Mobile Entwicklung

Lian Li Vector V150 Inf: Stylisches mATX-Gehäuse mit Turbinen-Frontlüftern


Lian Li Vector V150 Inf: Stylisches mATX-Gehäuse mit Turbinen-Frontlüftern

Bild: Lian Li

Das nächste Vector-Gehäuse von Lian Li kombiniert ein Turbinen-Design für die Frontlüfter mit einem Infinity-Spiegel. Eine Plattform für Deko-Objekte gibt es zu Gunsten eines traditionelleren Designs nicht mehr, obwohl dahinter ein anderes Vector-Modell steckt.

Eigentlich basiert das V150 Inf auf dem Micro-ATX-Glaskasten V100 Mini. Das ist ein klassischer Glaskasten mit „Bühne“ an der Front und RGB-Seitenstreifen. Beides streicht das V150 Inf für den Infinity-Effekt an der Vorderseite.

Belüftung ist Teil des Designs

Beleuchtet wird der Spiegel von zwei 140-mm-Lüftern (450 bis 1.900 U/Min) mit ARGB-Leuchtdioden, die die Lüfterblätter anstrahlen. Sie sitzen hinter zwei runden, abnehmbaren Rahmen, die als Staubfilter fungieren und das Turbinen-Design produzieren. Mit diesem Design tritt das V150 Inf neben das Lancool 217 Inf, das sich am gleichen Design für den ATX-Formfaktor bedient.

Ins Heck setzt Lian Li einen weiteren RGB-Lüfter mit 120 Millimeter Rahmendurchmesser (200 bis 1.800 U/Min). Angeschlossen werden die drei Lüfter an einem „Control Board“, das per PWM-Signal oder mit der L-Connect-3-Software und dem optionalen L-Wireless-Controller, der an einen freien USB-Port des Mainboards gesteckt wird, gesteuert werden kann.

Lian Li Vector V150 Inf (Bild: Lian Li)

Weitere Lüfter müssen mangels weiterer Ports am Controller auf andere Weise gesteuert werden. Platz dafür bietet das V150 Inf am Boden, wo zwei 120-mm-Modelle auf dem Netzteil-Shroud montiert werden können. Sie saugen Luft unter anderem über das perforierte, rechte Seitenteil an. Zusätzlich können zwei weitere Lüfter an das rechte Seitenteil, drei 120-mm- oder zwei 140-mm-Modelle an die Oberseite. Dort bietet das Gehäuse alternativ Raum für einen 360-mm-Radiator.

Festplatten verteilt Lian Li. Drei 2,5″-HDDs passen hinter das Mainboard, zwei weitere vor das Netzteil. Ist dieses Länger als 150 Millimeter, geht davon jedoch eine Position verloren. Insgesamt können so maximal fünf Festplatten, davon ein 3,5″-Exemplar, installiert werden. CPU-Kühler (163 Millimeter Höhe) und Grafikkarten (400 Millimeter Länge) haben zudem viel Platz.

Preis und Verfügbarkeit

Die Preisempfehlung des Vector V150 Inf liegt bei rund 85 Euro. Zu diesem Kurs wird es von ersten Händlern bereits gelistet, die Auslieferung soll ab dem 18. Juni erfolgen.



Source link

Weiterlesen

Apps & Mobile Entwicklung

„Big 4“-Capex-Pläne für 2026: Ausgaben von Microsoft, Meta, Google und Amazon steigen auf 725 Mrd. USD


„Big 4“-Capex-Pläne für 2026: Ausgaben von Microsoft, Meta, Google und Amazon steigen auf 725 Mrd. USD

Bild: Google

Die Pläne für die Ausgaben in diesem Jahr der vier Branchenriesen Microsoft, Meta, Google und Amazon übertreffen alles, was bisher da war. Denn mit Bekanntgabe der Quartalszahlen wurden diese alle noch einmal nach oben gestuft, kombiniert sollen es nun bis zu 725 Milliarden US-Dollar sein – nur im Jahr 2026 allein.

Dass alle vier Unternehmen in der gleichen Nacht ihren Quartalsbericht abliefern, hatte zudem bereits etwas einzigartiges. Am Ende lieferten alle vier auch ziemlich solide Zahlen, den besten Ausblick für die Börse lieferte jedoch Google.

Google macht viel mehr Gewinn

Google machte aus einer Umsatzsteigerung von 22 Prozent auf knapp 110 Milliarden US-Dollar eine Gewinnsteigerung um 81 Prozent. Statt 34,5 Milliarden steht hier plötzlich 62,6 Milliarden US-Dollar. Google Cloud hat daran einen gewaltigen Anteil, mit 63 Prozent Umsatzwachstum, das sogenannte Backlog erhöhte sich allein hier auf einen Wert von 460 Milliarden US-Dollar. Um ansatzweise in naher Zukunft also die Kundschaft zufriedenzustellen, werden die Ausgaben (CAPEX) in diesem Jahr weiter gesteigert. 190 Milliarden US-Dollar werden nun eingeplant. Anlegern gefiel das, die Aktie ging nachbörslich/vorbörslich über 7 Prozent ins Plus.

Amazon will 200 Mrd. USD ausgeben

Amazon hat ebenfalls die Erwartungen übertroffen und den Umsatz um 17 Prozent auf 181,5 Milliarden US-Dollar gesteigert. AWS wuchs dabei um 28 Prozent bei schon breiter Basis und kommt allein auf 37,6 Milliarden US-Dollar Umsatz. Amazon erklärte dabei auch, dass ihr Chipgeschäft mit Graviton, Trainium und Nitro nun einen Umsatz von über 20 Milliarden US-Dollar im Jahr macht. Geplante 200 Milliarden US-Dollar an Ausgaben dieses Jahr sollen diese Geschäftszweige weiter fördern. Die Anleger gehen mit, knapp 3 Prozent im Plus wurde die Aktie nach Bekanntgabe gehandelt.

Metas Geschäft boomt ebenfalls wieder

Metas Verhältnis von Umsatz und Einnahmen im Vergleich zu den Ausgabenplänen ist deutlich schlechter aufgestellt. Mit 56,3 Milliarden US-Dollar übertraf auch Meta die Erwartungen beim Umsatz, der Gewinn stieg deutlich auf über 26 Milliarden US-Dollar an. Dem gegenüber stehen die Wachstumspläne mit geplanten Ausgaben von nun bis zu 145 Milliarden US-Dollar in diesem Jahr. Anleger sehen das nicht so rosig, die Aktie ging 7 Prozent ins Minus.

Azure zieht Microsoft nach oben

Microsoft zu guter Letzt konnte ebenfalls eine Umsatz- und Gewinnsteigerung melden, 82,9 Milliarden und 31,9 Milliarden US-Dollar wurden in den Positionen verbucht. Auch hier war Azure und Cloud das Zugpferd, das Wachstum lag bei 40 Prozent. Um weiter ganz vorn mitzuspielen, erhöht deshalb auch Microsoft die Ausgaben: 190 Milliarden US-Dollar sind nun auch hier für das Jahr 2026 eingeplant, deutlich mehr als zuvor erwartet wurde. Mit Microsofts Plänen wird zuletzt an der Börse stets eher gehadert, heute reagierte die Aktie kaum.

Zahlenspiele im Mega-Stil

190 + 200 + 145 + 190 = 725 Milliarden US-Dollar. Das sind allein die geplanten Ausgaben für die vier Branchenriesen in diesem Jahr. Das sind nochmals mehr als die 650 Milliarden US-Dollar, die nach der Bekanntgabe der Zahlen für das vierte Quartal 2025 im Februar berechnet wurden.

Zum Teil sind die Capex-Werte nach oben gegangen, weil bereits höhere Komponentenpreise inkludiert sind: Microsoft bestätigte die Zahl mit satten 25 Prozent. Da hier aber kein Ende abzusehen ist, könnte schon im kommenden Quartal eine noch höher Zahl in Erscheinung treten. Und Unternehmen wie Google kündigen bereits an, dass die Zahlen für 2027 ohnehin noch einmal deutlich steigen werden.

Das wiederum nimmt keinen Druck vom Markt, vor allem bei Chips und Speicher jeder Art. Diese dürften noch für eine ganze Weile ein sehr knappes und teures Gut bleiben.



Source link

Weiterlesen

Beliebt