Künstliche Intelligenz

Nvidia-Konkurrenz: Google will sein TPU-Geschäft angeblich groß aufziehen


Google hat mit Meta offenbar einen großen Fisch an Land gezogen, der die eigenen Tensor Processing Units (TPUs) kaufen und in Rechenzentren einsetzen will. TPU nennt Google seine KI-Beschleuniger, die als Alternative unter anderem zu Nvidias und AMDs GPUs dienen. Aktuell ist die Version TPU v7.

Weiterlesen nach der Anzeige

Laut The Information ist das Abkommen zwischen Google und Meta auf mehrere Jahre ausgelegt. Im Vergleich zu den Millionen von Beschleunigern, die Meta von AMD und Nvidia für Dutzende Milliarden US-Dollar kauft, geht es beim Google-Deal um deutlich kleinere Summen. Von mehreren Milliarden US-Dollar ist die Rede. Insbesondere der Preis pro Beschleuniger dürfte niedriger sein als bei der Konkurrenz.

Google bekommt so als Hardware-Zulieferer einen Fuß in die Tür. Angeblich will der Konzern künftig zehn Prozent von Nvidias Marktanteil abhaben. Das wären voriges Jahr rund 16 Milliarden US-Dollar gewesen, rein auf KI-Beschleuniger bezogen: Mit solchen machte Nvidia 162,4 Milliarden US-Dollar Jahresumsatz, mit Netzwerk-Hardware weitere 31,4 Milliarden, Tendenz weiter steigend.

Um die Verbreitung von TPUs voranzutreiben, will Google mit einem nicht genannten, großen Investor angeblich ein Joint-Venture gründen. Darüber könnte der Konzern die KI-Beschleuniger an weitere Betreiber von Rechenzentren leasen. Weitere Joint-Ventures mit anderen Investoren könnten folgen. Alternativ zum Leasing könnten diese Tochterunternehmen auch ganze Rechenzentren für Kunden betreiben.

Google muss derweil die Vermarktung der eigenen TPUs und den Einsatz von Nvidia-Hardware ausbalancieren. Mindestens für die Vermietung innerhalb der eigenen Cloud ist Google weiter auf Nvidias KI-Beschleuniger angewiesen, weil viele Kunden mit Nvidias Software arbeiten.

Nvidia-Chef Jensen Huang schließt laut The Information gezielt Abkommen ab, um vielversprechende Firmen an sich zu binden, darunter zuletzt Anthropic. Solche Tendenzen zeigten sich schon früher, etwa bei Nvidias Einstieg bei Groq, womit die Firma einem Deal zwischen OpenAI und Groq zuvorkam. Huang sei nur allzu bewusst, dass mit Gemini und Claude manche der besten KI-Modelle mit Google-Hardware trainiert wurden.

Weiterlesen nach der Anzeige

Googles TPU v7 ist auf dem Papier mit 4,6 FP8-Petaflops langsamer als Nvidias Blackwell Ultra (B300) mit 5 Pflops beziehungsweise 10 mit Sparsity (Wegfall von Nullen in den Matrizen). Auch die Speicherkapazität ist mit 192 statt 288 GByte HBM3e geringer.

Allerdings ist die TPU v7 mit geschätzt 1000 statt 1400 Watt sparsamer. Dafür setzt Google auf den modernen 3-Nanometer-Fertigungsprozess N3P vom Chipauftragsfertiger TSMC, während Nvidia auf den verbesserten 5-nm-Prozess 4NP zurückgreift. Effizienz entwickelt sich zur wichtigsten Metrik, da alle Hyperscaler bei der Stromzufuhr zu ihren Rechenzentren limitiert sind. Zudem wollen sich Hyperscaler offensichtlich nicht von Nvidia als alleinigen Zulieferer abhängig machen.


(mma)



Source link

Beliebt

Die mobile Version verlassen