Künstliche Intelligenz

Angriff auf Nvidia und AMD: Qualcomm kündigt neue KI-Chips an


Der US-amerikanische Halbleiterhersteller Qualcomm wird eigene KI-Beschleuniger auf den Markt bringen. Das kündigte das Unternehmen am Montag an. Damit richtet der US-Konzern sein Portfolio neu aus. Qualcomm ist der weltweit größte Anbieter von Modemchips, mit denen Smartphones eine Verbindung zu drahtlosen Datennetzen herstellen können. Angesichts des weltweiten KI-Booms nimmt der Chipbauer nun auch große Rechenzentren für künstliche Intelligenz (KI) ins Visier und positioniert sich als Konkurrent zu den Weltmarktführern Nvidia und AMD.

Weiterlesen nach der Anzeige

Qualcomm gab die Einführung seiner „neuen Generation von KI-Inferenz-optimierten Lösungen für Rechenzentren“ bekannt. Die KI-Beschleuniger AI200 und AI250 wurden für eine verbesserte Speicherkapazität und die Ausführung von KI-Anwendungen entwickelt. Sie sollen jeweils im nächsten und übernächsten Jahr auf den Markt kommen und werden in einem System erhältlich sein, das ein komplettes, flüssigkeitsgekühltes Server-Rack füllt, heißt es in der Ankündigung des Unternehmens.

Die Rechenzentrumschips von Qualcomm basieren demnach auf den KI-Komponenten in Qualcomms Smartphone-Chips, den sogenannten Hexagon Neural Processing Units (NPUs). „Wir wollten uns zunächst in anderen Bereichen bewähren, und sobald wir dort unsere Stärke ausgebaut hatten, war es für uns ziemlich einfach, einen Schritt weiter zu gehen und in den Rechenzentrumsbereich einzusteigen“, wird Durga Malladi, General Manager für Rechenzentren und Edge Computing bei Qualcomm, vom US-Nachrichtensender CNBC zitiert.

Qualcomms Ankündigung eigener KI-Chips markiert den Einstieg eines neuen Wettbewerbers in diesen schnell wachsenden Markt. Die weltweiten Investitionen in KI-Chips sind zuletzt sprunghaft angestiegen, da Cloud-Anbieter und Chipkonzerne eiligst Infrastrukturen aufbauen, um den steigenden Bedarf an Rechenleistung im Wettlauf zur Entwicklung hochentwickelter KI-Systeme bedienen zu können.

Mitte Oktober wurde bekannt, dass der Chiphersteller AMD und der Softwarekonzern Oracle ihre Zusammenarbeit ausbauen. Oracle bietet Cloud-Dienste mit KI-Chips von AMD an. ChatGPT-Entwickler OpenAI wiederum will zusammen mit dem Halbleiterkonzern Broadcom eigene maßgeschneiderte KI-Chips entwickeln. Anfang des Monats gab OpenAI zudem den Kauf von KI-Chips mit einer Kapazität von insgesamt sechs Gigawatt von AMD für mehrere Milliarden US-Dollar über einen Zeitraum von fünf Jahren bekannt. Und Ende September kündigte der US-Chiphersteller Nvidia an, seinerseits insgesamt 100 Milliarden US-Dollar in OpenAI zu investieren, um das „größte KI-Infrastrukturprojekt der Geschichte“ umzusetzen. Im Zuge der Kooperation wollen beide Konzerne gemeinsam neue Rechenzentren errichten, die mindestens zehn Gigawatt an Leistung umfassen. Unternehmen wie Google, Amazon und Microsoft investieren ebenfalls in die Entwicklung eigener KI-Beschleuniger für ihre Cloud-Dienste.

Qualcomm erklärte, dass seine neuen Chips sich auf Inferenz, also das Ausführen von KI-Modellen, konzentrieren und nicht auf das Training großer KI-Sprachmodelle. Malladi kündigte laut CNBC an, dass man die KI-Chips und andere Komponenten auch separat verkaufen werde, insbesondere für Kunden wie Hyperscaler, die es vorziehen, ihre eigenen Racks zu entwerfen. Andere KI-Chiphersteller wie Nvidia oder AMD könnten sogar Kunden für einige der Rechenzentrumskomponenten von Qualcomm werden, unter anderem CPUs, so Malladi weiter.

Weiterlesen nach der Anzeige


(akn)



Source link

Beliebt

Die mobile Version verlassen