Nvidia säger att man samarbetar med Microsoft för att bygga en “massiv” AI-dator

intel nvidia

Den amerikanska chipdesignern och dataföretaget Nvidia Corp har meddelat att man samarbetar med Microsoft Corp för att bygga en “massiv” dator för att hantera intensivt arbete med artificiell intelligens i molnet.

AI-datorn kommer att fungera i Microsofts Azure-moln med hjälp av tiotusentals grafikprocessorer (GPU:er), Nvidias kraftfullaste H100- och A100-chip. Nvidia har avböjt att säga hur mycket affären är värd, men enligt branschkällor kostar varje A100-chip cirka 10 000-12 000 dollar, och H100 är betydligt dyrare än så.

“Vi befinner oss vid den vändpunkt där AI kommer till företaget och att få ut de tjänster som kunderna kan använda för att använda AI i affärsverksamheter blir alltmer verkligt”, sade Ian Buck, Nvidias general manager för Hyperscale och HPC, till Reuters. “Vi ser en bred våg av AI-användning … och behovet av att tillämpa AI för företagsanvändningsfall.”

Förutom att sälja chipen till Microsoft säger Nvidia att man kommer att samarbeta med mjukvaru- och molnjätten för att utveckla AI-modeller. Buck sade att Nvidia också skulle vara kund till Microsofts AI-molndator och utveckla AI-applikationer på den för att erbjuda tjänster till kunder.

Den snabba tillväxten av AI-modeller, såsom de som används för behandling av naturligt språk, har kraftigt ökat efterfrågan på snabbare och kraftfullare datainfrastruktur.

Nvidia sade att Azure skulle bli det första offentliga molnet som använder dess Quantum-2 InfiniBand-nätverksteknik som har en hastighet på 400 gigabit per sekund. Den nätverkstekniken kopplar samman servrar med hög hastighet. Detta är viktigt eftersom tungt AI-beräkningsarbete kräver att tusentals chip arbetar tillsammans på flera servrar.

Add a Comment

Your email address will not be published. Required fields are marked *