Vraag iemand wat Nvidia makenen ze zullen waarschijnlijk eerst “GPU” zeggen. Chipmakers worden al tientallen jaren gedefinieerd door geavanceerde parallelle computing, en de opkomst van generatieve AI en de stijgende vraag naar GPU’s zijn van cruciaal belang geweest. winst voor het bedrijf.
Maar de recente stappen van Nvidia geven aan dat het meer klanten wil binnenhalen in de minder rekenintensieve AI-markt: klanten die niet noodzakelijkerwijs de grootste, meest efficiënte producten nodig hebben. Krachtige GPU om een AI-model te trainen, maar in plaats daarvan te zoeken naar de meest efficiënte manier om de AI-software van de agent uit te voeren. Nvidia heeft onlangs miljarden dollars uitgegeven aan het licentiëren van technologie van chip-startups die zich richten op AI-computing met lage latentie, en is ook begonnen met het verkopen van stand-alone CPU’s als onderdeel van de nieuwste superchip-systemen.
Gisteren Nvidia en Meta aangekondigd dat de socialemediagigant ermee heeft ingestemd om voor miljarden dollars aan Nvidia-chips te kopen om rekenkracht te leveren voor zijn enorme infrastructuurprojecten – waarbij Nvidia-CPU’s deel uitmaken van de deal.
Deze meerjarige overeenkomst is een uitbreiding van de comfortabele, lopende samenwerking tussen beide bedrijven. Meta schatte eerder dat het eind 2024 gekocht zou kunnen worden 350.000 H100-chips van Nvidia, en eind 2025 zullen bedrijven er toegang toe hebben Totaal 1,3 miljoen GPU’s (hoewel het niet duidelijk is of dit allemaal Nvidia-chips zijn).
Als onderdeel van de laatste aankondiging zei Nvidia dat Meta “grootschalige datacenters zal bouwen die zijn geoptimaliseerd voor training en gevolgtrekking ter ondersteuning van de lange termijn routekaart voor de AI-infrastructuur van het bedrijf.” Dit omvat “grootschalige implementaties” van Nvidia CPU’s en “miljoenen Nvidia Blackwell en Rubin GPU’s.”
Meta was met name de eerste technologiegigant die aankondigde dat het een grote aankoop deed van Nvidia’s Grace CPU als een zelfstandige chip, iets waarvan Nvidia zei dat het een optie zou zijn toen het in januari de volledige specificaties van zijn nieuwe Vera Rubin-superchip onthulde. Nvidia benadrukte ook dat het technologie aanbiedt die verschillende chips met elkaar verbindt, als onderdeel van een ‘soep-tot-noten-benadering’ van rekenkracht, zoals een analist het uitdrukte.
Ben Bajarin, CEO en hoofdanalist bij technologiemarktonderzoeksbureau Creative Strategies, zei dat de stap aangeeft dat Nvidia erkent dat steeds meer AI-software nu op CPU’s moet draaien, net als conventionele cloudapplicaties. “De reden waarom de industrie tegenwoordig zo optimistisch is over CPU’s in datacenters is agent AI, die nieuwe eisen stelt aan CPU-architecturen voor algemene doeleinden”, zegt hij.
A Het laatste rapport van chipnieuwsbrief Semianalyse onderstreept dit. De analisten merkten op dat het CPU-gebruik versnelt om AI-training en -inferentie te ondersteunen, waarbij ze een van de datacentra van Microsoft voor OpenAI als voorbeeld noemden, waar “tienduizenden CPU’s nu nodig zijn om petabytes aan door GPU’s gegenereerde gegevens te verwerken en te beheren, een gebruiksscenario dat zonder AI niet nodig zou zijn.”
Maar Bajarin merkt op dat de CPU nog steeds een van de componenten is van de meest geavanceerde AI-hardwaresystemen. Het aantal GPU’s dat Meta bij Nvidia koopt, overtreft nog steeds het aantal CPU’s.
“Als je een van de hyperscalers bent, ben je niet kandidaat alle Je gevolgtrekkingscomputers op de CPU,’ zei Bajarin. ‘Je hebt gewoon de software nodig die je gebruikt om snel genoeg te zijn op de CPU om te kunnen communiceren met de GPU-architectuur die feitelijk de drijvende kracht is achter dat computergebruik. Anders wordt de CPU een bottleneck.”
Meta weigerde commentaar te geven op de uitbreiding van de deal met Nvidia. In een recent winstrapport zei de socialemediagigant dat het van plan is zijn uitgaven aan AI-infrastructuur dit jaar aanzienlijk te verhogen tot tussen de $115 miljard en $135 miljard, vergeleken met $72,2 miljard vorig jaar.


