Nvidia heeft maandag een desktop-supercomputer onthuld die krachtig genoeg is om AI-modellen uit te voeren met maximaal een biljoen parameters – ongeveer de grootte van GPT-4 – zonder de cloud aan te raken. De machine, heet dat DGX-stationverpakt 748 gigabyte coherent geheugen en 20 petaflops aan rekenkracht in een doos die naast de monitor staat, en het is misschien wel het belangrijkste personal computerproduct sinds de originele Mac Pro creatieve professionals ervan overtuigde het werkstation achter zich te laten.
De aankondiging werd gedaan tijdens het jaarlijkse evenement van het bedrijf GTC-conferentie in San Jose komt op een moment dat de AI-industrie worstelt met een fundamentele spanning: de krachtigste modellen ter wereld vereisen een enorme datacenterinfrastructuur, maar de ontwikkelaars en bedrijven die deze modellen bouwen willen steeds vaker hun data, agenten en intellectueel eigendom lokaal houden. DGX Station is het antwoord van Nvidia: een machine met zes cijfers die de kloof dicht tussen de grenzen van AI en het bureau van een ingenieur.
Wat 20 petaflops op je bureaublad werkelijk betekenen
Dat DGX-station gebouwd rond het nieuwe Grace Blackwell GB300 Ultra Desktop-superchipdie een 72-core Grace CPU en Blackwell Ultra GPU combineert via Nvidia’s NVLink-C2C-interconnect. De link biedt 1,8 terabytes per seconde aan coherente bandbreedte tussen de twee processors – zeven keer de snelheid van PCIe Gen 6 – wat betekent dat de CPU en GPU één naadloze geheugenpool delen zonder de knelpunten die doorgaans het AI-werk op desktops verlammen.
Twintig petaflops – twintig miljard bewerkingen per seconde – zouden deze machine minder dan tien jaar geleden tot de beste supercomputers ter wereld hebben gerekend. Summit-systeem in Oak Ridge Nationaal Laboratoriumdie in 2018 wereldwijd de nummer 1 bezet en tien keer zoveel prestaties levert, maar een ruimte beslaat ter grootte van twee basketbalvelden. Nvidia verpakt een fractie van die mogelijkheden in iets dat op een stopcontact kan worden aangesloten.
Geïntegreerd geheugen van 748 GB is misschien wel het belangrijkste getal. Een model met biljoen parameters is een gigantisch neuraal netwerk dat volledig in het geheugen moet worden geladen om te kunnen functioneren. Zonder voldoende geheugen doet de verwerkingssnelheid er niet toe; het model past niet. DGX Station overwint deze obstakels, en doet dit met een coherente architectuur die latentieboetes elimineert bij het verplaatsen van gegevens tussen CPU- en GPU-geheugenpools.
Always-on-agents vereisen altijd-aan-hardware
Nvidia heeft het ontworpen DGX-station expliciet voor wat hij ziet als de volgende fase van AI: autonome agenten die continu denken, plannen, code schrijven en taken uitvoeren – niet alleen systemen die op commando’s reageren. Elke grote aankondiging binnen Algemene voorwaarden 2026 versterkt deze ‘agent AI’-these, en DGX Station is waar deze agenten moeten worden gebouwd en uitgevoerd.
Het sleutelpaar is Nemoklauween nieuwe open source-stack die Nvidia maandag ook aankondigde. NemoClaw combineert Nvidia’s open Nemotron-model met OpenShelleen veilige runtime die op beleid gebaseerde beveiligings-, netwerk- en privacybeperkingen voor autonome agenten afdwingt. Met één opdracht wordt de hele stapel geïnstalleerd. Jensen Huang, oprichter en CEO van Nvidia, formuleert deze combinatie in duidelijke termen, namelijk roeping Open klauwen – een breder agentenplatform dat NemoClaw ondersteunt – “een besturingssysteem voor persoonlijke AI” en vergelijkt dit rechtstreeks met Mac en Windows.
Het argument is duidelijk: cloudinstanties draaien op verzoek op en neer, maar Always-on-agents vereisen persistente rekenkracht, persistent geheugen en een persistente status. De machine onder uw bureau, die 24/7 draait met lokale gegevens en lokale modellen in een beveiligingssandbox, is architectonisch gezien beter geschikt voor die werklasten dan een gehuurde GPU in het datacenter van iemand anders. DGX-stations kunnen functioneren als persoonlijke supercomputers voor individuele ontwikkelaars of als gedeelde computerknooppunten voor teams, en ondersteunen air-gapped configuraties voor geclassificeerde of gereguleerde omgevingen waar gegevens het gebouw nooit kunnen verlaten.
Van benchtop-prototype tot datacenterproductie zonder dat herschrijven nodig is
Een van de slimste aspecten van het ontwerp van het DGX Station is wat Nvidia architecturale continuïteit noemt. Applicaties die op de machine waren gebouwd, migreerden naadloos naar het GB300 NVL72-datacentersysteem van het bedrijf – een rack met 72 GPU’s ontworpen voor grootschalige AI-fabrieken – zonder ook maar één regel code opnieuw te ontwerpen. Nvidia verkoopt een verticaal geïntegreerde pijplijn: prototype op uw bureau en vervolgens opschalen naar de cloud wanneer u er klaar voor bent.
Dit is belangrijk omdat de grootste verborgen kosten bij de huidige AI-ontwikkeling niet de computer zijn, maar de tijd die verloren gaat aan het herschrijven van code voor verschillende hardwareconfiguraties. Modellen die zijn verfijnd op lokale GPU-clusters vereisen vaak aanzienlijke aanpassingen voordat ze kunnen worden geïmplementeerd op een cloudinfrastructuur met verschillende geheugenarchitecturen, netwerkstacks en softwareafhankelijkheden. DGX Station neemt deze barrières weg door dezelfde NVIDIA AI-softwarestack uit te voeren die elk niveau van de Nvidia-infrastructuur ondersteunt, beginnend bij DGX-vonk aan Vera Rubin NVL72.
Nvidia breidt ook DGX Spark, het kleinere broertje van Station, uit met nieuwe clusteringondersteuning. Maximaal vier Spark-units kunnen nu functioneren als een verenigd systeem met vrijwel lineaire prestatieschaling – een ‘desktopdatacenter’ dat op een vergadertafel kan staan zonder rackinfrastructuur of IT-tickets. Voor teams die middelgrote modellen moeten verfijnen of kleinschalige agenten moeten ontwikkelen, biedt geclusterde Sparks een geloofwaardig afdelings-AI-platform tegen een fractie van de kosten van Station.
Vroege kopers laten zien waar de markt naartoe gaat
De initiële klantenlijst voor DGX Station brengt de sectoren in kaart waar AI het snelst overgaat van experimenten naar een instrument voor dagelijkse werkzaamheden. Snowflake gebruikt dit systeem om zijn open source Arctische trainingsframework lokaal te testen. EPRIHet Electric Power Research Institute ontwikkelt AI-aangedreven weersvoorspellingen om de betrouwbaarheid van het elektriciteitsnet te versterken. Medivis integreert visuele taalmodellen in chirurgische workflows. Microsoft Research en Cornell hebben systemen geïmplementeerd voor live AI-training op schaal.
Het systeem kan nu worden besteld en zal in de komende maanden worden verzonden ASUS, Dell-technologie, GIGABYTE, MSIEn Supermicromet MOBIELE TELEFOON eind van het jaar lid worden. Nvidia heeft geen prijzen bekendgemaakt, maar de componenten van de GB300 en de historische DGX-prijzen van het bedrijf suggereren een investering van zes cijfers – duur volgens werkstationstandaarden, maar een koopje vergeleken met de kosten van een cloud-GPU om op grote schaal inferentie van biljoen parameters uit te voeren.
De lijst met ondersteunde modellen onderstreept hoe open het AI-ecosysteem is: ontwikkelaars kunnen OpenAI draaien en verbeteren gpt-oss-120bGooglen Juweeltje 3, Qwen3, Grote Mistral 3, Diep zoeken V3.2en onder meer Nvidia’s Nemotron-model. DGX-stations zijn ontworpen op een model-agnostische basis – Zwitserse hardware in een industrie waar modeltrouw elk kwartaal verandert.
De echte strategie van Nvidia: bezit elke laag van de AI-stack, van baan tot kantoor
Dat DGX-station komt niet in een vacuüm terecht. Het is een onderdeel van een grote collectie Algemene voorwaarden 2026 aankondigingen die gezamenlijk de ambitie van Nvidia in kaart brengen om AI-computing op elke fysieke schaal te leveren.
Bovenaan wordt Nvidia gelanceerd Vera Rubin-platform – zeven nieuwe chips in volledige productie – wordt aangedreven door een Vera Rubin NVL72-rack, dat 72 Rubin GPU’s van de volgende generatie integreert en tot 10x hogere inferentiedoorvoer per watt claimt in vergelijking met de huidige Blackwell-generatie. Dat Werkelijke CPUmet 88 speciale Olympus-cores, gericht op de orkestratielaag die steeds vaker nodig is voor de werkbelasting van agenten. In de voorhoede kondigde Nvidia de Vera Rubin Space Module aan voor orbitale datacenters, die 25x meer AI-computing levert voor op de ruimte gebaseerde inferentie dan de H100.
Tussen baan en kantoor onthulde Nvidia partnerschappen met onder meer Adobe voor creatieve AI, autofabrikanten als BYD en Nissan voor autonome voertuigen van niveau 4, een coalitie met Mistral AI en zeven andere laboratoria om open frontier-modellen te bouwen, en Dynamo 1.0, een open source inferentiebesturingssysteem dat is overgenomen door AWS, Azure, Google Cloud en een aantal AI-native bedrijven, waaronder Cursor en Perplexity.
Het patroon is duidelijk: Nvidia wil het computerplatform zijn – hardware, software en modellen – voor elke AI-workload, waar dan ook. Dat DGX-station is het deel dat de kloof tussen de cloud en het individu opvult.
De cloud is niet dood, maar zijn monopolie op serieus AI-werk is voorbij
De afgelopen jaren was de standaardaanname op het gebied van AI dat voor serieus werk cloud-GPU-instances nodig zijn: gehuurde Nvidia-hardware AWS, Blauwe luchtof Google Cloud. Het model werkt, maar heeft echte nadelen: kosten voor uitgaand gegevensverkeer, latentie, beveiligingsrisico’s door het verzenden van eigen gegevens naar de infrastructuur van derden, en het fundamentele verlies van controle dat inherent is aan het huren van de computer van iemand anders.
Dat DGX-station de cloud wordt niet gedood: de datacenteractiviteiten van Nvidia laten de desktopomzet in de schaduw vallen en blijven groeien. Maar het creëert een geloofwaardig lokaal alternatief voor een belangrijke en groeiende categorie werkdruk. Voor het helemaal opnieuw trainen van een grensmodel zijn nog steeds duizenden GPU’s in het magazijn nodig. Open modellen met biljoen parameters verfijnen op basis van bedrijfseigen gegevens? Inferentie uitvoeren voor interne agenten die gevoelige documenten verwerken? Prototyping vóór clouduitgaven? De machine onder je bureau begint op een rationele keuze te lijken.
Dit is het strategische voordeel van dit product: het breidt de adresseerbare markt van Nvidia uit naar de private AI-infrastructuur en versterkt tegelijkertijd de cloudactiviteiten, omdat alles dat lokaal wordt gebouwd, is ontworpen om te schalen naar het datacenterplatform van Nvidia. Het is niet cloud versus bureau. Het is een wolk En tafel, en Nvidia levert beide.
Een supercomputer op elk bureau – en een agent die er nooit op slaapt
De belangrijkste slogan van de pc-revolutie was ‘een computer op elk bureau en in elk huis’. Veertig jaar later actualiseert Nvidia dit uitgangspunt met een ongemakkelijke escalatie. Dat DGX-station plaatst de kracht van een echte supercomputer – het soort dat nationale laboratoria bestuurt – naast een toetsenbord, en NemoClaw plaatst er een autonome AI-agent bovenop die de klok rond werkt, code schrijft, gereedschappen oproept en taken voltooit terwijl de eigenaar slaapt.
Of de toekomst spannend of verontrustend is, hangt af van jouw standpunt. Maar er is één ding dat niet langer ter discussie staat: de infrastructuur die nodig is om grens-AI te bouwen, uit te voeren en te bezitten, is zojuist verplaatst van de serverruimte naar de bureaula. En het bedrijf dat bijna alle serieuze AI-chips ter wereld verkoopt, zorgt ervoor dat het ook zijn bureauladen verkoopt.



