Chinese kunstmatige intelligentie-startup Diep zoeken heeft zondag twee krachtige nieuwe AI-modellen uitgebracht waarvan het bedrijf beweert dat ze de mogelijkheden van OpenAI evenaren of zelfs overtreffen GPT-5 en Googlen Gemini-3.0-Pro – een ontwikkeling die het concurrentielandschap tussen Amerikaanse technologiegiganten en hun Chinese uitdagers zou kunnen hervormen.
In Hangzhou gevestigd bedrijf gelanceerd DeepSeek-V3.2is ontworpen als assistent voor alledaagse redeneringen, naast DeepSeek-V3.2-Speciale, een krachtige variant die gouden medailleprestaties behaalde in vier internationale elitecompetities: de Internationale Wiskundeolympiade van 2025, de Internationale Informaticaolympiade, de ICPC Wereldfinale en de Chinese Wiskundeolympiade.
Deze release heeft grote gevolgen voor het technologische leiderschap van Amerika. DeepSeek heeft opnieuw aangetoond dat het toonaangevende AI-systemen kan produceren, zelfs als de VS deze controleren het beperken van de toegang van China tot geavanceerde Nvidia-chips – en dat deden ze terwijl ze het model vrij beschikbaar maakten onder de open source-licentie van MIT.
“Mensen dachten dat DeepSeek een eenmalige doorbraak betekende, maar wij kwamen terug met iets veel groters”, schreef hij Chen Fangdie zichzelf identificeert als bijdrager aan het project, op X (voorheen Twitter). De release lokte snel online reacties uit, waarbij één gebruiker zei: “Rust zacht, ChatGPT.”
Hoe de opvallende doorbraak van DeepSeek de computerkosten verlaagt
Het hart van deze nieuwe release ligt Diepe zoekaandacht schaarsof DSA – een nieuwe architecturale innovatie die de rekenlast van het uitvoeren van AI-modellen op lange documenten en complexe taken dramatisch vermindert.
Traditionele AI-aandachtsmechanismen, de kerntechnologie waarmee taalmodellen de context kunnen begrijpen, schalen slecht naarmate de invoerlengte toeneemt. Als u een document twee keer zo lang wilt verwerken, zijn er doorgaans vier keer zoveel berekeningen nodig. De aanpak van DeepSeek lost dit obstakel op door gebruik te maken van wat het bedrijf een ‘bliksemindexer’ noemt, die alleen de meest relevante delen van de context voor elke zoekopdracht identificeert en de rest negeert.
Volgens DeepSeek technisch rapportDSA vermindert de inferentiekosten met ongeveer de helft in vergelijking met eerdere modellen bij het verwerken van lange reeksen. De architectuur “vermindert de rekencomplexiteit substantieel terwijl de modelprestaties behouden blijven”, aldus het rapport.
Het verwerken van 128.000 tokens – ongeveer gelijk aan een boek van 300 pagina’s – kost nu ongeveer $0,70 per miljoen tokens om te decoderen, vergeleken met $2,40 in de voorgaande periode. V3.1-terminalmodel. Dat betekent een reductie van 70% in de inferentiekosten.
Het model met 685 miljard parameters ondersteunt een contextvenster van 128.000 tokens, waardoor het geschikt is voor het analyseren van documenten, codebases en lange onderzoekspapers. met dank aan DeepSeek technisch rapport waarbij wordt opgemerkt dat onafhankelijke evaluaties van benchmarks met een lange context aantonen dat V3.2 vergelijkbaar of beter presteert dan zijn voorgangers “ondanks het gebruik van schaarse aandachtsmechanismen”.
Benchmarkresultaten die DeepSeek op één lijn stellen met GPT-5
De beweringen van DeepSeek over gelijkwaardigheid met de toonaangevende AI-systemen van Amerika zijn gebaseerd op uitgebreide tests op het gebied van wiskunde, coderen en redeneren – en de cijfers zijn verbazingwekkend.
Op AIME 2025prestigieuze Amerikaanse wiskundewedstrijd, DeepSeek-V3.2-aangepast behaalde een slagingspercentage van 96,0%, vergeleken met 94,6% voor GPT-5-High en 95,0% voor Gemini-3.0-Pro. In Harvard-MIT Wiskundetoernooide Speciale variant scoorde 99,2% en overtrof daarmee de 97,5% van de Gemini.
Standaard V3.2-modellengeoptimaliseerd voor dagelijks gebruik, scoorde 93,1% op AIME en 92,5% op HMMT – iets lager dan het leidende model, maar behaald met veel minder computerbronnen.
Het meest opvallend zijn de resultaten van de competitie. DeepSeek-V3.2-aangepast scoorde 35 van de 42 punten Internationale Wiskundeolympiade 2025verdiende de status van gouden medaille. In Internationale Informaticaolympiadehij scoorde 492 van de 600 punten – ook goud en stond op de 10e plaats algemeen. Dit model lost 10 van de 12 problemen op ICPC-wereldfinalesbehaalde de tweede plaats.
Deze resultaten zijn tijdens het testen verkregen zonder internettoegang of hulpmiddelen. In het rapport van DeepSeek stond dat “bij het testen strikt rekening werd gehouden met de tijds- en inspanningslimieten van de wedstrijd.”
Wat codeerbenchmarks betreft, DeepSeek-V3.2 loste 73,1% van de echte softwarefouten op SWE-geverifieerdconcurreert met GPT-5-High met 74,9%. Op Terminalbank 2.0Bij het meten van complexe codeerworkflows scoorde DeepSeek 46,4%, ruim boven de GPT-5-High-score van 35,2%.
Het bedrijf erkent zijn beperkingen. “Tokenefficiëntie blijft een uitdaging”, stelt het technische rapport, waarbij wordt opgemerkt dat DeepSeek “doorgaans langere generatiepassages vereist” om de doorvoerkwaliteit van Gemini-3.0-Pro te evenaren.
Waarom AI leren denken tijdens het gebruik van tools alles verandert
Naast een ruwe redenering, DeepSeek-V3.2 introduceert “denken in het gebruik van tools” – de mogelijkheid om na te denken over problemen tijdens het uitvoeren van code, surfen op internet en het manipuleren van bestanden.
Eerdere AI-modellen hadden te kampen met een frustrerende beperking: elke keer dat ze een beroep deden op een externe tool, verloren ze hun gedachtegang en moesten ze opnieuw redeneren vanaf het begin. De architectuur van DeepSeek onderhoudt redeneersporen over meerdere toolaanroepen, waardoor probleemoplossing in meerdere stappen mogelijk wordt.
Om deze mogelijkheden te trainen, bouwde het bedrijf een grote synthetische datapijplijn die meer dan 1.800 verschillende taakomgevingen en 85.000 complexe instructies genereerde. Dit omvat uitdagingen zoals het plannen van meerdaagse reizen met een beperkt budget, het oplossen van softwarefouten in acht programmeertalen en webgebaseerd onderzoek waarvoor tientallen zoekopdrachten nodig zijn.
Het technische rapport beschrijft één voorbeeld: het plannen van een driedaagse reis vanuit Hangzhou met beperkingen op het gebied van hotelprijzen, restaurantbeoordelingen en attractiekosten die varieerden op basis van accommodatiekeuzes. Dergelijke taken zijn “moeilijk op te lossen maar gemakkelijk te verifiëren”, waardoor ze ideaal zijn voor het trainen van AI-agenten.
Diep zoeken maakt tijdens de training gebruik van tools uit de echte wereld (echte webzoek-API’s, codeeromgevingen en Jupyter-notebooks) en genereert tegelijkertijd synthetische opdrachten om diversiteit te garanderen. Het resultaat is een model dat kan worden gegeneraliseerd naar onzichtbare tools en omgevingen, een belangrijke mogelijkheid voor toepassingen in de echte wereld.
De open source-actie van DeepSeek zou het bedrijfsmodel van de AI-industrie op zijn kop kunnen zetten
In tegenstelling tot OpenAI en Anthropic, die hun sterkste modellen als eigen activa behouden, heeft DeepSeek beide vrijgegeven V3.2 En V3.2-Speciaal onder de MIT-licentie – een van de meest tolerante open source-frameworks die beschikbaar zijn.
Elke ontwikkelaar, onderzoeker of bedrijf kan zonder beperkingen modellen met 685 miljard parameters downloaden, wijzigen en implementeren. Volledige modelgewichten, trainingscode en documentatie verkrijgbaar bij Knuffel Gezichttoonaangevend platform voor het delen van AI-modellen.
De strategische implicaties zijn zeer aanzienlijk. Door gratis frontier-enabled modellen aan te bieden, ondermijnt DeepSeek concurrenten die premium API-prijzen vragen. Op de modelkaart van Hugging Face wordt opgemerkt dat DeepSeek Python-scripts en testcases heeft geleverd “die aantonen hoe berichten kunnen worden gecodeerd in OpenAI-compatibele formaten” – waardoor migratie van concurrerende services eenvoudig wordt gemaakt.
Voor zakelijke klanten is de waardepropositie aantrekkelijk: toonaangevende prestaties tegen veel lagere kosten, met flexibele implementatie. Maar bezorgdheid over de datalocatie en onzekerheid over de regelgeving kunnen de adoptie van gevoelige applicaties beperken – vooral gezien het feit dat DeepSeek uit China komt.
Regelgevende muren rijzen tegen DeepSeek in Europa en Amerika
De wereldwijde expansie van DeepSeek wordt met steeds grotere obstakels geconfronteerd. In juni verklaarde de Berlijnse commissaris voor gegevensbescherming, Meike Kamp, dat de overdracht van Duitse gebruikersgegevens door DeepSeek naar China “het overtreden van de wet” onder EU-regels, waarbij Apple en Google worden gevraagd om te overwegen de app te blokkeren.
De Duitse autoriteiten uitten hun bezorgdheid over het feit dat “Chinese autoriteiten brede toegangsrechten hebben tot persoonlijke gegevens binnen de invloedssfeer van Chinese bedrijven.” Italië gaf DeepSeek opdracht om het te doen blokkeer de applicatie in februari. Amerikaanse wetgevers zijn overgestapt de dienst verbieden van het overheidsapparaat, daarbij verwijzend naar bezorgdheid over de nationale veiligheid.
Er blijven ook vragen over de Amerikaanse exportcontroles die bedoeld zijn om de Chinese AI-capaciteiten te beperken. In augustus liet DeepSeek doorschemeren dat China binnenkort “volgende generatie“in eigen land gemaakte chips om zijn modellen van stroom te voorzien. Het bedrijf gaf aan dat zijn systemen werken met chips die in China zijn gemaakt Huawei En Cambricon zonder aanvullende instellingen.
Het originele V3-model van DeepSeek werd naar verluidt getraind op ongeveer 2.000 oudere mensen Nvidia H800-chips — hardware is sindsdien beperkt tot de Chinese export. Het bedrijf heeft niet onthuld wat de drijvende kracht achter de V3.2-training is, maar aanhoudende vooruitgang suggereert dat exportcontroles alleen de Chinese AI-vooruitgang niet kunnen tegenhouden.
Wat de release van DeepSeek betekent voor de toekomst van de AI-concurrentie
Deze lancering komt op een heel belangrijk moment. Na jaren van zware investeringen vragen sommige analisten zich af of er zich een AI-zeepbel aan het vormen is. Het vermogen van DeepSeek om tegen een fractie van de kosten het Amerikaanse grensmodel te evenaren, daagt de veronderstelling uit dat AI-leiderschap enorme kapitaaluitgaven vereist.
Bedrijf technisch rapport onthulde dat de investeringen na de training nu meer dan 10% van de kosten vóór de training bedragen – een grote bijdrage aan beter denken. Maar DeepSeek erkende de kloof: “De omvang van de mondiale kennis in DeepSeek-V3.2 blijft nog steeds achter bij toonaangevende propriëtaire modellen”, aldus het rapport. Het bedrijf is van plan dit aan te pakken door pre-training computing op te schalen.
DeepSeek-V3.2-aangepast blijft beschikbaar via een tijdelijke API tot 15 december, wanneer de mogelijkheden ervan worden samengevoegd in de standaardrelease. De Speciale variant is speciaal ontworpen om diepgaande redenen en ondersteunt geen tool summons – een beperking die het standaardmodel kan overwinnen.
Voorlopig is de AI-race tussen de Verenigde Staten en China een nieuwe fase ingegaan. De release van DeepSeek laat zien dat open source-modellen toonaangevende prestaties kunnen leveren, dat efficiëntie-innovaties de kosten aanzienlijk kunnen verlagen, en dat de krachtigste AI-systemen binnenkort gratis beschikbaar zullen zijn voor iedereen met een internetverbinding.
Zoals een commentator op
De vraag is niet langer of Chinese AI kan concurreren met Silicon Valley. De vraag is of Amerikaanse bedrijven hun voorsprong kunnen behouden als hun Chinese concurrenten vergelijkbare technologie gratis weggeven.



