Home Nieuws Qwen3-Coder-Next biedt vibratiecodeerders een krachtig en zeer schaars open source-model met 10x...

Qwen3-Coder-Next biedt vibratiecodeerders een krachtig en zeer schaars open source-model met 10x hogere doorvoer voor repo-taken

10
0
Qwen3-Coder-Next biedt vibratiecodeerders een krachtig en zeer schaars open source-model met 10x hogere doorvoer voor repo-taken

Het Qwen AI-onderzoeksteam van de Chinese e-commercegigant Alibaba kwam vorig jaar naar voren als een van de wereldleiders op het gebied van open source AI-ontwikkeling, met de release van een een aantal grote krachtige taalmodellen en op maat gemaakte multimodale modellen die de prestaties van Amerikaanse leiders zoals OpenAI, Anthropic, Google en xAI benaderen, en in sommige gevallen zelfs overtreffen.

Nu is het Qwen-team deze week weer terug met een opwindende release die past bij de waanzinnige “codeervibe” die de afgelopen maanden is ontstaan: Qwen3-Coder-Volgendeeen aangepast model met 80 miljard parameters, ontworpen om elite-agentprestaties te leveren in een lichte actieve voetafdruk.

Het is uitgebracht met een tolerante Apache 2.0-licentie, waardoor commercieel gebruik door grote bedrijven en indie-ontwikkelaars mogelijk is, met Geladen modellen zijn verkrijgbaar bij Hugging Face in vier varianten en een technisch rapport legt enkele van zijn trainingsbenaderingen en innovaties uit.

De lancering markeert een grote escalatie in de wereldwijde wapenwedloop om de beste codeerassistent, na een week vol nieuwkomers. Van enorme efficiëntiewinsten Claude Code Antropisch harnas naar lancering van de beroemde OpenAI Codex-applicatie en snelle acceptatie door de gemeenschap van open source-frameworks Open klauwenHet competitieve landschap wordt nu steeds drukker.

In deze omgeving waar veel op het spel staat, is Alibaba niet alleen bezig met een inhaalslag, maar werkt het ook aan het zetten van een nieuwe standaard voor open intelligentie.

Voor LLM-beslissers vertegenwoordigt Qwen3-Coder-Next een fundamentele verschuiving in de economie van AI-engineering. Hoewel dit model in totaal 80 miljard parameters heeft, maakt het gebruik van een uiterst schaarse Mixture-of-Experts (MoE)-architectuur die slechts 3 miljard parameters per voorwaartse doorgang mogelijk maakt.

Dit ontwerp maakt het mogelijk om redeneermogelijkheden te bieden die kunnen wedijveren met enorme propriëtaire systemen, terwijl de lage implementatiekosten en hoge doorvoer van lichtgewicht lokale modellen behouden blijven.

Het oplossen van de lange contextbarrière

De belangrijkste technische doorbraak achter Qwen3-Coder-Next is een hybride architectuur die speciaal is ontworpen om de kwadratische schalingsproblemen te vermijden waar traditionele Transformers mee kampen.

Naarmate het contextvenster groter wordt – en dit model 262.144 tokens ondersteunt – worden traditionele aandachtsmechanismen computationeel onbetaalbaar.

Standaardtransformatoren hebben last van een “geheugenmuur” waarbij de kosten voor contextverwerking kwadratisch toenemen met de lengte van de reeks. Qwen pakt dit aan door Gated DeltaNet te combineren met Gated Attention.

Gated DeltaNet fungeert als een lineair complexiteitsalternatief voor standaard softmax-aandacht. Hierdoor kan het model de staat gedurende zijn kwart miljoen-token-venster behouden zonder de exponentiële latentiestraf die typisch is voor redeneren op de lange termijn.

In combinatie met ultra-spaarzame MoE is het resultaat een 10x hogere theoretische doorvoer voor taken op repository-niveau vergeleken met compacte modellen met een vergelijkbare totale capaciteit.

Deze architectuur zorgt ervoor dat agenten volledige Python-bibliotheken of complexe JavaScript-frameworks kunnen ‘lezen’ en kunnen reageren met de snelheid van het 3B-model, maar met het structurele begrip van het 80B-systeem.

Om hallucinaties van de context tijdens de training te voorkomen, gebruikte het team Best-Fit Packing (BFP), een strategie die de efficiëntie handhaaft zonder de afkapfouten die in traditionele documentensets voorkomen.

Opgeleid tot eersteklas agent

Het woord “Next” in de modelnomenclatuur verwijst naar de fundamentele as in de trainingsmethodologie. Historisch gezien werden codeermodellen getraind op statische code-tekstparen – in wezen een ‘alleen-lezen’-opleiding. Qwen3-Coder-Next werd in plaats daarvan ontwikkeld via een enorme ‘agenttraining’-route.

Het technische rapport beschrijft een synthesepijplijn die 800.000 verifieerbare codeeropdrachten opleverde. Dit is niet zomaar een trailer; het is een real-world bugfix-scenario afkomstig van een GitHub-pull-verzoek en gecombineerd met een volledig uitvoerbare omgeving.

De trainingsinfrastructuur, bekend als MegaFlow, is een cloud-native orkestratiesysteem gebaseerd op Alibaba Cloud Kubernetes. In MegaFlow wordt elke agenttaak uitgedrukt als een workflow in drie fasen: agentlancering, evaluatie en nabewerking. Tijdens de lancering communiceert het model met de actieve containeromgeving.

Als het code produceert die unit-tests niet doorstaat of een container laat crashen, krijgt het onmiddellijke feedback via tussentijdse training en versterkend leren. Dankzij deze ‘closed loop’-educatie kan het model leren van feedback uit de omgeving, waardoor het leert fouten te herstellen en oplossingen in realtime te verfijnen.

Productspecificaties omvatten:

  • Ondersteuning voor 370 programmeertalen: Uitbreiding van 92 in eerdere versies.

  • XML-stijl tooloproep: Het nieuwe qwen3_coder-formaat is ontworpen voor argumenten met veel tekenreeksen, waardoor het model lange codefragmenten kan uitvoeren zonder de geneste aanhalingstekens en escape-overhead die typisch zijn voor JSON.

  • Focus op opslagplaatsniveau: Mid-training breidde zich uit tot ongeveer 600 miljard tokens aan gegevens op repositoryniveau, wat een grotere impact bleek te hebben op de afhankelijkheidslogica tussen bestanden dan alleen datasets op bestandsniveau.

Specialisatie door expertmodellen

Een belangrijke onderscheidende factor in de Qwen3-Coder-Next-pijplijn is het gebruik van aangepaste expertmodellen. In plaats van één generalistisch model voor alle taken te trainen, ontwikkelde het team domeinspecifieke experts voor webontwikkeling en gebruikerservaring (UX).

Webontwikkelingsexperts richten zich op complete taken zoals UI-constructie en componentsamenstelling. Alle codevoorbeelden worden weergegeven in de gecontroleerde Chromium-omgeving van Playwright.

Voor het React-voorbeeld werd een Vite-server geïmplementeerd om ervoor te zorgen dat alle afhankelijkheden correct werden geïnitialiseerd. Het Vision Language Model (VLM) beoordeelt vervolgens de weergegeven pagina op basis van de integriteit van de lay-out en de kwaliteit van de gebruikersinterface.

User Experience Expert geoptimaliseerd voor naleving van tooloproepformaten in verschillende CLI/IDE-scaffolds zoals Cline en OpenCode. Het team ontdekte dat training met een verscheidenheid aan toolchat-sjablonen de robuustheid van het model aanzienlijk verbeterde voor schema’s die niet zichtbaar waren tijdens de implementatie.

Zodra deze experts topprestaties bereiken, worden hun capaciteiten teruggefilterd in één enkel MoE 80B/3B-model. Dit zorgt ervoor dat de lichtgewicht versie van de implementatie de gedifferentieerde kennis van het veel grotere lerarenmodel behoudt.

Verbetert benchmarks en biedt tegelijkertijd hoge beveiliging

De resultaten van deze speciale training zijn zichtbaar in de concurrentiekracht van het model ten opzichte van industriële reuzen. In benchmarkevaluaties uitgevoerd met behulp van de SWE-Agent-scaffold vertoont Qwen3-Coder-Next een uitstekende efficiëntie vergeleken met het aantal actieve parameters.

Op SWE-Bench Verified kreeg het model een score van 70,6%. Deze prestaties zijn zeer competitief als ze naast veel grotere modellen worden geplaatst; het verslaat DeepSeek-V3.2, dat 70,2% scoorde, en ligt slechts iets achter op de score van GLM-4.7 van 74,2%.

Qwen3-Coder-Next-benchmark. Krediet: Alibaba Qwen

Het belangrijkste is dat dit model blijk geeft van een sterk beveiligingsbewustzijn. In SecCodeBench, dat het vermogen van een model evalueert om kwetsbaarheden op te lossen, presteerde Qwen3-Coder-Next beter dan Claude-Opus-4.5 in scenario’s voor het genereren van code (61,2% versus 52,5%).

Vergelijkingstabel van Qwen3-Coder-Next SecCodeBench benchmarkresultaten

Vergelijkingstabel van Qwen3-Coder-Next SecCodeBench benchmarkresultaten. Krediet: Alibaba Qwen

Opvallend was dat het bedrijf hoge scores behield, zelfs als het niet van beveiligingsinstructies was voorzien. Dit geeft aan dat het bedrijf had geleerd te anticiperen op veelvoorkomende beveiligingsproblemen tijdens de trainingsfase van agenten met 800.000 taken.

Bij meertalige beveiligingsevaluatie laat het model ook een competitief evenwicht zien tussen functionele en veilige codegeneratie, en presteert het beter dan DeepSeek-V3.2 en GLM-4.7 op de CWEval-benchmark met een func-sec@1-score van 56,32%.

Eigen reuzen uitdagen

Deze release vertegenwoordigt de grootste uitdaging voor de dominantie van closed source-coderingsmodellen in 2026. Door te bewijzen dat een model met slechts 3B actieve parameters net zo effectief door de complexiteit van echte software-engineering kan navigeren als een ‘gigant’, heeft Alibaba de codering van agenten effectief gedemocratiseerd.

De “aha!” Het grootste moment voor de branche was het besef dat de lengte van de context en de uitkomsten de twee belangrijkste factoren zijn voor het succes van agenten.

Een model dat binnen enkele seconden 262K repositorytokens kan verwerken en zijn eigen werk in een Docker-container kan verifiëren, is inherent nuttiger dan een groter model dat te langzaam of te duur is om te herhalen.

Zoals het Qwen-team in hun rapport concludeert: “Het opschalen van agenttraining, en niet alleen de modelgrootte, is een belangrijke drijfveer voor het bevorderen van de codeermogelijkheden van agenten in de echte wereld.” Met Qwen3-Coder-Next komt er mogelijk een einde aan het tijdperk van ‘gigantische’ codeermodellen, vervangen door zeer snelle en zeldzame experts die zo diep mogelijk kunnen nadenken.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in