Home Nieuws De nieuwe M2.5 en M2.5 Lightning open van MiniMax zijn bijna state-of-the-art...

De nieuwe M2.5 en M2.5 Lightning open van MiniMax zijn bijna state-of-the-art voor 1/20 van de prijs van de Claude Opus 4.6

2
0
De nieuwe M2.5 en M2.5 Lightning open van MiniMax zijn bijna state-of-the-art voor 1/20 van de prijs van de Claude Opus 4.6

Chinese AI-startup MiniMaxmet hoofdkantoor in Shanghai, heeft vandaag de AI-industrie verrast met de lancering van zijn nieuwe product M2.5 taalmodel in twee varianten, die belooft high-end kunstmatige intelligentie zo goedkoop te maken dat je je geen zorgen meer hoeft te maken over de rekening.

Er staat ook “open bron,” hoewel de gewichten (instellingen) en code nog niet zijn gepost, en ze ook geen definitief licentietype of -voorwaarden hebben. Maar dat doet er niet toe als je bedenkt hoe goedkoop MiniMax ze presenteert via de API’s van hem en zijn partners.

De afgelopen jaren is het gebruik van de meest geavanceerde AI ter wereld net zoiets geweest als het inhuren van een dure consultant: het is briljant, maar je houdt voortdurend de klok in de gaten (en het aantal tokens). M2.5 verandert die wiskunde, waardoor de grenstarieven met maar liefst 95% kunnen worden verlaagd.

Door prestaties te leveren die kunnen wedijveren met de topmodellen van Google en Anthropic, tegen een fractie van de kosten, vooral bij het gebruik van agenttools voor bedrijfstaken, waaronder maak Microsoft Word-, Excel- en PowerPoint-bestandenMiniMax gokt erop dat de toekomst niet alleen gaat over hoe slim een ​​model is, maar ook over hoe vaak je het kunt gebruiken.

Om dit doel te bereiken zegt MiniMax inderdaad samen te werken “met senior professionals op gebieden als financiën, recht en sociale wetenschappen” om ervoor te zorgen dat het model echt werk kan doen volgens hun specificaties en normen.

Deze release is belangrijk omdat het een verschuiving markeert van AI als ‘chatbot’ naar AI als ‘werker’. Toen intelligentie ‘te goedkoop werd om te meten’, stopten ontwikkelaars met het bouwen van eenvoudige vraag- en antwoordtools en begonnen ze met het bouwen van ‘agents’: software die urenlang zelfstandig complexe projecten kon coderen, onderzoeken en beheren zonder veel geld uit te geven.

MiniMax heeft dit model zelfs in zijn eigen activiteiten geïmplementeerd. Op dit moment, 30% van alle taken op het hoofdkantoor van MiniMax wordt uitgevoerd door de M2.5en verrassend 80% van hun nieuwe code wordt gegenereerd door M2.5!

Zoals het MiniMax-team schreef in hun releaseblogpost: “wij geloven dat M2.5 vrijwel onbeperkte mogelijkheden biedt voor de ontwikkeling en werking van agenten in de economie.”

Technologie: elektriciteitsbesparing en CISPO-doorbraak

Het geheim van de efficiëntie van M2.5 ligt in de Mixture of Experts (MoE)-architectuur. In plaats van 230 miljard parameters voor elk gegenereerd woord uit te voeren, ‘activeert’ het model er slechts 10 miljard. Hierdoor kan het een zeer grote modelredeneerdiepte behouden terwijl het beweegt met veel minder modelflexibiliteit.

Om deze complexe systemen te trainen heeft MiniMax een Reinforcement Learning (RL)-framework ontwikkeld, genaamd Forge. MiniMax-ingenieur Olijflied vermeld op ThursdaydAI-podcast op YouTube dat de techniek een belangrijke rol speelde bij het opschalen van de prestaties ondanks het gebruik van een relatief klein aantal parameters, en dat het model gedurende een periode van twee maanden werd getraind.

Forge is ontworpen om modellen te helpen leren van ‘echte omgevingen’ – waardoor AI in feite kan oefenen met coderen en tools kan gebruiken in duizenden gesimuleerde werkruimten.

“Wat we ons realiseerden was dat er veel potentieel was met kleine modellen als deze als we versterkend leren trainden met een groot aantal omgevingen en agenten”, zei Song. “Maar het is niet eenvoudig om te doen”, en voegde eraan toe dat ze er “veel tijd” aan besteedden.

Om het model tijdens deze intensieve training stabiel te houden, gebruikten ze een wiskundige aanpak genaamd CISPO (Clipping Importance Sampling Policy Optimization) en deelden de formule op hun blog.

Deze formule zorgt ervoor dat het model tijdens de training niet overcorrigeert, waardoor het model kan ontwikkelen wat MiniMax een ‘architectenmindset’ noemt. In plaats van meteen code te schrijven, heeft M2.5 geleerd de structuur, functies en interfaces van een project proactief van tevoren te plannen.

Geavanceerde (en vrijwel identieke) benchmarks.

De resultaten van deze architectuur worden weerspiegeld in de nieuwste industrieklassementen. M2.5 verbetert niet alleen; het is overgestapt naar een codeermodel op het hoogste niveau en benadert het nieuwste model van Anthropic, Claude Opus 4.6, een week geleden uitgebrachten laat zien dat Chinese bedrijven nu slechts enkele dagen verwijderd zijn van een inhaalslag op de veel beter uitgeruste (in termen van GPU’s) Amerikaanse laboratoria.

De MiniMax M2.5-lijngrafiek vergelijkt de prestaties van verschillende modellen in de loop van de tijd op de SWE-benchmark. Krediet: MiniMax

Hier zijn enkele benchmarkhoogtepunten van de nieuwe MiniMax M2.5:

  • SWE-Bench geverifieerd: 80,2% — Komt overeen met de snelheid van Claude Opus van 4,6

  • Comp verkennen: 76,3% — Gebruik van toonaangevende tools en zoekmogelijkheden.

  • Multi-SWE-bank: 51,3% — SOTA bij meertalige codering

  • BFCL (gereedschapsoproep): 76,8% — Zeer nauwkeurige workflow voor agenten.

MiniMax M2.5 verschillende benchmarkvergelijkingsgrafieken

MiniMax M2.5 verschillende benchmarkvergelijkingsgrafieken. Krediet: MiniMax

Op de ThursdAI-podcast wees gastheer Alex Volkov erop dat de MiniMax M2.5 zeer snel werkt en daarom minder tokens gebruikt om taken te voltooien, met ordes van $0,15 per taak vergeleken met $3,00 voor de Claude Opus 4.6.

Het doorbreken van kostenbarrières

MiniMax biedt twee versies van het model via zijn API, beide gericht op productiegebruik in grote volumes:

  • M2.5-Bliksem: Geoptimaliseerd voor snelheid en verzendt 100 tokens per seconde. De vergoeding bedraagt ​​$0,30 per 1 miljoen inputtokens en $2,40 per 1 miljoen outputtokens.

  • M2.5 Standaard: Geoptimaliseerd voor vergoedingen, met een snelheid van 50 tokens per seconde. De prijs is de helft van die van de Lightning-versie ($0,15 per 1 miljoen inputtokens / $1,20 per 1 miljoen outputtokens).

Simpel gezegd: MiniMax beweert dat je voor ongeveer $10.000 een heel jaar lang vier ‘agenten’ (AI-werknemers) continu kunt laten werken.

Voor zakelijke gebruikers is deze prijs ongeveer 1/10e tot 1/20e van de prijs van concurrerende eigen modellen zoals de GPT-5 of Claude 4.6 Opus.

Model

Invoer

Uitvoer

Totale kosten

Bron

Qwen3 Turbo

$ 0,05

$ 0,20

$ 0,25

Alibaba-wolk

diepe chat (V3.2-Exp)

$ 0,28

$ 0,42

$ 0,70

Diep zoeken

deepseek-reasoner (V3.2-Exp)

$ 0,28

$ 0,42

$ 0,70

Diep zoeken

Grok 4.1 Snel (redenering)

$ 0,20

$ 0,50

$ 0,70

xAI

Grok 4.1 Snel (niet redenerend)

$ 0,20

$ 0,50

$ 0,70

xAI

MiniMax M2.5

$ 0,15

$ 1,20

$ 1,35

MiniMax

MiniMax M2.5-Bliksem

$ 0,30

$ 2,40

$ 2,70

MiniMax

Gemini 3 Flash-voorbeeld

$ 0,50

$ 3,00

$ 3,50

Googlen

Kimi-k2.5

$ 0,60

$ 3,00

$ 3,60

Maanschot

GLM-5

$ 1,00

$ 3,20

$ 4,20

Z.ai

ERNIE 5.0

$ 0,85

$ 3,40

$ 4,25

Baidu

Claude Haiku 4.5

$ 1,00

$ 5,00

$ 6,00

Antropisch

Qwen3-Max (23-01-2026)

$ 1,20

$ 6,00

$ 7,20

Alibaba-wolk

Gemini 3 Pro (≤200K)

$ 2,00

$ 12,00

$ 14,00

Googlen

GPT-5.2

$ 1,75

$ 14,00

$ 15,75

Open AI

Claude Sonnetten 4.5

$ 3,00

$ 15,00

$ 18,00

Antropisch

Gemini 3 Pro (>200K)

$ 4,00

$ 18,00

$ 22,00

Googlen

Taak sluiten 4.6

$ 5,00

$ 25,00

$ 30,00

Antropisch

GPT-5.2 Pro

$ 21,00

$ 168,00

$ 189,00

Open AI

Strategische implicaties voor bedrijven en leiders

Voor technische leiders vertegenwoordigt M2.5 meer dan alleen een goedkopere API. Dit verandert de huidige operationele richtlijnen van het bedrijf.

De druk om de drang om geld te besparen te ‘optimaliseren’ is verdwenen. U kunt nu modellen met een hoge context en een hoge redenering toepassen op routinetaken die voorheen duur waren.

Een snelheidstoename van 37% bij het voltooien van end-to-end taken betekent dat de ‘agentische’ pijplijnen die worden gewaardeerd door AI-orkestrators – waar modellen communiceren met andere modellen – eindelijk snel genoeg bewegen voor realtime gebruikerstoepassingen.

Bovendien geeft de hoge score van M2.5 op het gebied van financiële modellen (74,4% op MEWC) aan dat M2.5 sectorspecifieke “stilzwijgende kennis” zoals recht en financiën kan verwerken met minimaal toezicht.

Omdat M2.5 is gepositioneerd als een open source-model, kunnen organisaties mogelijk intensieve, geautomatiseerde code-audits uitvoeren op een schaal die voorheen onmogelijk was zonder massale menselijke tussenkomst, terwijl ze een betere controle over de gegevensprivacy behouden. Maar totdat de licentievoorwaarden en het gewicht bekend zijn gemaakt, is dit slechts een bijnaam.

De MiniMax M2.5 is een signaal dat uitmuntende AI niet langer alleen gaat over wie het grootste brein kan bouwen, maar wie van dat brein de nuttigste – en betaalbare – werker in de kamer kan maken.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in