De Chinese elektronica- en autofabrikant Xiaomi verraste vandaag de wereldwijde AI-gemeenschap met MiMo-V2-Pro-uitgaveeen nieuw funderingsmodel van 1 biljoen parameters met benchmarks die die van de Amerikaanse AI-giganten OpenAI en Anthropic benaderen, maar ongeveer een zevende of zesde kost als deze wordt benaderd via een eigen API – en cruciaal: het verzendt minder dan 256.000 tokens aan informatie heen en terug.
Onder leiding van Fuli Luo, een veteraan van het ontwrichtende DeepSeek-project van R1, vertegenwoordigt de release wat Luo een ‘stille hinderlaag’ op de mondiale grens noemt. Luo verklaarde verder in a X berichten dat het bedrijf van plan is om modelvarianten van deze nieuwste release te openen, “wanneer ze stabiel genoeg zijn om dit te rechtvaardigen.”
Door zich te concentreren op de ‘actieruimte’ van intelligentie – van coderen naar de autonome werking van digitale ‘klauwen’ – probeert Xiaomi het conversatieparadigma volledig te overstijgen.
Voordat het in Peking gevestigde Xiaomi zich op de voorgrond van de AI begaf, vestigde het zich als een ‘Internet of Things’- en consumentenhardwaregigant.
Wereldwijd bekend als de op twee na grootste smartphonefabrikant ter wereld, nam Xiaomi begin jaren twintig grote risico’s bij het betreden van de autosector. Elektrische voertuigen (EV’s), zoals de SU7 en de onlangs gelanceerde YU7 SUV, hebben het bedrijf getransformeerd in een verticaal geïntegreerde krachtpatser die hardware, software en nu ook geavanceerd denken kan combineren.
Deze stamboom in de techniek van de fysieke wereld vormt de basis voor de architectuur van de MiMo-V2-Pro; het is gebouwd om het ‘brein’ van een complex systeem te zijn, of dat systeem nu een mondiale toeleveringsketen beheert of de complexe steigers van een autonoom codeermiddel beheert.
Technologie: Agency-architectuur
Een belangrijke uitdaging van het ‘Age of Agents’ is het handhaven van een hoge betrouwbaarheidsredenering over zeer grote databereiken, zonder dure ‘intelligentiebelastingen’ in termen van latentie of kosten. De MiMo-V2-Pro pakt dit aan via een schaarse architectuur: ondanks het hosten van 1T totale parameters, zijn er slechts 42B actief tijdens een enkele voorwaartse doorgang, waardoor het ongeveer drie keer zo groot is als zijn voorganger, de MiMo-V2-Flash.
De efficiëntie van dit model is geworteld in het ontwikkelde hybride aandachtsmechanisme. Standaardtransformatoren worden doorgaans geconfronteerd met een kwadratische toename van de rekenvereisten naarmate de context evolueert; MiMo-V2-Pro gebruikt een hybride verhouding van 7:1 (ten opzichte van 5:1 in de Flash-versie) om een zeer groot tokencontextvenster van 1 miljoen te beheren. Deze architectonische keuze zorgt ervoor dat het model een diep “geheugen” van langlopende taken kan behouden zonder de prestatieverslechtering die doorgaans te zien is in frontier-modellen.
Een analogie: Beschouw het model niet als een student die een boek pagina voor pagina leest, maar als een deskundige onderzoeker in een enorme bibliotheek. Dankzij de verhouding van 7:1 kan het model 85% van de gegevens ‘doorzoeken’ op zoek naar context, terwijl er aandacht met hoge dichtheid wordt toegepast op de 15% van de gegevens die het meest relevant zijn voor de taak die voorhanden is.
Dit wordt gecombineerd met een lichtgewicht Multi-Token Prediction (MTP)-laag, waardoor het model kan anticiperen en meerdere tokens tegelijkertijd kan genereren, waardoor de latentie die nodig is voor de ‘denkfase’ in de agentworkflow drastisch wordt verminderd. Volgens Luo werden deze structurele beslissingen maanden van tevoren genomen, met name om een ‘structureel voordeel’ te bieden ten opzichte van de ongekende snelheid waarmee de industrie zich tot agenten wendde.
Producten en benchmarks: een reality check van derden
De interne gegevens van Xiaomi schetsen een beeld van het model dat uitblinkt in “echte” taken in vergelijking met synthetische benchmarks. Op GDPval-AA, een benchmark die de prestaties meet bij taken van echte agenten, behaalde de MiMo-V2-Pro een Elo van 1426, waarmee hij een voorsprong heeft op grote Chinese collega’s zoals de GLM-5 (1406) en Kimi K2.5 (1283).
Hoewel hij nog steeds achterblijft bij westerse ‘max effort’-modellen zoals de Claude Sonnet 4.6 (1633) in ruwe Elo, vertegenwoordigt hij het hoogste prestatierecord voor een Chinees model in deze categorie.
Benchmarkorganisaties van derden Kunstmatige analyse bevestigt deze beweringrangschikte MiMo-V2-Pro op nummer 10 op zijn wereldwijde Intelligence Index met een score van 49. Dit plaatst MiMo-V2-Pro in hetzelfde niveau als GPT-5.2 Codex en vóór Grok 4.20 Beta. Deze resultaten laten zien dat Xiaomi erin is geslaagd een model te bouwen dat in staat is om op hoog niveau te redeneren dat nodig is voor engineering- en productietaken.
Belangrijke statistieken van Artificial Analysis benadrukken een aanzienlijke sprong ten opzichte van de vorige versie met open gewicht, MiMo-V2-Flash (die 41 scoorde):
-
Mate van hallucinatie: Het Pro-model vermindert het aantal hallucinaties met 30%, een scherpe stijging ten opzichte van de 48% van het Flash-model.
-
Alwetendheidsindex: Het scoorde +5, waarmee het voorsprong had op GLM-5 (+2) en Kimi K2.5 (-8).
-
Token-efficiëntie: Om de volledige Intelligence Index uit te voeren heeft MiMo-V2-Pro slechts 77 miljoen outputtokens nodig, veel minder dan GLM-5 (109 miljoen) of Kimi K2.5 (89 miljoen), wat wijst op een beknopter en efficiënter redeneerproces.
Xiaomi’s eigen kaart legt meer nadruk op de mogelijkheden van “General Agent” en “Coding Agent”. Op ClawEval, een benchmark voor agent-scaffolding, scoorde het model een score van 61,5, waarmee het de prestaties van Claude Opus 4.6 (66,3) benadert en aanzienlijk beter presteert dan GPT-5.2 (50,0). In een speciale codeeromgeving zoals Terminal-Bench 2.0 behaalde het een score van 86,7, wat een hoge betrouwbaarheid aantoont bij het uitvoeren van opdrachten in een live terminalomgeving.
Hoe bedrijven het gebruik van MiMo-V2-Pro moeten evalueren
Voor de persoonlijkheid die wordt geportretteerd in hedendaagse AI-organisaties – van infrastructuur tot beveiliging – vertegenwoordigt MiMo-V2-Pro een paradigmaverschuiving in de ‘prijs-kwaliteit’-curve.
Beslissers op het gebied van infrastructuur zullen de MiMo-V2-Pro een aantrekkelijke kandidaat vinden voor het Pareto-voordeel in termen van intelligentie versus kracht. kosten. Artificial Analytics meldt dat het uitvoeren van hun index slechts $348 kost voor MiMo-V2-Pro, vergeleken met $2.304 voor GPT-5.2 en $2.486 voor Claude Opus 4.6.
Voor organisaties die clusters beheren of GPU’s aanschaffen, is de mogelijkheid om toegang te krijgen tot de top 10 van mondiale inlichtingen tegen ongeveer 1/7 van de kosten van gevestigde exploitanten in het Westen een krachtige stimulans voor testen op productieschaal.
Databeslissers kunnen 1 miljoen contextvensters gebruiken voor RAG-compatibele architecturen, waardoor ze een volledige bedrijfscodebase of documentatieset in één enkele prompt kunnen plaatsen zonder de fragmentatie die vereist is door kleinere contextmodellen.
Beslissers op het gebied van systeem/orkestratie moeten de MiMo-V2-Pro beoordelen als het primaire ‘brein’ voor coördinatie tussen meerdere agenten. Omdat dit model is geoptimaliseerd voor OpenClaw en Claude Code, kan het langetermijnplanning en het juiste gebruik van tools aan, zonder de constante menselijke tussenkomst die eerdere modellen teisterde.
De hoge ranking in GDPval-AA laat zien dat het bedrijf uitstekend past bij de workflows en orkestratielagen die nodig zijn om AI binnen de hele onderneming te schalen. Hierdoor kunnen systemen worden gecreëerd die kunnen overgaan van eenvoudige automatisering naar complexe probleemoplossing die uit meerdere stappen bestaat.
Beveiligingsbeslissers moeten echter voorzichtig zijn. De ‘agentische’ eigenschappen die modellen zo krachtig maken – hun vermogen om terminals te gebruiken en bestanden te manipuleren – vergroten het oppervlak voor snelle injectie en ongeautoriseerde toegang tot modellen.
Hoewel het lage hallucinatiepercentage (30%) een defensief voordeel is, betekent het gebrek aan publiek gewicht (in tegenstelling tot de Flash-versie) dat interne beveiligingsteams niet de diepgaande audits op ‘modelniveau’ kunnen uitvoeren die soms nodig zijn voor zeer gevoelige implementaties. Elke bedrijfsimplementatie moet gepaard gaan met robuuste monitoring- en controleerbaarheidsprotocollen.
Prijs, beschikbaarheid en het pad voorwaarts
Xiaomi heeft de MiMo-V2-Pro geprijsd om de ontwikkelaarsmarkt te domineren. De prijzen zijn gedifferentieerd op basis van contextgebruik, met concurrerende tarieven voor caching ter ondersteuning van hoogfrequente redeneringstaken.
-
MiMo-V2-Pro (tot 256K): $1 per 1 miljoen invoertokens en $3 per 1 miljoen uitvoertokens
-
MiMo-V2-Pro (256K-1M): $2 per 1 miljoen invoertokens en $6 per 1 miljoen uitvoertokens
-
Leescache: $0,20 per 1 miljoen tokens voor het lagere niveau en $0,40 voor het hogere niveau
-
Schrijfcache: Tijdelijk gratis ($0)
Dit is hoe het zich verhoudt tot andere toonaangevende grensmodellen over de hele wereld:
Deze agressieve positionering is ontworpen om de applicatiestroom met hoge intensiteit te stimuleren die de volgende generatie software definieert. Dit model is momenteel alleen beschikbaar via Xiaomi’s eigen API, zonder huidige ondersteuning voor beeld- of multimodale invoer – een opmerkelijke omissie in het tijdperk van “Omni” -modellen, hoewel Xiaomi voor die behoeften een aparte MiMo-V2-Omni heeft geïntroduceerd.
De “Hunter Alpha”-periode van OpenRouter bewees dat de markt een sterke behoefte heeft aan een specifieke mix van efficiëntie en logica. De filosofie van Fuli Luo – dat het tempo van het onderzoek wordt bepaald door ‘ware liefde voor de wereld die je opbouwt’ – heeft geresulteerd in een model dat volgens gevestigde inlichtingenindexen op de tweede plaats staat in China en op de achtste plaats wereldwijd.
Of dit een ‘stille’ hinderlaag zal blijven of de basis zal worden voor een wereldwijde herschikking van de macht van AI, hangt af van hoe snel ontwikkelaars ‘actieruimtes’ adopteren via ‘chatvensters’. Voorlopig heeft Xiaomi zijn doel veranderd: de vraag is niet langer alleen maar “kan het praten?” maar “kan hij handelen?”



