Home Nieuws Waar we dankbaar voor moeten zijn in AI in 2025

Waar we dankbaar voor moeten zijn in AI in 2025

20
0
Waar we dankbaar voor moeten zijn in AI in 2025

Hallo, lieve lezers. Fijne late Thanksgiving en Black Friday!

Dit jaar voelt alsof je in een permanente DevDay leeft. Elke week brengt een laboratorium een ​​nieuw model, een nieuw agentframework of een nieuwe “dit verandert alles”-demo uit. Dit is verbazingwekkend. Maar dit is ook het eerste jaar dat ik het gevoel heb dat AI eindelijk diversifieert – niet slechts een of twee toonaangevende modellen in de cloud, maar hele ecosystemen: open en gesloten, groot en klein, Westers en Chinees, cloud en on-premises.

Dus voor deze Thanksgiving-editie is dit waar ik echt dankbaar voor ben op het gebied van AI in 2025: releases die belangrijk aanvoelen over 12-24 maanden, niet alleen tijdens de hype-cyclus van deze week.

1. OpenAI blijft sterk verzenden: GPT-5, GPT-5.1, Atlas, Sora 2 en openweight

Als het bedrijf dat onmiskenbaar het tijdperk van ‘generatieve AI’ heeft ingeluid met zijn ChatGPT-product dat eind 2022 viraal ging, heeft OpenAI misschien wel de moeilijkste taak van elk AI-bedrijf in 2025: zijn groeitraject voortzetten, zelfs als goed gefinancierde concurrenten zoals Google met zijn Gemini-model en andere startups zoals Anthropic hun eigen zeer concurrerende aanbiedingen aanbieden.

Gelukkig kan OpenAI deze en nog vele andere uitdagingen het hoofd bieden. De belangrijkste actie is GPT-5, dat in augustus werd gelanceerd als het volgende leidende redeneermodel November volgens GPT-5.1 met nieuwe Instant- en Think-varianten die dynamisch aanpassen hoeveel ‘denktijd’ ze aan elke taak besteden.

In de praktijk verliep de uitrol van GPT-5 hobbelig – VentureBeat documenteert aanvankelijke fouten in wiskunde en coderen en een koeler dan verwachte reactie van de gemeenschap in “De GPT-5-uitrol van OpenAI verliep niet soepel,” maar werd snel verfijnd op basis van gebruikersfeedback en als dagelijkse gebruiker van dit model ben ik er persoonlijk blij en onder de indruk van.

Tegelijkertijd rapporteren bedrijven die dit model daadwerkelijk gebruiken enorme winsten. ZenDesk GlobalBijvoorbeeld, zegt dat GPT-5-agenten nu meer dan de helft van de klanttickets oplossenwaarbij sommige klanten een oplossingspercentage van 80-90% zien. Dat is het simpele verhaal: deze modellen maken misschien niet per se indruk op de spraakzame klassen in X, maar ze beginnen echte KPI’s te genereren.

Aan de toolingkant biedt OpenAI serieuze AI-ingenieurs eindelijk GPT-5.1-Codex-Max, een nieuw coderingsmodel dat lange agentworkflows kan uitvoeren en al de standaard is in de Codex-omgeving van OpenAI. VentureBeat behandelt het in detail in “OpenAI heeft het GPT-5.1-Codex-Max-coderingsmodel gelanceerd en heeft de 24-uurs taak intern voltooid.”

Dan is er ChatGPT Atlas, een complete browser met ChatGPT ingebakken in Chrome zelf – samenvattingen in de zijbalk, analyses op de pagina en zoeken zijn nauw geïntegreerd in normaal browsen. Dit is het duidelijkste teken dat “assistent” en “browser” op ramkoers liggen.

Aan de mediakant transformeert Sora 2 de originele Sora-videodemo in een volledig video- en audiomodel met betere fysica, gesynchroniseerd geluid en dialoog, en meer controle over de opnamestijl en -structuur, plus speciale Sora-app met een complete sociale netwerkcomponent kan elke gebruiker dit doen creëren hun eigen tv-netwerk in hun zak.

Tenslotte – en misschien wel het meest symbolisch – OpenAI heeft gpt-oss-120B en gpt-oss-20B uitgebrachtopen klasse MoE-redeneermodel onder Apache 2.0-stijllicentie. Wat je ook van de kwaliteit ervan vindt (en vroege open source-gebruikers waren zeer uitgesproken over hun klachten), dit is de eerste keer sinds GPT-2 dat OpenAI serieuze aandacht besteedt aan het publieke belang.

2. De Chinese open source-golf wordt mainstream

Als 2023-2024 helemaal in het teken staat van Lama en Mistral, dan is 2025 het jaar van het Chinese open-weight ecosysteem.

Uit een onderzoek van MIT en Hugging Face blijkt precies dat China loopt nu iets voorop ten opzichte van de VS wat betreft het downloaden van mondiale open modellengrotendeels dankzij DeepSeek en Alibaba’s Qwen-familie.

Hoogtepunten:

  • DeepSeek-R1 neer in januari als een open source redeneermodel dat kan wedijveren met o1 OpenAI, met een door MIT gelicentieerd gewicht en een kleinere reeks gedistilleerde modellen. VentureBeat heeft het verhaal van lancering tot lancering gevolgd impact op de cyberveiligheid naar op prestaties afgestemde R1-variant.

  • Kimi K2 Denkt van Moonshot, een ‘denkend’ open source-model dat stap voor stap uitlegt met tools, zeer vergelijkbaar met de o1/R1-sjabloon, en gepositioneerd als het beste open redeneermodel ter wereld tot nu toe.

  • Z.ai verstuurd GLM-4.5 en GLM-4.5-Lucht als een ‘agentisch’ model, een open source-basis en een variant van hybride redeneren op GitHub.

  • van Baidu ERNIE 4.5 familie wordt geleverd als een volledig open-source multimodale MoE-suite onder Apache 2.0, inclusief 0,3 miljard compacte modellen en visuele “Denken‘varianten richten zich op graphics, STEM en toolgebruik.

  • Alibaba’s Qwen3 line – inclusief Qwen3-Coder, een groot redeneermodel, en de Qwen3-VL-serie die in de zomer en herfst van 2025 werd uitgebracht – blijven de lat hoog leggen voor open gewicht in coderen, vertalen en multimodaal redeneren, wat mij ertoe bracht afgelopen zomer te verklaren als “

    Qwen zomer.

VentureBeat heeft deze veranderingen gevolgd, inclusief Chinese wiskundige modellen en redeneringen Licht-R1-32B en kleine Weibo VibeThinker-1.5Bwat beter is dan de basislijn van DeepSeek met een krap trainingsbudget.

Als je geeft om het open ecosysteem of de locatiekeuze, dan is dit het jaar waarin de open wereld in China niet langer een curiosum is, maar een serieus alternatief wordt.

3. Kleine en lokale modellen groeien steeds meer

Nog iets waar ik dankbaar voor ben: het is eindelijk gelukt Goed klein model, niet zomaar speelgoed.

Liquid AI besteedt in 2025 aandacht aan het Liquid Foundation Model (LFM2) en LFM2-VL visietaalvariantvanaf de eerste dag ontworpen voor apparaatbewuste implementaties met lage latentie: edge-boxen, robots en beperkte servers, niet alleen gigantische clusters. De nieuwere LFM2-VL-3B gericht op ingebedde robotica en industriële autonomie, met demo’s gepland op ROSCon.

Aan de grote technische kant, Gemma Lijn 3 Google Maak een sterk argument dat ‘klein’ nog steeds capabel is. Gemma 3 bestrijkt 270 miljoen tot 27 miljard parameters, allemaal met open gewichten en multimodale ondersteuning in grotere varianten.

Het meest opvallend is de Gemma 3 270M, een compact model dat speciaal is gebouwd voor het verbeteren en uitvoeren van gestructureerde teksttaken (denk aan aangepaste formatters, routers en supervisors) die worden besproken in Google-ontwikkelaarsblogs en communitydiscussies tussen lokale LLM’s.

Deze modellen zullen misschien nooit trendy worden

4. Meta + Midjourney: esthetiek als service

Een van de vreemdste dingen dit jaar: Meta werkte samen met Midjourney in plaats van alleen maar te proberen het te verslaan.

In augustus kondigde Meta een deal aan om de ‘esthetische technologie’ van Midjourney – de stapel afbeeldingen en video’s – in licentie te geven en deze te integreren in toekomstige Meta-modellen en -producten, van Facebook- en Instagram-feeds tot Meta AI-functies.

VentureBeat deed verslag van de samenwerking in “Meta werkt samen met Midjourney en zal zijn technologie in licentie geven voor toekomstige modellen en productenroept een voor de hand liggende vraag op: vertraagt ​​of hervormt dit de API-roadmap van Midjourney? Wacht nog steeds op een antwoord, maar helaas zijn de plannen voor een API-release niet uitgekomen, wat erop wijst dat dit al heeft plaatsgevonden.

Voor makers van inhoud en merken is de onmiddellijke implicatie echter eenvoudig: beelden uit het middensegment beginnen te verschijnen in reguliere sociale tools in plaats van beperkt te blijven tot Discord-bots. Dit zou AI-kunst van hogere kwaliteit voor een breder publiek kunnen normaliseren – en concurrenten als OpenAI, Google en Black Forest Labs kunnen dwingen de lat voortdurend hoger te leggen.

5. Google Gemini 3 en Nano Banana Pro

Google probeerde GPT-5 te beantwoorden met Gemini 3, dat wordt beschouwd als het meest capabele model, met beter redeneren, coderen en multimodaal begrip, plus een nieuwe Deep Think-modus voor langzame en moeilijke problemen.

VentureBeat-dekking, “Google introduceerde Gemini 3 en claimde uitmuntendheid op het gebied van wiskunde, wetenschappen, multimodale en agent-AI”, beschrijft het als een directe blik op toonaangevende benchmarks en agentworkflows.

Maar wat er gebeurde was de verrassing Nano Banana Pro (Gemini 3 Pro Image), de nieuwe vlaggenschip-beeldgenerator van Google. Het is gespecialiseerd in infographics, diagrammen, scènes met meerdere onderwerpen en echt leesbare meertalige tekst in 2K- en 4K-resoluties.

In de wereld van zakelijke AI – waar grafieken, productschema’s en ‘visueel uitleggen van dit systeem’-afbeeldingen belangrijker zijn dan fantasiedraken – is dat een groot probleem.

6. De wildcard die ik in de gaten houd

Nog een paar releases waar ik dankbaar voor ben, ook al passen ze niet in één container:

Laatste gedachten (voor nu)

Als 2024 het jaar was van ‘één groot model in de cloud’, dan is 2025 het jaar waarin de kaart ontploft: grenzen pieken, China loopt voorop in open modellen, kleine, efficiënte systemen rijpen snel, en creatieve ecosystemen zoals Midjourney worden in de grote tech-stack getrokken.

Ik ben niet alleen dankbaar voor één model, maar ook voor de feiten die we nu hebben keuze – gesloten en open, lokaal en gehost, eerst de rede en eerst de media. Voor journalisten, bouwers en bedrijven is die diversiteit het echte verhaal van 2025.

Fijne feestdagen en het beste voor jou en je dierbaren!

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in