Volg ZDNET: Voeg ons toe als voorkeursbron op Google.
Kernpunten van ZDNET
- GPT-5.1 versnelt het coderen met de adaptieve modus en zonder excuses.
- Nieuwe snelle caching verlaagt API-kosten voor ontwikkelaars van embedded applicaties.
- Nieuwe tools maken AI-agenten capabeler in moderne IDE’s.
OpenAI is terug met een nieuwe 5.1-update voor zijn vorige grote taalmodel GPT-5. GPT-5 werd in augustus, tientallen jaren geleden, geïntroduceerd in een AI-versie van de tijdsnelheid in ons universum.
OpenAI maakt uiteraard gebruik van AI om sneller te kunnen coderen. Ze zijn tenslotte in een race met andere grote spelers om de waarderingen van miljarden dollars. Bovendien is zonder enige twijfel bewezen dat AI-codering, in de handen van professionele programmeurs, een bijna magische krachtvermenigvuldiger en projectversneller is.
(Openbaarmaking: Ziff Davis, het moederbedrijf van ZDNET, heeft in april 2025 een rechtszaak aangespannen tegen OpenAI, waarbij hij beweerde dat OpenAI de auteursrechten van Ziff Davis had geschonden bij de training en bediening van zijn AI-systemen.)
Bovendien: OpenAI’s GPT-5.1 maakt ChatGPT ‘warmer’ en slimmer – hoe de verbeterde modus nu werkt
Voor een overzicht van de voordelen van GPT-5.1 voor consumenten die chatbots gebruiken, lees de uitleg van Senior Editor Sabrina Ortiz. Maar als u geïnteresseerd bent in het gebruik van AI in uw codering of ingebed in uw software, lees dan verder. Deze release biedt een aantal echte voordelen op het gebied van snelheid en kostenbesparing.
In dit artikel bespreken we GPT-5.1 in API. Met andere woorden, we overwegen om commando’s naar een AI te sturen via een functieaanroep van een programma, en de resultaten terug te krijgen als de retourwaarde van de oproep.
Deze API-gedreven AI-functionaliteit werkt in softwareproducten die door ontwikkelaars zijn gemaakt, maar omdat de ontwikkelaarstools zelf ook API’s gebruiken om intelligentie te leveren, vergroot dit de bruikbaarheid van die tools. Dit komt ook ten goede aan ontwikkelaars die OpenAI’s Codex-coderingsagent gebruiken, aangezien Codex nu beschikbaar is in release 5.1.
Ook: de beste gratis AI-cursussen en certificaten voor bijscholing in 2025 – en ik heb ze allemaal geprobeerd
JetBrains is bijvoorbeeld een uitstekende maker van ontwikkeltools. Ook al stap ik af van het JetBrains-platform nu VS Code op grotere schaal wordt gebruikt (en ik moet er vaak met je over praten), JetBrains-producten zijn nog steeds mijn favorieten. Als ik VS Code gebruik, mis ik soms zelfs enkele JetBrains-functies.
Daarom was het zo interessant toen Denis Shiryaev, hoofd van het AI DevTools Ecosystem bij JetBrains, de ervaringen van het bedrijf met deze nieuwe GPT-5.1-release uitlegde in een OpenAI-blogpost. Hij zei: “GPT 5.1 is niet zomaar een LLM – het is een echte agent, het meest autonome model dat ik ooit heb getest.”
“Het schrijft zoals jij, codeert zoals jij, volgt gemakkelijk complexe instructies en blinkt uit in front-endtaken, passend in je bestaande codebasis”, zegt hij.
Laten we eens kijken naar enkele redenen waarom GPT-5.1 zo enthousiast wordt gereageerd.
Adaptief redeneren
Ik denk dat coderen met GPT-5 erg krachtig is, maar soms ook saai. Wat ik de AI ook vraag, het antwoord kost tijd. Zelfs op de eenvoudigste vragen duurt het een paar minuten voordat je een antwoord krijgt. Dat komt omdat alle query’s aanvragen naar hetzelfde model verzenden.
GPT-5.1 evalueert een gegeven prompt en, op basis van de vraag of de vraag inherent gemakkelijk of moeilijk is, past GPT-5.1 aan hoeveel cognitieve inspanning er is besteed om deze te beantwoorden. Dit betekent dat eenvoudige vragen niet langer last hebben van frustrerende vertragingen bij het gebruik van oudere codeermodellen.
Hier zijn de commando’s die ik een paar dagen geleden aan GPT-5 heb gegeven: “Controleer mijn werk. Ik heb de naam EDD_SL_Plugin_Updater hernoemd, zodat elke plug-in die deze gebruikt een unieke naam heeft om conflicten te voorkomen. Ik heb de klassenaam in het updater-bestand bijgewerkt, de naam van het updater-bestand bijgewerkt en vervolgens de verwijzingen naar het bestand en de klasse in het hoofdbestand van de plug-in bijgewerkt. Kunt u de plug-in controleren en er zeker van zijn dat er geen fouten zijn? Meld het aan mij als u iets vindt en geen fouten maakt veranderingen.
Ook: 10 snelle ChatGPT-trucs die ik gebruik – om sneller de beste resultaten te krijgen
Dat is een grote vraag, waarbij de AI ongeveer 12.000 bestanden moet scannen en mij van analyse moet voorzien. Hij moet alle denkkrachten gebruiken die hij kan opbrengen.
Vragen als “Welk WP-CLI-commando geeft een lijst met geïnstalleerde plug-ins weer?” is een heel eenvoudig verzoek. Dit is in feite een zoektocht naar documentatie waarvoor helemaal geen intelligentie vereist is. Dit is slechts een snelle, tijdbesparende opdracht, dus ik hoef niet naar de browser te springen en een Google-zoekopdracht uit te voeren.
Antwoorden op korte vragen zijn sneller en er worden minder tokens gebruikt. Tokens zijn een maatstaf voor de hoeveelheid gebruikte verwerking. API-calls worden afgerekend op basis van tokens, waardoor eenvoudige praktische vragen goedkoper zijn om te stellen.
Er is nog een ander aspect dat behoorlijk sterk is, namelijk wat OpenAI beschrijft als ‘aanhoudend diep redeneren’. Er is niets vervelender dan een lang gesprek met een AI te voeren en vervolgens uit het oog te verliezen waar je het over had. Nu zegt OpenAI dat AI langer mee kan gaan.
‘Geen excuses’-modus
Dit is een geval waarin ik denk dat OpenAI zou kunnen profiteren van solide productbeheer vanwege de productnaamgeving. Deze modus schakelt het begrip van de context, het schrijven van kwaliteitscode of het begrijpen van instructies niet uit. Het schakelt alleen maar een diepgaande analyse van de gedachteketen uit. Ze zouden het de “denk niet te veel”-modus moeten noemen.
Denk er zo over na. We hebben allemaal vrienden die over elk probleem of elke actie nadenken. Dit houdt hen tegen, het duurt lang om eenvoudige dingen te voltooien en leidt vaak tot analyseverlamming. Er zijn tijden om groots te denken, en er zijn tijden om papier of plastic te kiezen en verder te gaan.
Bovendien: ik heb twee AI-tools gecombineerd om een grote bug op te lossen, maar dat hadden ze zonder mij niet kunnen doen
Dankzij deze nieuwe modus zonder redenering kan de AI de gebruikelijke stapsgewijze afweging vermijden en meteen met een antwoord komen. Het is ideaal voor eenvoudige zoekopdrachten of basistaken. Dit vermindert de latentie (reactietijd) dramatisch. Het zorgt ook voor een responsievere, snellere en soepelere codeerervaring.
Door de niet-redeneringsmodus te combineren met adaptief redeneren, kan de AI de tijd nemen om moeilijke vragen te beantwoorden, maar ook snel reageren op eenvoudigere vragen.
Uitgebreide snelle caching
Een andere snelheidsverbetering (samen met kostenbesparing) is de snelle uitbreiding van de cache. Wanneer een AI een opdracht krijgt, moet deze eerst zijn natuurlijke taalverwerkingscapaciteiten gebruiken om de opdracht te ontleden om erachter te komen wat hij vraagt.
Dit is geen geringe prestatie. Het kostte AI-onderzoekers tientallen jaren om AI in staat te stellen natuurlijke taal te begrijpen, evenals de context en subtiele betekenis van wat er wordt gezegd.
Wanneer er dus een prompt wordt gegeven, moet de AI het echte werk doen: het tokeniseren ervan, het creëren van een interne representatie die kan worden gebruikt om een antwoord te construeren. Dit gaat niet zonder kosten voor het gebruik van hulpbronnen.
Ook: 10 ChatGPT Codex-geheimen die ik net heb geleerd na 60 uur pair-programmeren ermee
Als tijdens de sessie opnieuw een vraag wordt gesteld en dezelfde of een soortgelijke volgorde opnieuw moet worden geïnterpreteerd, worden de kosten opnieuw in rekening gebracht. Houd er rekening mee dat we het niet alleen hebben over opdrachten die door de programmeur op de API worden gegeven, maar over opdrachten die binnen de applicatie worden uitgevoerd en die tijdens het gebruik van de applicatie regelmatig kunnen worden herhaald.
Neem bijvoorbeeld een gedetailleerd verzoek aan een klantenservicemedewerker, die voor elke klantinteractie dezelfde basisset initiële regels moet verwerken. Het commando kan duizenden tokens vereisen om te parseren, en moet duizenden keren per dag worden uitgevoerd.
Door de prompt op te slaan (en OpenAI doet dit nu 24 uur) wordt de prompt eenmalig gecompileerd en vervolgens beschikbaar voor hergebruik. De snelheidsverbeteringen en kostenbesparingen kunnen enorm zijn.
Een betere business case voor design
Al deze verbeteringen geven OpenAI een betere business case om aan klanten te presenteren voor ontwerp. Design-in is een vrij oude kunstterm, die wordt gebruikt om te beschrijven wanneer een onderdeel tot een product wordt ontworpen.
Misschien wel het bekendste (en belangrijkste) ontwerp was toen IBM in 1981 de Intel 8088 CPU koos voor de originele IBM-pc. Die beslissing lanceerde het hele x86-ecosysteem en stimuleerde Intel’s succes op het gebied van processors decennialang.
Tegenwoordig is Nvidia de begunstigde van enorme ontwerpbeslissingen van datacenteroperators, die hongerig zijn naar de meeste AI-verwerkingskracht die ze kunnen vinden. Die vraag heeft Nvidia ertoe aangezet om ’s werelds meest waardevolle bedrijf te worden in termen van marktkapitalisatie, met een waarde van ongeveer $5 biljoen.
Ook: ik heb 4 jaar productontwikkeling in 4 dagen voltooid voor $ 200, en ik ben nog steeds geschokt
OpenAI profiteert ook van design. CapCut is een video-app met 361 miljoen downloads in 2025. Temu is een shopping-app met 438 miljoen downloads in 2025. Als een van de bedrijven bijvoorbeeld AI in hun app zou inbouwen, en als ze dat zouden doen met behulp van API-aanroepen van OpenAI, zou OpenAI veel geld verdienen aan het cumulatieve volume aan API-aanroepen en de bijbehorende facturering.
Maar net als bij fysieke componenten zijn de kosten van verkochte goederen altijd een probleem bij het ontwerp. Elke fractie van een cent COGS kan de totale uiteindelijke prijs verhogen of de marges negatief beïnvloeden.
Dus als OpenAI de kosten van API-aanroepen aanzienlijk kan verlagen en nog steeds AI-waarde kan bieden, zoals het geval was met GPT-5.1, dan is er in essentie een grotere kans voor OpenAI om GPT-5.1 in ontwikkelaarsproducten op te nemen.
Meer nieuwe mogelijkheden
De GPT-5.1-release bevat ook verbeterde coderingsprestaties. AI is gemakkelijker te controleren en er gemakkelijker mee te onderhandelen, wat betekent dat het de aanwijzingen beter volgt. Als mijn puppy maar handelbaarder was, zouden we niet voortdurend pijnlijk schreeuwen als de post wordt bezorgd.
Het coderen van AI vermindert onnodig overdenken, is meer gemoedelijk tijdens het aanroepen van tools en vertoont over het algemeen vriendelijker gedrag tijdens sequentie-interacties. Er is ook een nieuwe apply_patch-tool die helpt bij codeersequenties in meerdere stappen en agentacties, samen met een nieuwe shell-tool die beter werkt wanneer hem wordt gevraagd opdrachtregelopdrachten te maken en reacties te evalueren en erop te reageren.
Ook: OpenAI heeft nu een nieuwe agentcoderingspartner voor u: GPT-5-Codex
Ik ben behoorlijk enthousiast over deze nieuwe release. Omdat ik GPT-5 al gebruik, zal het leuk zijn om te zien hoe responsief het nu is met GPT-5.1.
Hoe zit het met jou? Heeft u geprobeerd GPT-5 of het nieuwe GPT-5.1-model te gebruiken in uw codeer- of ontwikkelingsworkflow? Ziet u de snelheids- of kostenverbeteringen die OpenAI belooft, of evalueert u nog of deze veranderingen belangrijk zijn voor uw project? Hoe belangrijk zijn functies als adaptief redeneren, geen redeneermodus of snelle caching wanneer u besluit welk AI-model u in uw tool of product wilt implementeren? Laat het ons weten in de reacties hieronder.
Je kunt mijn dagelijkse projectupdates volgen op sociale media. Zorg ervoor dat u zich abonneert op mijn wekelijkse update-nieuwsbrief en volg mij op Twitter/X op @DavidGewirtzop Facebook op Facebook.com/DavidGewirtz, op Instagram op Instagram.com/DavidGewirtz, op Bluesky op @DavidGewirtz.com en op YouTube op YouTube.com/DavidGewirtzTV.



