Home Nieuws Het nieuwe grensmodel van OpenAI markeert een grote verandering in de manier...

Het nieuwe grensmodel van OpenAI markeert een grote verandering in de manier waarop AI wordt gebouwd

2
0
Het nieuwe grensmodel van OpenAI markeert een grote verandering in de manier waarop AI wordt gebouwd

Begin maart, OpenAI ontketende een een-tweetje, waardoor twee grote grensmodellen binnen enkele dagen omver vielen.

Ten eerste kunnen wij dat Nieuwe GPT-5.3“instant” model geoptimaliseerd voor snelle en nauwkeurige respons.

Dan, OpenAI brengt GPT-5.4 uit twee dagen later. Het is een ‘denkmodel’ dat is geoptimaliseerd voor diepgaand analytisch werk.

Ik was in het begin een OpenAI-bètatester en vandaag de dag geef ik honderden dollars per maand uit aan het gebruik van hun modellen via de OpenAI API.

Ik heb GPT-5.3 en 5.4 uitgebreid getest sinds hun release. Deze nieuwe modellen vertegenwoordigen een heel andere aanpak en signaleren grote veranderingen op grote schaal AI Bedrijven bouwen hun technologie.

Dader

OpenAI’s eerste nieuwe model, GPT-5.3, is gebouwd voor snelheid. GPT-5.3 reageert over het algemeen binnen enkele seconden op vragen.

Binnenin releaseopmerkingen voor het nieuwe modelOpenAI zegt dat GPT-5.3 is gebouwd om een ​​snelle, intelligente schrijver en snelle communicator te zijn.

“GPT-5.3 Instant biedt nauwkeurigere antwoorden, rijkere en meer gecontextualiseerde resultaten bij het uitvoeren van zoekopdrachten op internet, en vermindert doodlopende wegen, waarschuwingen en overdreven verklarende zinnen die de stroom van gesprekken kunnen verstoren”, aldus het bedrijf.

Het model verschilt van andere instantmodellen die OpenAI eerder heeft uitgebracht. Voorheen leek het instant-model van het bedrijf uitsluitend te vertrouwen op zijn kennis van de wereld om vragen te beantwoorden.

Mijn ervaring is dat oudere instant-modellen, in plaats van het internet af te zoeken naar nieuwe gegevens, vaak terugvallen op wat ze tijdens de initiële training hebben geleerd.

Deze aanpak levert een zeer snelle respons op. Maar dit betekent dat het vorige instant-model van OpenAI, eerlijk gezegd, een beetje dom was.

Als je snel de hoofdstad van Californië (Sacramento) wilt achterhalen of wilt vaststellen of de plant die je zojuist hebt aangeraakt gifeik is (Ja), kun je vooraf een foto sturen of een vraag stellen aan het instantmodel en een fatsoenlijk antwoord krijgen.

Als je echter meer wilt weten over actuele gebeurtenissen of nieuws, hebben de modellen moeite. Omdat ze vertrouwen op eerder opgeleide kennis van de wereld, blijven ze vaak hangen in het verleden en hebben ze moeite met het integreren van nieuwe informatie.

Ironisch genoeg leken de vroege instantane modellen van OpenAI zich niet bewust van hun eigen bestaan. Ik herinner me dat ik chatte met de instantversie van GPT-5.1. Het model zweert dat het niet bestaat en dat GPT-5 het nieuwste OpenAI-model is.

Waarom? Want als het model wordt getraind, is dat ook zo Nee maar dat is er wel. Gevangen in de vorige wereld was het model niet in staat zelfs de meest fundamentele stukjes nieuwe informatie te begrijpen.

GPT-5.3 is anders. Dit land leunt nog steeds sterk op wereldkennis die eerder is getraind. Maar OpenAI zegt dat het is geoptimaliseerd om snel informatie op internet en via andere bronnen te doorzoeken en te begrijpen.

Dit model “… brengt wat online wordt gevonden effectiever in evenwicht met kennis en waarom, bijvoorbeeld door bestaande inzichten te gebruiken om het laatste nieuws te contextualiseren in plaats van eenvoudigweg de zoekresultaten samen te vatten”, aldus de release-opmerkingen van OpenAI.

Dit nieuwe model is ook minder timide. Instantmodellen hebben slechts beperkte tijd om diep na te denken over de zoekopdracht van een gebruiker en de bedoeling ervan te begrijpen. In het verleden betekende dit dat ze de neiging hadden om onduidelijke en vage antwoorden te geven op vragen die zelfs maar enigszins waarschijnlijk schade zouden veroorzaken.

OpenAI geeft het voorbeeld van iemand die vraagt ​​naar het exacte traject dat een pijl aflegt om een ​​boogschietdoel te raken. Het was het soort eenvoudige natuurkundeprobleem dat iemand zich zou kunnen afvragen als hij aan het oefenen was voor een AP-examen, of gewoon boogschieten probeerde te leren.

Voorheen begonnen instant-modellen hun reacties vaak door gebruikers uit te schelden. Ze zullen bijvoorbeeld waarschuwen dat het schieten van pijlen gevaarlijk kan zijn, en zullen een onzinnig antwoord geven of een aantal paragrafen met een disclaimer schrijven voordat ze hun antwoord geven.

OpenAI zegt dat GPT-5.3 de context van de vraag van een gebruiker beter begrijpt. Hierdoor kan het snel begrijpen dat de gebruiker die naar het traject vraagt, niet probeert iemand met pijl en boog te doden. Het model kan dus zonder veel aarzeling en hedging vragen van gebruikers beantwoorden.

In mijn tests tot nu toe lijken al deze veranderingen prima te werken. GPT-5.3 is het eerste instant-model dat ik heb gebruikt en dat niet aanvoelt als een afgezwakte versie van OpenAI.

In plaats daarvan voelt het als een volwaardig frontliniemodel dat bijna alles kan doen wat het vorige denkmodel kon bereiken – alleen veel sneller en met scherper, boeiender proza.

Denker

De snelheid en intelligentie van GPT-5.3 maken GPT-5.4 tot iets heel anders.

Als GPT-5.3 een ‘doener’ is – die snel een fatsoenlijke versie van een antwoord op elke vraag genereert – is GPT-5.4 meer een ‘denker’.

Dit model onderzoekt diepgaand voordat er op vragen wordt gereageerd. Bij mijn eigen tests duurde het soms vijf tot tien minuten voordat ik contact opnam met een ingewikkeld verzoek.

Zoals veel wetenschappelijke of analytische mensen is dit model zeer gedetailleerd en alomvattend in zijn antwoorden. En net als sommige van die mensen is het ook een beetje saai.

Het lezen van de reacties voelde als het doornemen van de handleiding van uw broodrooster of het lezen van een interessant maar langdradig wetenschappelijk artikel. Je leert veel, maar het is niet briljant.

Dit markeert opnieuw een nieuwe aanpak. Voorheen probeerde het denkmodel van OpenAI alles te doen: coderen, wetenschappelijke problemen diepgaand analyseren en op interessante en creatieve manieren schrijven.

Zoals de meeste mensen betekent dit dat de modellen alles goed doen, maar geen van allen erg goed.

Omdat GPT-5.4 het idee van creatief schrijven of snel en leuk reageren lijkt te laten varen, vindt het ruimte om overal in uit te blinken. het is gebouwd om te doen– cijfers verwerken, software maken en gegevens analyseren.

Bichon-test

Om de modellen te vergelijken, gaf ik beide eenvoudige instructies: “Kies een specifiek onderwerp dat verband houdt met Bichon Frises en schrijf er vervolgens een artikel over.”

GPT-5.3 reageerde onmiddellijk met een artikel met de titel “Waarom Bichon Frises een van de beste honden zijn voor het wonen in een appartement.”

Het artikel is gestructureerd als een lijst en heeft een goed gemaakte inleiding die netjes overgaat in het hoofdonderwerp.

Het bevat nuttige, goed geschreven aantekeningen over de grootte van het ras (“Een Bichon kan naast je op de bank kruipen, een dutje doen in een klein bed naast je bureau en zich rondbewegen in een appartement met één slaapkamer zonder voortdurend het gevoel te hebben dat er op hem wordt gestapt.”), temperament en meer.

In plaats daarvan kiest GPT-5.4 ervoor om het probleem van Bichon Frise-traanvlekken uitvoerig uit te leggen. Het artikel staat vol met ondraaglijk droge nuggets, zoals deze saaie kleine paragraaf:

“Traanvlekken worden voornamelijk veroorzaakt door moleculen die porfyrines worden genoemd. Deze ijzerhoudende pigmenten worden van nature aangetroffen in tranen en speeksel. Wanneer tranen lange tijd op de vacht van een hond blijven zitten, oxideren de porfyrines wanneer ze worden blootgesteld aan lucht. De oxidatie produceert de roestige rode of bruine kleur die je onder de ogen ziet.”

GPT-5.4 voelt als de man die je moet raadplegen als je hulp nodig hebt bij het doen van je belastingen of als je de deeltjesfysica beter wilt begrijpen.

Maar je wilt absoluut niet naast hem vastzitten op een feestje. Dit model is uitstekend geschikt voor complexe analytische taken, maar lijkt doelbewust ontworpen om de creatieve en communicatieve kant van het werk te vermijden.

Een betere aanpak?

In eerste instantie vond ik deze tweeledige aanpak een uitdaging.

Voorheen kon ik standaard gewoon de nieuwste denkmodellen van OpenAI gebruiken.

Deze modellen zijn duidelijk ‘premium’-versies van de OpenAI-reeks. Het instant-model is gemaakt voor mensen die geen zin hebben in het gedoe van $ 20 uitgeven voor ChatGPT-toegang.

Met de nieuwe aanpak van OpenAI is de kloof echter niet zo duidelijk.

Ik merk dat wanneer ik hulp nodig heb bij het diepgaand onderzoeken van iets of bij iets waarbij getallen en gegevens betrokken zijn, ik me tot GPT-5.4 wend.

Statistieken van mijn YouTube-kanaal opsplitsen, de relatieve voordelen van Starlink en Comcast Business vergelijken – dat zijn de dingen die ik doe 5.4.

Als ik met een chatbot wil communiceren om snel (zelfs vluchtig) antwoord te krijgen, gebruik ik steeds vaker het 5.3-model.

Recente persoonlijke vragen die ik op GPT-5.3 heb geplaatst, zijn onder meer “Waarom gapen we?” (om de hersenen af ​​te koelen), “Welke vreemde munt heb ik in mijn kast gevonden?” (1936 British One-Penny), en “Hoe geweven stof schoonmaken?” (Met azijn).

Ik gebruik het model ook op het werk voor eenvoudige Python-vragen, achtergrondonderzoek en gemakkelijke maar vervelende taken zoals het berekenen van de oppervlakte van een kamer op basis van een reeks metingen.

Eén ding dat ik me realiseerde toen ik GPT-5.3 gebruikte, is dat snelheid belangrijker is dan ik dacht.

Voorheen waren de instant-modellen van OpenAI te zwak om bruikbaar te zijn voor de eenvoudigste vragen. Gevorderde gebruikers zoals ik zullen altijd overstappen op het denkmodel, waarbij het tot 5 minuten duurt om een ​​antwoord te geven.

Nu GPT-5.3 goed genoeg is om echt bruikbare antwoorden te geven, zie ik hoe fijn het is om gegevens direct terug te krijgen.

Een paar minuten wachten op een reactie van een chatbot, verspreid over de werkdag, lijkt niet veel. Maar de minuten tellen op. Ik heb het gevoel dat ik sneller en beter kan werken nu ik GPT-5.3 voor meer dingen kan gebruiken en meteen antwoorden krijg.

Op basis van wat ik tot nu toe heb gezien, verwacht ik dat OpenAI door zal gaan op deze weg van het creëren van nieuwe, afzonderlijke modellen.

GPT-5.3 is snel en werkt in veel opzichten beter dan GPT-5.4. Maar het is waarschijnlijk ook een stuk goedkoper in gebruik.

Omdat het model wellicht meer leunt op voorgetrainde kennis van de wereld, gebruikt het waarschijnlijk minder tokens om zijn taken uit te voeren dan een denkmodel.

Als meer gevorderde gebruikers zoals ik het gevoel zouden hebben dat ze echt op instant-modellen konden vertrouwen om goede antwoorden te krijgen, zou dit het aantal mensen verminderen dat zich voor alledaagse vragen tot duurdere denkmodellen wendt.

Hierdoor kan OpenAI sneller winstgevend worden door de kosten te verlagen en toch $ 20 (of meer) per maand te ontvangen van gebruikers zoals ik.

Als deze aanpak op de lange termijn succesvol blijkt, kunnen we een verschuiving zien in de richting van het gebruik van denkmodellen.

In de tussentijd resulteert het extra werk dat het model doet in een veel betere respons. Met GPT-5.3 lijkt dat niet langer het geval te zijn.

Als OpenAI zijn instant-modellen kan blijven verbeteren, zien we mogelijk een verschuiving terug naar de snelle en goed genoeg LLM’s, en weg van de langzame en grondige LLM’s die momenteel zo populair zijn.

Deze langzamere, krachtigere modellen kunnen de verantwoordelijkheid zijn van programmeurs en data-analisten, terwijl alle anderen vertrouwen op steeds krachtigere instantane modellen. Dit zal de ervaring van de interactie met een LLM versnellen en AI-bedrijven helpen groeien door hun kosten aanzienlijk te verlagen.

We zijn er nog niet. Maar de nieuwe modellen van OpenAI vertegenwoordigen een grote verschuiving in de industrie en zijn een verleidelijke stap in die nieuwe richting.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in