Elke dag laat Ilia Polosukhin een tiental agenten verschillende “missies” voor haar voltooien.
Eén van zijn missies is: ‘Ik wil een betere CEO worden’, zei hij.
“Het vat dus effectief alle vergadernotities, Google Drive-documenten en Slack-berichten samen en geeft mij een coachings- en managementsamenvatting van wat er is gebeurd, wat ik heb gemist en waar beslissingen vastliepen”, vertelde Polosukhin aan Business Insider. “Zo gaat het elke week.”
Polosukhin belt deze agenten “het niveau van steun van zijn miljardair-stafchef”. Zijn beschrijving was “letterlijk” in zijn woorden: “Je bent de stafchef van een miljardair.”
Het is een voorproefje van de toekomst die Polosukhin niet alleen voor werknemers of CEO’s ziet, maar voor de wereldeconomie als geheel: een wereld waarin agenten handel kunnen drijven, toeleveringsketens kunnen coördineren en transacties kunnen bemiddelen namens burgers en grote bedrijven. En volgens hem zijn wij daar totaal niet op voorbereid.
“Ik denk dat het grotere probleem is dat we feitelijk niet de systemen hebben voorbereid om AGI (kunstmatige algemene intelligentie) te leveren,” zei hij. De systemen zijn “de maatschappij, het internet, overheidsinstanties, enz.”
Polosukhin is een van de sleutelfiguren achter generatieve AI. In 2017 was hij co-auteur van het baanbrekende onderzoekspaper ‘Attention Is All You Need’, waarin hij werd geïntroduceerd Transformator-architectuureen nieuwe benadering voor het bouwen van AI-modellen. Dat baanbrekende artikel is de reden voor de “T” aan het einde van ChatGPT.
Trek de zwarte doos los
Zeer weinig over de ontwikkeling van AI is verrassend voor de onderzoekers die het hebben opgericht.
In hetzelfde jaar dat het Transformer-architectuurpaper werd gepubliceerd, startte Polosukhin NEAR AI met het idee dat machines uiteindelijk software zouden kunnen produceren. De stelling is dat mensen in natuurlijke talen, zoals Engels, met computers zullen praten en dat machines de code zullen schrijven.
“Anno 2017 klinkt dat absoluut belachelijk”, zei hij. Tegenwoordig is dat zo wordt vibratiecodering genoemd.
Polosukhin is ook niet verrast door de capaciteiten van sommige modellen. Antropisch dinsdag zei dat het nieuwste previewmodel, de Mythosis zo goed in staat om kwetsbaarheden te vinden en te exploiteren dat laboratoria de toegang ertoe beperken.
Polosukhin zei dat hij al jaren waarschuwde dat “het model alles zou verpesten.” Hij beschreef het tegen Business Insider als een ‘kat-en-muisspel’, waarbij elke iteratie van het model kan breken wat het vorige model ook heeft opgelost.
In een wereld waar mensen hun gezondheid – of bedrijven hun logistiek – beheren AI-agentPolosukhin zag de noodzaak in van een backend-laag van vertrouwen en beveiliging, bedoeld om tegen dergelijke risico’s te beschermen.
Bij NEAR bouwt Polosukhin infrastructuur om de afhankelijkheid van AI-agenten van één enkel bedrijf, zoals een toonaangevend AI-laboratorium, te verminderen om elke stap van een taak te controleren en te overzien.
In de praktijk zou dit kunnen betekenen dat AI-agenten – die uw inloggegevens verwerken, uw reizen boeken en geld overmaken om vliegtickets te betalen – niet van gebruikers eisen dat ze slechts één poortwachter vertrouwen.
“Het zal al je informatie bevatten”, zei Polosukhin over het AI-model omgaan met gegevens. “Je leven zal daar letterlijk zijn. Je wilt dus niet dat één bedrijf hier controle over of toegang toe heeft.”
Een ander risico waar Polosukhin zich bewust van wil zijn is manipulatie. Steeds meer mensen gebruiken AI om informatie te verkrijgen, van nieuwsoverzichten tot beleggingsadvies. AI-laboratoria, of slechte actoren daarin, zouden in het geheim die antwoorden kunnen vormgeven, zei Polosukhin.
Een voorbeeld hiervan kwam vorig jaar uit xAI, toen Grok het herhaaldelijk ter sprake bracht “blanke genocide” in een niet-gerelateerde reactie naar aanleiding van wat het bedrijf zei dat het ‘ongeoorloofde wijzigingen’ aan de backend waren.
Het doel van Polosukhin met NEAR is om een open-source, controleerbaar platform te ontwikkelen dat gebruikers meer inzicht geeft in hoe AI-systemen werken, in plaats van ze als zwarte dozen te behandelen.
Toezicht is nog steeds nodig voor AI
Momenteel zijn de agenten zelf niet volledig betrouwbaar.
Polosukhin liet Business Insider zien hoe een van zijn agenten nieuws over het staakt-het-vuren tussen de VS en Iran kon verzamelen en marktinformatie kon verstrekken. Anderen zijn ‘ontwikkelingsagenten’ die code leveren en ‘groeiagenten’ die stappen kunnen voorstellen om bepaalde statistieken in hun bedrijf te verbeteren.
Hoewel ze behulpzaam zijn, laat Polosukhin de AI niet uit de hand lopen. Onderzoekers zeggen dat AI-systemen nog steeds zorgvuldige aandacht behoeven.
Volgens hem heeft AI nog steeds moeite met het maken van redelijke oordelen, hoewel online gepraat erover de huidige vooruitgang kan overschatten.
“Als ik het gewoon loslaat en ga rennen en iets doe, kom ik terug op iets dat nergens op slaat”, zei hij over AI-modellen. ‘Dus je moet je er met je oordeel tegen wapenen.’

