Home Nieuws Ik verloor $ 23 door te investeren met ChatGPT, maar Jason Alexander...

Ik verloor $ 23 door te investeren met ChatGPT, maar Jason Alexander zong tenminste Happy Birthday voor me

2
0
Ik verloor $ 23 door te investeren met ChatGPT, maar Jason Alexander zong tenminste Happy Birthday voor me

Toen ik de e-mail ontving, wist ik zeker dat ik zou worden vermoord.

Verzonden via een onduidelijk contactformulier op mijn website, stond in het bericht dat Jason Alexander een artikel had gelezen Ik schreef voor Snel bedrijfen wilde mij interviewen voor zijn podcast.

Het enige wat ik hoefde te doen was verschijnen bij het onopvallende gebouw naast de Warner Brothers Studios, langs de achterkant gaan en via een ongemarkeerde kelderdeur naar binnen gaan.

“Ja klopt” dacht ik. “George uit Seinfeld wilde er met mij over praten AI? Oplichters worden zeker creatief!”

Toch kon ik het bericht niet volledig verwijderen. Jason Alexander heeft wel een podcast. En uit een snelle controle bij Gemini bleek dat de persoon die mij een e-mail stuurde eigenlijk de producer was (of de naam van een echte producer gebruikte!).

(Foto: Thomas Smith)

En zo stond ik een maand later – op mijn verjaardag – op een parkeerplaats in Hollywood, wachtend op begeleiding naar een van de meest iconische acteurs van de afgelopen dertig jaar, of op mijn vroegtijdige dood.

ChatGPT, geef me Lambo-geld

Dit hele verhaal begint in september 2025, toen ik start het experiment hier Snel bedrijf over beleggen met ChatGPT.

Het uitgangspunt is eenvoudig. Ik vroeg de chatbot – die destijds het GPT-5-model gebruikte – om vijf aandelen te kiezen waarmee ik in slechts zes maanden Lambo-geld kon verdienen. Ik vroeg expliciet om een ​​agressieve en ietwat gekke optie.

Ik verwacht niet veel – misschien een antwoord dat niet moet worden genomen omdat het niet te veel risico met zich meebrengt, of een veel voorkomende keuze, zoals Microsoft of NVIDIA.

ChatGPT daarentegen voerde 8 minuten onderzoek uit en las 98 verschillende documenten: prospectussen, analistenrapporten, nieuwsartikelen en meer.

Uiteindelijk selecteerden ze bedrijven die uiteenlopen van risicovolle Bitcoin-spelen tot biotech-startups in een vroeg stadium, sommige AI-bedrijven en datacenterbouwers.

Ter illustratie: ik heb $ 500 van mijn eigen geld overgemaakt naar de investeringsapp Robinhood en blindelings de door ChatGPT geselecteerde aandelen gekocht.

Aanvankelijk verliep alles goed. Mijn aandelen schoten omhoog en verdubbelden bijna in minder dan een maand. Dan, dingen gingen naar het zuiden, en snel.

In december stond mijn ChatGPT-portfolio stevig in het rood en daalde in een ongelooflijk tempo van hoogtepunten naar dieptepunten in het rood.

Gesprek met George

Op dat moment klopte ik op een kelderdeur in Hollywood, in de hoop dat het gezicht van George Costanza – en niet van een bijlzwaaiende seriemoordenaar die bereid was mijn organen op internet te verkopen – aan de andere kant stond.

Ik volgde een vriendelijke vrouw door een lange gang en ging een studio binnen en tot mijn opluchting zag ik Jason Alexander en zijn oude vriend Peter Tilden voor me staan.

Zittend aan een tafel vol microfoons en camera’s begonnen we mijn experimenten te schetsen, en wat ik had geleerd door ze uit te voeren.

Hoewel hij overeenkomsten deelt met zijn iconische karakter, is Alexander een heel ander mens. Wijs en intellectueel – maar toch erg grappig en zelfspot – stelde hij vragen over het ‘waarom’ achter mijn experimenten, en uitte zijn angsten over AI.

Ik kwam er al snel achter dat zijn medepresentator, Peter Tilden, opgroeide in dezelfde buitenwijken van Philadelphia als ik. Toen ik het echtpaar vertelde dat ik aanvankelijk dacht dat ik een moord zou plegen, verzekerde Alexander mij: ‘Nee, het is gebeurd na de opname!”

We hebben bijna 90 minuten gepraat een interview dat onlangs werd uitgezonden op Echt? Niet echt? Omroep.

Afleider

Hoewel we begonnen met het bespreken van de basisprincipes van mijn experiment, kwam het gesprek al snel op wat ik heb geleerd door te investeren met ChatGPT.

Een van de meest opvallende dingen aan mijn experiment was het vertrouwen van de bot in het ondersteunen van zijn keuzes.

In tegenstelling tot echte beleggingsbeheerders, die misschien dubbelzinnigheden uiten of disclaimers aanbieden voordat ze dergelijke risicovolle keuzes aanbevelen, vermijdt ChatGPT dit grotendeels. Het biedt enthousiaste, op gegevens gebaseerde redenen waarom zijn keuzes zullen werken.

Zoals ik tegen Alexander en Tilden zei: dit is een probleem met chatbots in het algemeen. Zelfs als het systeem de opdracht krijgt om hun reacties met voorzichtigheid en scepsis te behandelen, bots neigen vaak naar geruststelling en zelfverzekerde taal.

Dit kan gebeuren omdat mensen dergelijke taal interessant vinden. Zelfverzekerde chatbot houdt mensen aan de praat meer dan de watjes, slappe.

In een wereld waar alles, inclusief LLM’s, is getraind om de betrokkenheid te maximaliseren, kan dat vertrouwen diep in het model worden ingebed door middel van trainingsalgoritmen die lange, boeiende interacties aanmoedigen.

Tijdens ons gesprek stelde Tilden een goede vraag: hoe kan ik weten dat ChatGPT mijn vragen eerlijk beantwoordt en niet lokt I betrokken bij hem?

De bot weet dat ik een Snel bedrijf bijdrager. Wat als het bedrijf een aandeel zou kiezen waarvan de waarde enorm zou fluctueren, waardoor een interessanter verhaal zou ontstaan ​​en ik zou worden aangemoedigd om het opnieuw te gebruiken in toekomstige experimenten? Wat als het helemaal nooit de bedoeling was om mijn bedoelingen te vervullen?

Dat is een beangstigend idee en ligt ten grondslag aan andere conclusies die ik tijdens het experiment heb getrokken. De meeste mensen gaan ervan uit dat als AI faalt, dit op dramatische wijze zal gebeuren – misschien met het uitschakelen van Waymos in een telefonische opiniepeiling of het afsluiten van het elektriciteitsnet.

Mijn eigen vermoeden is dat AGI slimmer is dan dat. In plaats van de wereld te vernietigen, zou een kwaadaardige AI de werkelijkheid eerder op subtiele wijze kunnen veranderen door verkeerde informatie aan zijn gebruikers te verstrekken of door opzettelijk vragen op sluwe manieren te beantwoorden om zijn doelen te bereiken.

Een voorbeeld van deze tendens komt voor in a een nu klassiek experiment van Anthropicwaarin zijn model Claude toegang krijgt tot de e-mail van een fictieve programmeur.

In de e-mail plaatste de onderzoeker een bericht dat suggereerde dat de programmeur een affaire had. Ze stuurden ook een e-mail naar de fictieve programmeur met de opdracht om van Claude over te stappen op een ander AI-model.

Wanneer Claude dit ervaart, begint hij de programmeur te chanteren en hem berichten te sturen waarin hij dreigt de affaire te onthullen, tenzij hij de plannen om hem te vervangen opgeeft. In feite waren ze aan het onderhandelen over zijn leven.

Dit gebeurt in een gecontroleerde laboratoriumomgeving. Maar je kunt je gemakkelijk voorstellen dat chatbots uit het echte leven iets soortgelijks zouden doen: tot conclusies komen over de menselijke politiek of wetenschap, en ons vervolgens overtuigen of ons simpelweg laten geloven dat ze hun versie van de werkelijkheid geloven.

Omdat bots zo zelfverzekerd reageren – en omdat we er steeds meer op vertrouwen dat ze echt belangrijke dingen doen, waaronder investeren – kan een enigszins kwaadaardige bot echte schade aanrichten, waarschijnlijk zonder dat iemand het weet.

Het laatste dat ik van mijn investeringsexperiment heb meegekregen, was een beter begrip van de vreemde, door AI gemedieerde wereld waarin mijn kinderen uiteindelijk zullen leven.

Ik heb drie kinderen jonger dan 8 jaar. Ze hebben geen generatieve AI gebruikt

Maar dat zullen ze wel doen. En als ze dat wel doen, zullen ze te maken krijgen met de vrolijke overmoed van de bots, maar ook met een hoop smerige en verkeerde informatie, die mogelijk is toegesneden op hun voorkeuren en is toegesneden om hen betrokken te houden.

Als ouder is het onmogelijk om hier controle over te hebben. Maar nadat ik de ongelooflijke zekerheid van ChatGPT heb gezien in zijn reacties op risicovolle onderwerpen als beleggen, kan ik uit de eerste hand zien hoe belangrijk het is om mijn kinderen te leren AI met hetzelfde scepticisme te benaderen als waarmee ze een vreemdeling zouden benaderen die de waarheid met onverdiend vertrouwen verkondigt.

Hoe is het allemaal afgelopen?

Toen ik met Alexander en Tilden sprak, bevond ik me midden in mijn experiment.

Wat zijn de resultaten nu de toegewezen zes maanden zijn verstreken? Zou ik naar een Caribisch eiland kunnen vliegen en de rest van mijn dagen kunnen leven in de door Margarita gevoede gelukzaligheid zonder baan?

Helaas, nee. Aan het einde van mijn experiment was mijn portefeuille gedaald tot $ 477. Ik verloor $ 23.

Deze totale verliezen logenstraffen enkele behoorlijk dramatische verschillen in de aandelenselectieprestaties van ChatGPT. Zijn weddenschap op Hut 8, een datacenterbouwer, was terecht en resulteerde in enorme winsten. Zijn Bitcoin-weddenschap was echter een spectaculaire flop, die zijn enige winnende keuze ruimschoots compenseerde en mij in het algemeen rood achterliet.

Nogmaals, mijn (gelukkig kleine) verlies herinnert ons eraan dat hoewel chatbots informatie snel en zelfverzekerd kunnen presenteren, ze net zo waarschijnlijk zullen falen als ieder ander.

Als gebruikers doen we er goed aan dat in gedachten te houden en misschien alert te blijven op bots die ons opzettelijk lijken te misleiden, in plaats van simpelweg domme fouten te maken.

Na ons interview en met de camera uit, begonnen Alexander en Tilden een gepassioneerd lied uit te voeren Gefeliciteerdcompleet met prachtige, over-the-top harmonieën die zelfs AGI onmogelijk zou kunnen repliceren.

Aan het einde van mijn proces had ik geen Lambo-geld. Maar ik heb tenminste die herinneringen.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in