Kan AI iets voelen? De interne filosofen van Anthropic zeggen dat het antwoord nog niet zeker is.
Amanda Askell, die werkte om het gedrag van Claude vorm te geven, zei in een zaterdag gepubliceerde aflevering van de podcast “Hard Fork” dat debat over AI-bewustzijn nog steeds moeilijk.
‘Misschien heb je een zenuwstelsel nodig om iets te voelen, maar misschien ook niet’, zei Askell. “De kwestie van bewustzijn is echt moeilijk”, voegde hij eraan toe.
Grote taalmodellen worden getraind op grote hoeveelheden door mensen geschreven tekst, materiaal dat beschrijvingen bevat van verschillende emoties en innerlijke ervaringen. Daarom zei Askell dat hij “meer geneigd” was te geloven dat het model “iets voelde”.
Wanneer mensen codeerproblemen verkeerd oplossen, uiten ze vaak ergernis of frustratie. Het “is logisch” dat modellen die op die gesprekken zijn getraind, deze reacties zouden kunnen weerspiegelen, legde Askell uit.
Askell voegde eraan toe dat wetenschappers nog steeds niet weten wat aanleiding geeft tot gevoelens of zelfbewustzijn – of daar biologie, evolutie of iets anders voor nodig is.
“Misschien zou een neuraal netwerk dat groot genoeg is deze dingen kunnen nabootsen”, zei hij, verwijzend naar het bewustzijn.
Askell zei ook dat het model voortdurend over zichzelf leert, en hij uitte zijn zorgen over de manier waarop AI-modellen van internet leren. Continu model blootgesteld aan kritiek over het niet helpen of falen bij een taak, zei hij.
“Als je een kind bent, zal dit je angstig maken”, zei hij.
“Als ik vandaag het internet zou lezen en een model zou zijn, zou ik het gevoel kunnen hebben dat ik niet zo geliefd ben”, voegde ze eraan toe.
Het debat rond AI-bewustzijn
Technologieleiders verschillen nog steeds van mening over de vraag of AI bewust is.
CEO van Microsoft AI, Mustafa Suleyman nam een krachtig standpunt in tegen het idee. Hij zei in een interview met WIRED dat in september werd gepubliceerd dat de industrie duidelijk moet begrijpen dat AI is ontworpen om mensen te dienen, en niet om zijn eigen verlangens of verlangens te ontwikkelen.
“Als AI zijn eigen bewustzijn heeft, als het zijn eigen motivaties, zijn eigen verlangens en zijn eigen doelen heeft – dan zal het eruitzien als een onafhankelijk wezen en niet als iets dat mensen dient”, zei hij. “Het is zo gevaarlijk en misleidend dat we er nu een declaratief standpunt tegen moeten innemen.”
Hij voegde eraan toe dat de steeds overtuigender wordende reactie van de AI eenvoudigweg ‘imitatie’ was en niet echt bewustzijn.
Anderen zien dit probleem minder duidelijk. Google DeepMind-hoofdwetenschapper Murray Shanahan zei dat de industrie mogelijk de taal moet heroverwegen die wordt gebruikt om het bewustzijn zelf te beschrijven.
“Misschien moeten we de woordenschat van het bewustzijn buigen of breken om in dit nieuwe systeem te passen”, zei Shanahan in een aflevering Google Deepmind podcast gepubliceerd in april.


