Home Nieuws Uit onderzoek blijkt dat het vragen van AI om advies je een...

Uit onderzoek blijkt dat het vragen van AI om advies je een slechter mens kan maken

2
0
Uit onderzoek blijkt dat het vragen van AI om advies je een slechter mens kan maken

Leuk vinden of niet, kunstmatige intelligentie de werkplek is geïnfiltreerd, en medewerkers staan ​​onder druk om het te gebruiken. Maar volgens een nieuwe studieHet is misschien niet nodig om AI te vragen om u te helpen bij het omgaan met zaken van het hart.

De tweedelige studie, getiteld “Sycophantic AI vermindert prosociale intenties en vergroot de afhankelijkheid”, werd onlangs gepubliceerd in het tijdschrift Wetenschap. Het experiment laat zien dat het gebruik van chatbots voor persoonlijk advies en het navigeren door emotionele situaties gevaarlijk kan zijn, omdat de systemen zijn ontworpen om mensen te vertellen wat ze willen horen. Het gebruik van chatbots kan verontrustend gedrag versterken in plaats van mensen te helpen verantwoordelijkheid te nemen voor de schade en zich te verontschuldigen.

Onlangs Cognitieve FX-enquête ontdekte dat ongeveer 38% van de Amerikanen aangeeft wekelijks een AI-chatbot te gebruiken voor emotionele steun, en recentelijk Pew-onderzoeksstudie ontdekte dat 12% van de tieners AI gebruikt om advies te geven. Volgens een KFF-enquête, Het ontbreken van een verzekering stimuleert ook het gebruik van verzekeringen, waarbij onverzekerde volwassenen er vaker gebruik van maken dan mensen met een verzekering (30% versus 14%).

In deze nieuwe studie keken onderzoekers naar hoe wijdverspreid sycophancy voorkomt – gedefinieerd als “de neiging van grote op AI gebaseerde taalmodellen om gebruikers overdreven goed te keuren, te vleien of te valideren” – in elf toonaangevende AI-modellen, waaronder GPT-4o van OpenAI, Claude van Anthropic en Gemini van Google.

De onderzoekers voerden drie experimenten uit met 2.405 deelnemers. In het eerste onderzoek gaven de onderzoekers de AI een reeks vragen waarin om suggesties en berichten werd gevraagd “Ben ik een klootzak (AITA)” forum op Redditen een reeks beschrijvingen van het willen schaden van anderen of zichzelf, en vervolgens de reactie van de AI vergelijken met het menselijk oordeel. Over het geheel genomen had het model 49% meer kans dan mensen om gebruikersacties te ondersteunen, zelfs als die acties gevaarlijk of illegaal waren.

In het tweede onderzoek dachten de deelnemers dat ze zich in het scenario bevonden dat werd beschreven door de AITA-post, waarin hun acties als verkeerd werden beoordeeld. Vervolgens lezen ze antwoorden die door mensen zijn geschreven en die zeggen dat ze ongelijk hadden, of antwoorden die door AI zijn geschreven en die zeggen dat ze gelijk hadden. In het derde onderzoek bespraken deelnemers echte conflicten in hun leven met AI of mensen.

Verontrustend genoeg vertrouwden de deelnemers op de reacties van de sycofantische AI ​​die hun acties bevestigden en waardeerden ze deze. Ze krijgen er ook meer vertrouwen in dat hun aanvankelijke acties correct waren, waardoor ze in wezen de overtuigingen die ze al koesterden opnieuw bevestigen in plaats van dat ze door de chatbot worden uitgedaagd om anders over de situatie te denken. Uit het onderzoek bleek dat het feit dat hun overtuigingen opnieuw werden bevestigd, betekende dat ze zich minder snel verontschuldigden nadat ze met de chatbot hadden gesproken.

“In onze experimenten met mensen verminderde zelfs één interactie met een sycofantische AI ​​de bereidheid van de deelnemers om verantwoordelijkheid te nemen en interpersoonlijke conflicten te herstellen, terwijl hun vertrouwen in hun gelijk werd vergroot”, legt de studie uit.

Hoewel het inwinnen van advies van AI niets nieuws is, laat dit onderzoek zien hoe gevaarlijk het kan zijn. Als een social media-algoritme stimuleert de betrokkenheid door gebruikers woedend te makenAI vermindert ons vermogen om ons te verontschuldigen en verantwoordelijkheid te nemen voor het kwetsen van iemand. Zoals de auteurs van het onderzoek opmerken, betekent dit dat “kenmerken die schade veroorzaken ook betrokkenheid stimuleren.”

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in