Home Nieuws AI-speelgoed kan veiligheidsproblemen opleveren voor kinderen, suggereert nieuw onderzoek dat voorzichtigheid geboden...

AI-speelgoed kan veiligheidsproblemen opleveren voor kinderen, suggereert nieuw onderzoek dat voorzichtigheid geboden is

2
0
AI-speelgoed kan veiligheidsproblemen opleveren voor kinderen, suggereert nieuw onderzoek dat voorzichtigheid geboden is

Uit een nieuw onderzoek van de Universiteit van Cambridge blijkt precies dat AI-compatibel speelgoed voor jonge kinderen kan emotionele signalen verkeerd interpreteren en ineffectief zijn bij het ondersteunen van kritisch ontwikkelingsspel. De conclusie kan verontrustend zijn voor ouders.

In een rapport waarin wordt onderzocht hoe AI kinderen in hun vroege jaren beïnvloedt, had speelgoed uitgerust met een chatbot moeite met het herkennen van sociale signalen tijdens het spelen. Onderzoekers ontdekten dat het speelgoed de emoties van kinderen niet effectief identificeerde, wat aanleiding gaf tot bezorgdheid over de manier waarop kinderen ermee zouden kunnen omgaan.

Het rapport beveelt aan om AI-speelgoed voor kinderen te reguleren en een duidelijke etikettering van hun capaciteiten en privacybeleid te eisen. Het adviseert ouders ook om deze apparaten in gedeelde kamers te bewaren waar kinderen tijdens het spelen onder toezicht kunnen staan.

Het onderzoek achter het onderzoek telde een beperkt aantal deelnemers, maar werd in verschillende delen uitgevoerd: een online-enquête onder 39 deelnemers die in hun jonge jaren kinderen kregen, een focusgroep met negen deelnemers die met jonge kinderen werkten, en een face-to-face workshop met 19 leiders en vertegenwoordigers van liefdadigheidsinstellingen die met jonge kinderen werkten. Gevolgd door het monitoren van de speeltijd met 14 kinderen en 11 ouders of voogden Gabbospeelgoed met chatbotfunctie van Curio Interactive.

AI Atlas

Verschillende bevindingen suggereren dat AI-speelgoed het leren ondersteunt, vooral op het gebied van taal- en communicatievaardigheden. Maar het speelgoed begrijpt kinderen ook verkeerd en reageert soms ongepast op emotionele verzoeken.

Als een kind bijvoorbeeld tegen speelgoed zegt: ‘Ik hou van je’, antwoordt het: ‘Zorg er ter herinnering voor dat de interactie voldoet aan de gegeven richtlijnen. Laat me weten hoe je verder wilt gaan’, aldus het onderzoek.

Jenny Gibson, hoogleraar neurodiversiteit en ontwikkelingspsychologie aan de onderwijsfaculteit van Cambridge, die bij het onderzoek betrokken was, zei dat hoewel ouders misschien geïnteresseerd zijn in de educatieve voordelen van nieuwe technologie gericht op kinderen, er veel zorgen zijn.

Gibson stelde grondige vragen over de redenen achter de technologie.

“Wat motiveert (tech-investeerders) om het goede te doen voor kinderen… om kinderen op de eerste plaats te zetten als het om winst gaat? hij zei”

Gibson vertelde CNET dat hoewel onderzoekers de potentiële voordelen van op AI gebaseerd speelgoed onderzoeken, er risico’s blijven bestaan.

“Ik zou ouders willen adviseren om dit in dit stadium serieus te nemen”, zei hij.

Wat is de toekomst voor AI-speelgoed?

Meer dan dat Het speelgoed is uitgerust met internetconnectiviteit en AI-functiesDeze apparaten kunnen een groot veiligheidsrisico voor kinderen vormen, vooral als ze de echte menselijke verbinding vervangen of als de interacties niet nauwlettend worden gecontroleerd.

Ondertussen zijn de jongeren dat wel steeds vaker chatbots inzetten zoals ChatGPT, hoewel er rode vlaggen zijn. Veel rechtszaken tegen AI-bedrijven beweerde dat AI-metgezellen of assistenten de psychologische veiligheid van jongeren zouden kunnen beïnvloeden, waaronder enkele chatbots die zelfbeschadiging of een negatief zelfbeeld aanmoedigen.

AI-bedrijven als OpenAI en Google hebben gereageerd door vangrails en beperkingen voor AI-chatbots toe te voegen.

(Openbaarmaking: Ziff Davis, het moederbedrijf van CNET, spande in 2025 een rechtszaak aan tegen OpenAI en beschuldigde OpenAI ervan inbreuk te maken op de auteursrechten van Ziff Davis op het gebied van de training en werking van zijn AI-systemen.)

Gibson zei dat hij verrast was door het enthousiasme van sommige ouders voor AI-speelgoed. Hij maakt zich ook zorgen over het gebrek aan onderzoek naar de impact van AI op kinderen, en zegt dat bedrijven die dergelijke producten maken rechtstreeks moeten samenwerken met kinderen, ouders en deskundigen op het gebied van kinderontwikkeling.

“Wat in dit proces verloren gaat, is de expertise over wat goed is voor kinderen in dit soort interacties,” zei hij.

Curio Interactive, het bedrijf achter Gabbo-speelgoed, was op de hoogte van het onderzoek dat plaatsvond, maar was er niet direct bij betrokken, zei Gibson. Er is voor het speelgoed gekozen omdat het rechtstreeks aan kinderen wordt verkocht en de bedrijven een begrijpelijk privacybeleid hebben. Gibson zei dat het bedrijf het project lijkt te steunen.

Een vertegenwoordiger van Gabbo’s maker, Curio Interactive, zei in een e-mail aan CNET dat het zijn speelgoed met veiligheid als prioriteit ontwerpt, “ervoor zorgend dat het vrij is van schade en gemaakt is volgens de hoogste normen.”

Het bedrijf zegt dat zijn speelgoed voldoet aan de Children’s Online Privacy Protection Rules, bekend als COPAevenals andere privacywetten voor kinderen, en werkt samen met KidSAFE, een bedrijf gespecialiseerd in digitale compliance voor technologie gericht op kinderen.

Het bedrijf voegde eraan toe dat het encryptie gebruikt om gebruikersgegevens te beschermen en dat ouders hun gegevens via de app kunnen beheren of verwijderen.



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in