Het ongemak dat langs je ruggengraat omhoog kruipt als je iets ziet dat zich als een mens gedraagt, maar eigenlijk niet menselijk is, blijft een groot probleem op het gebied van de robotica, vooral voor robots die gemaakt zijn om er net zo uit te zien en te praten als wij.
Dat vreemde gevoel wordt de griezelige vallei genoemd. Eén manier waarop robotici deze kloof kunnen overbruggen, is door de lipbewegingen van de robot af te stemmen op zijn stem. Afgelopen woensdag maakte Columbia University dit bekend onderzoek waarin wordt onderzocht hoe een nieuwe golf robotgezichten realistischer kan spreken.
Hod Lipson, een hoogleraar techniek uit Columbia die aan het onderzoek werkte, vertelde CNET dat de belangrijkste reden waarom de robots “geweldig” zijn, is dat ze hun lippen niet bewegen zoals wij dat doen als we praten. “Wij streven ernaar dit probleem, dat op het gebied van de robotica over het hoofd wordt gezien, op te lossen”, aldus Lipson.
Mis onze onpartijdige technische inhoud en laboratoriumbeoordelingen niet. CNET toevoegen als favoriete Google-bron.
Het onderzoek komt op een moment dat de hype rond robots die zijn ontworpen voor gebruik thuis en op de werkplek groeit. Op CES 2026 eerder deze maand zag CNET bijvoorbeeld een robotbereik ontworpen om met mensen te communiceren. Alles van het nieuwste Boston Dynamics-atlas robot naar huishoudelijke robot zo wasgoed opvouwenen zelfs een schildpadvormige bot ontworpen voor milieuonderzoek, te zien op ’s werelds grootste technologietentoonstelling. Als CES een indicatie is, zou 2026 een groot jaar voor consumentenrobotica.
Eén daarvan is een mensachtige robot met een lichaam, gezicht en synthetische huid die de onze imiteert. Inclusief de CES-groep een robot die op een mens lijkt van Realbotix die kan functioneren als informatiestand of comfort kan bieden aan mensen, evenals a robot van Lovence ontworpen voor relaties die zijn uitgerust met AI om intieme gesprekken te ‘onthouden’.
Maar een fractie van een seconde tussen lipbeweging en spraak kan het verschil betekenen tussen een machine die je emotioneel gehecht houdt en een machine die niets meer is dan een machine. verontrustende animatronica.
Dus als mensen accepteren dat mensachtige robots in ons dagelijks leven onder ons ‘leven’, zou het misschien beter zijn als ze ons niet elke keer dat ze spreken een beetje ongemakkelijk maken.
Bekijk dit: LipSync-robot zingt een liedje
Lipsynchronisatie-robot
Om een robot met een menselijk gezicht te creëren die net als wij kan praten, moeten de lippen van de robot zorgvuldig worden gesynchroniseerd met het geluid van zijn spraak. Een onderzoeksteam uit Columbia heeft een techniek ontwikkeld die robotmonden helpt te bewegen zoals wij dat doen, door zich te concentreren op de klanken van taal.
Eerst creëerde het team een mensachtig robotgezicht met een mond die kon praten (en zingen) op een manier die het griezelige vallei-effect verzachtte. Het gezicht van de robot, gemaakt van siliconenhuid, heeft magnetische connectoren voor complexe lipbewegingen. Hierdoor kan het gezicht een lipvorm vormen die 24 medeklinkers en 16 klinkers bevat.
Bekijk dit: Lipsynchroniserend robotgezicht zendt individuele woorden uit
Om lipbewegingen af te stemmen op spraak, ontwierpen ze een ‘leertraject’ om visuele gegevens uit lipbewegingen te verzamelen. Het AI-model gebruikt deze gegevens voor training en genereert vervolgens referentiepunten voor motorische commando’s. Vervolgens zet een ‘gezichtsactietransformator’ motorcommando’s om in audiogesynchroniseerde mondbewegingen.
Met behulp van dit raamwerk kan het robotgezicht, genaamd Emo, in verschillende talen ‘spreken’, inclusief talen die geen deel uitmaakten van de training, zoals Frans, Chinees en Arabisch. De truc is dat het raamwerk de klanken van taal analyseert, en niet de betekenis achter de klanken.
“We vermijden taalspecifieke problemen door een model te trainen dat rechtstreeks van audio naar lipbewegingen gaat”, aldus Lipson. “Er is geen idee van taal.”
Bekijk dit: Lip Sync Robot Face introduceert zichzelf
Waarom hebben robots gezichten en lippen nodig?
Mensen hebben lang naast robots gewerkt, maar ze hebben er altijd uitgezien als machines, en niet als mensen: de onstoffelijke, zeer mechanisch ogende armen aan een lopende band of de dikke schijven die robotstofzuigers zijn die over onze keukenvloeren bewegen.
Nu de AI-taalmodellen achter chatbots echter steeds populairder worden, werken technologiebedrijven er hard aan om robots te leren hoe ze met behulp van taal in realtime met ons kunnen communiceren.
Er worden hele vakgebieden genoemd mens-robot interactie waarin wordt onderzocht hoe robots naast mensen moeten leven, zowel fysiek als sociaal. In 2024, een studie uit Berlijn ontdekten onder 157 deelnemers dat het vermogen van een robot om empathie en emotie uit te drukken via verbale communicatie essentieel is voor effectieve interactie met mensen. En nog een onderzoek uit 2024 uit Italië ontdekte dat actieve spraak belangrijk is voor de samenwerking tussen mens en robot bij het werken aan complexe taken zoals montage.
Als we thuis en op het werk afhankelijk zijn van robots, moeten we met robots kunnen communiceren zoals we dat met elkaar doen. In de toekomst, zegt Lipson, zal onderzoek met lipsynchroniserende robots nuttig zijn voor alle soorten humanoïde robots die met mensen moeten communiceren.
Het is ook gemakkelijk om je een toekomst voor te stellen waarin mensachtige robots identiek zijn aan ons. Lipson zei dat een zorgvuldig ontwerp ervoor kan zorgen dat mensen begrijpen dat ze met een robot praten, en niet met een mens. Een voorbeeld is dat humanoïde robots een blauwe huid moeten hebben, zei Lipson, “zodat ze niet voor mensen kunnen worden aangezien.”



