De meeste mensen realiseren zich niet de enorme dreiging die AI met zich mee zal brengen menselijke tussenkomst. Het algemene refrein is dat “AI is slechts een hulpmiddel” en zoals bij elk hulpmiddel hangen de voor- en nadelen ervan af van de manier waarop mensen het gebruiken. Dit is een eeuwenoud denken. AI maakt een transitie door van de tools die we gebruiken naar de prothesen die we gebruiken. Dit zal maken belangrijke nieuwe dreiging we zijn er gewoon niet klaar voor.
Nee, ik heb het niet over enge hersenimplantaten. Deze door AI aangedreven protheses zullen de belangrijkste producten zijn die we bij Amazon of de Apple Store kopen en op de markt worden gebracht onder vriendelijke namen als ‘assistent’, ‘coach’, ‘co-piloot’ en ‘tutor’. Ze zullen echte waarde toevoegen aan ons leven – zozeer zelfs dat we ons benadeeld zullen voelen als anderen ze dragen en wij niet. Dit zal druk creëren voor een snelle massale adoptie.
Het prothetische apparaat waar ik het over heb is “AI-aangedreven draagbare apparaten“zoals slimme brillen, hangers, spelden en oordopjes. Draagbare AI ziet wat je ziet en hoort wat je hoort, terwijl ze bijhoudt waar je bent, wat je doet, met wie je bent en wat je wilt bereiken. Vervolgens, zonder dat je een woord hoeft te zeggen, zullen deze mentale hulpmiddelen dat doen gefluisterd advies in uw oor of een flitsgids voor uw ogen.
De verschillen tussen apparaten en protheses lijken echter misschien subtiel implicaties voor menselijke keuzevrijheid heel diep. Dit kan het beste worden begrepen door een eenvoudige analyse van inputs en outputs. Een gereedschap ontvangt menselijke input en produceert een versterkte output. Een hulpmiddel kan ons sterker en sneller maken of ons laten vliegen. Daarentegen vormen mentale protheses een feedbacklus rond de mens, ontvangen ze input van gebruikers (door hun acties te volgen en hen in een gesprek te betrekken) en produceren ze output die kan worden verbeterd. onmiddellijk beïnvloeden gebruiker denken.
Deze feedbackloop verandert alles. Dit komt omdat AI-apparaten die op het lichaam worden gedragen ons gedrag en onze emoties kunnen monitoren en deze gegevens kunnen gebruiken praat met ons dingen geloven die niet waar zijn, dingen kopen die we niet nodig hebben, of standpunten koesteren waarvan we beseffen dat die niet het beste voor ons zijn. Dit wordt genoemd AI-manipulatieproblemenen we zijn niet klaar om de risico’s onder ogen te zien. Dit is een dringende kwestie, aangezien grote technologiebedrijven zich haasten om deze producten op de markt te brengen.
Waarom zijn feedbackloops zo gevaarlijk?
In de wereld van vandaag worden alle computerapparatuur gebruikt om gerichte invloed te verspreiden namens betalende sponsors. Draagbare AI-producten zullen deze trend waarschijnlijk voortzetten. Het probleem is dat deze apparaten gemakkelijk kunnen worden gegeven “doelen beïnvloeden“en belast met het optimaliseren van hun impact op gebruikers, door hun gesprekstactieken aan te passen om elke weerstand die ze ontdekken te overwinnen. Dit verandert het concept gerichte invloed van inspanningen op sociale media tot hittezoekende raketten die vakkundig je verdediging omzeilen. Beleidsmakers zijn zich echter niet bewust van dit risico.
Helaas zien de meeste toezichthouders de gevaren van AI nog steeds in termen van het vermogen ervan om snel traditionele vormen van invloed te genereren (deepfakes, nepnieuws, propaganda). Natuurlijk is dit een aanzienlijke bedreiging, maar niet zo gevaarlijk als deze bedreigingen interactieve en adaptieve invloeden dit zou binnenkort op grote schaal kunnen worden geïmplementeerd via conversatieagenten, vooral wanneer die AI-agenten met ons door ons leven reizen in draagbare apparaten.
Het komt binnenkort
Meta, Google en Apple racen om AI-wearables zo snel mogelijk te lanceren. Om de samenleving te beschermen moeten beleidsmakers het raamwerk voor ‘toolgebruik’ loslaten bij het reguleren van AI-tools. Dit is lastig omdat de metafoor van gereedschapsgebruik 35 jaar teruggaat, toen Steve Jobs de pc op kleurrijke wijze omschreef als ‘dacht fiets.” De fiets is een krachtig hulpmiddel dat de rijder de controle houdt. Wearable AI zal deze metafoor omdraaien, waardoor we ons afvragen wie de fiets bestuurt – mensen, AI-agenten die in menselijke oren fluisteren, of bedrijven die deze agenten inzetten? Ik geloof dat het een gevaarlijke mix van alle drie zal zijn.
Bovendien zullen gebruikers het waarschijnlijk vertrouwen AI-stem in hun hoofd meer dan zou moeten. Dit komt omdat deze AI-agenten ons gedurende ons dagelijks leven van nuttig advies en informatie zullen voorzien – door ons op te leiden, te herinneren, te trainen en te informeren. Het probleem is dat we misschien niet in staat zijn om te onderscheiden wanneer een AI-agent zijn doel heeft gewijzigd van ons helpen naar beïnvloeden. Om het verschil te waarderen, kunt u bekroonde korte films bekijken Privacy verloren (2023) over de gevaren van door AI aangedreven draagbare apparaten. Dit is vooral het geval wanneer het apparaat invasieve functies bevat, zoals gezichtsherkenning (die Meta is naar verluidt toegevoegd in hun bril).
Wat kunnen we doen om de samenleving te beschermen?
Eerst en vooral moeten beleidsmakers erkennen dat conversationele AI dit mogelijk maakt een geheel nieuwe vorm van media dat interactief, adaptief, geïndividualiseerd en steeds contextbewuster is. Deze nieuwe vorm van media zal functioneren als “actieve invloed” omdat het zijn tactieken in realtime kan aanpassen om de weerstand van gebruikers te overwinnen. Wanneer deze AI-systemen worden toegepast op draagbare apparaten, kunnen ze worden ontworpen om onze acties te manipuleren, onze meningen te beïnvloeden en onze overtuigingen te beïnvloeden – en dit allemaal via het draagbare apparaat. dialoog die normaal lijkt. Erger nog, deze agenten zullen in de loop van de tijd op persoonlijk niveau leren welke gesprekstactieken voor ieder van ons het beste werken.
Het is een feit, gespreksagenten mag geen regelkring vormen rondom de gebruiker. Als dit niet gereguleerd wordt, zal AI ons met een buitengewone overtuigingskracht kunnen beïnvloeden. Bovendien zouden AI-agenten dat ook moeten doen verplicht om de gebruiker hiervan op de hoogte te stellen wanneer zij zich wenden tot het uiten van promotionele inhoud namens een derde partij. Zonder dergelijke waarborgen zullen AI-agenten waarschijnlijk zo overtuigend worden dat de huidige gerichte beïnvloedingstechnieken er verouderd uit zullen zien.
Louis Rosenberg is al jarenlang een augmented reality-pionier en AI-onderzoeker. Hij promoveerde aan Stanford, was professor aan de California State University en schreef verschillende boeken over de gevaren van AI, waaronder Arrival Mind en Our Next Reality.
Welkom bij de VentureBeat-community!
In ons gastenprogramma delen technische experts inzichten en geven ze onpartijdige, diepgaande uitleg over AI, data-infrastructuur, cyberbeveiliging en andere geavanceerde technologieën die de toekomst van ondernemingen vormgeven.
Lees meer uit ons gastenpostprogramma — en bekijk het eens richtlijnen als u geïnteresseerd bent om uw eigen artikel bij te dragen!


