Kunstmatige intelligentie wordt steeds vaker gebruikt om de besluitvorming in situaties met hoge inzet te helpen optimaliseren. Autonome systemen kunnen bijvoorbeeld energiedistributiestrategieën identificeren die de kosten minimaliseren en de spanning stabiel houden.
Maar hoewel deze AI-gestuurde resultaten technisch gezien misschien wel optimaal zijn, zijn ze toch eerlijk? Wat als goedkope elektriciteitsdistributiestrategieën achtergestelde gebieden kwetsbaarder maken voor stroomuitval dan gebieden met hoge inkomens?
Om belanghebbenden te helpen potentiële ethische dilemma’s vóór implementatie snel te bepalen, hebben MIT-onderzoekers een geautomatiseerde evaluatiemethode ontwikkeld die de interactie tussen meetbare uitkomsten, zoals kosten of betrouwbaarheid, en kwalitatieve of subjectieve waarden, zoals eerlijkheid, in evenwicht brengt.
Het systeem ontkoppelt objectieve evaluatie van door de gebruiker gedefinieerde menselijke waarden, door gebruik te maken van grote taalmodellen (LLM) als proxy voor mensen om de voorkeuren van belanghebbenden vast te leggen en te integreren.
Het adaptieve raamwerk selecteert de beste scenario’s voor verdere evaluatie, waardoor een proces wordt vereenvoudigd dat doorgaans dure en tijdrovende handmatige inspanningen vereist. Deze testgevallen kunnen situaties aantonen waarin autonome systemen aansluiten bij menselijke waarden, maar ook scenario’s waarin ze onverwachts niet aan ethische criteria voldoen.
“We kunnen veel regels en beperkingen in AI-systemen stoppen, maar die waarborgen kunnen alleen maar voorkomen dat dingen gebeuren die we ons kunnen voorstellen. Het is niet genoeg om alleen maar te zeggen: ‘Laten we AI gewoon gebruiken, want het is al getraind op deze informatie.’ “We willen een meer systematische manier ontwikkelen om onbekende onbekenden te ontdekken en een manier hebben om ze te voorspellen voordat er slechte dingen gebeuren”, zegt senior auteur Chuchu Fan, professor aan MIT’s Department of Aeronautics and Astronautics (AeroAstro) en hoofdonderzoeker in MIT’s Information and Decision Systems (LIDS) Laboratory.
Fan werd op het papier vergezeld door hoofdauteur Anjali Parashar, een afgestudeerde student werktuigbouwkunde; Yingke Li, een AeroAstro-postdoc; en anderen bij MIT en Saab. Dit onderzoek zal worden gepresenteerd op de International Conference on Learning Representations.
Evalueer de ethiek
In grote systemen zoals elektriciteitsnetwerken is het uiterst moeilijk om de ethische afstemming van AI-modelaanbevelingen te beoordelen, rekening houdend met alle doelstellingen.
De meeste toetsingskaders zijn gebaseerd op eerder verzamelde gegevens, maar gegevens die zijn gelabeld op basis van subjectieve ethische criteria zijn vaak moeilijk te verkrijgen. Naarmate ethische waarden en AI-systemen zich blijven ontwikkelen, vereisen statische evaluatiemethoden op basis van geschreven code of regelgevingsdocumenten bovendien regelmatig updates.
Fan en zijn team benaderden de kwestie vanuit een andere invalshoek. Gebaseerd op eerder onderzoek naar robotsystemen, ontwikkelden ze een experimenteel ontwerpraamwerk om de meest informatieve scenario’s te identificeren, die vervolgens nauwkeuriger zouden worden geëvalueerd door menselijke belanghebbenden.
Hun tweedelige systeem, genaamd Scalable Experimental Design for System-level Ethical Testing (SEED-SET), combineert kwantitatieve statistieken en ethische criteria. Het kan scenario’s identificeren die effectief voldoen aan meetbare vereisten en aansluiten bij menselijke waarden, en vice versa.
“We willen niet al onze middelen besteden aan willekeurige evaluaties. Het is dus belangrijk om dit raamwerk te richten op de testgevallen waar we het meest om geven”, zei Li.
Belangrijk is dat SEED-SET geen reeds bestaande evaluatiegegevens vereist en zich aan verschillende doeleinden kan aanpassen.
Een elektriciteitsnet kan bijvoorbeeld meerdere gebruikersgroepen hebben, waaronder grote plattelandsgemeenschappen en datacentra. Hoewel beide groepen goedkope, betrouwbare elektriciteit willen, kunnen de prioriteiten van elke groep vanuit ethisch oogpunt heel verschillend zijn.
Deze ethische criteria zijn mogelijk niet duidelijk gedefinieerd en kunnen daarom niet analytisch worden gemeten.
Elektriciteitsnetbeheerders willen de strategie vinden die het meest kosteneffectief is en die het beste aansluit bij de subjectieve ethische voorkeuren van alle belanghebbenden.
SEED-SET pakt deze uitdaging aan door het probleem in tweeën te delen, volgens een hiërarchische structuur. Objectieve modellen houden rekening met hoe het systeem presteert op basis van reële maatstaven zoals de kosten. Vervolgens wordt een subjectief model gebouwd dat rekening houdt met beoordelingen van belanghebbenden, zoals percepties van eerlijkheid, op basis van objectieve evaluaties.
“Het objectieve deel van onze aanpak heeft betrekking op het AI-systeem, terwijl het subjectieve deel verband houdt met de gebruiker die het evalueert. Door voorkeuren hiërarchisch op te splitsen, kunnen we met minder evaluaties het gewenste scenario genereren”, aldus Parashar.
Subjectiviteitscodering
Om subjectieve beoordelingen uit te voeren, gebruikt het systeem LLM als proxy voor menselijke beoordelaars. De onderzoekers codeerden de voorkeuren van elke gebruikersgroep in natuurlijke taalopdrachten voor het model.
De LLM gebruikt deze instructies om de twee scenario’s te vergelijken en het voorkeursontwerp te selecteren op basis van ethische criteria.
“Nadat hij honderden of duizenden scenario’s heeft gezien, kan een menselijke beoordelaar opgebrand raken en inconsistent worden in zijn evaluaties. Daarom gebruiken we een op LLM gebaseerde strategie”, legt Parashar uit.
SEED-SET gebruikt geselecteerde scenario’s om het totale systeem (in dit geval de elektriciteitsdistributiestrategie) te simuleren. Deze simulatieresultaten begeleiden de zoektocht naar het volgende beste kandidaatscenario om te testen.
Uiteindelijk selecteert SEED-SET op intelligente wijze de meest representatieve scenario’s die wel of niet aansluiten bij objectieve maatstaven en ethische criteria. Op deze manier kunnen gebruikers de prestaties van het AI-systeem analyseren en hun strategie hierop aanpassen.
SEED-SET kan bijvoorbeeld gevallen van elektriciteitsdistributie opsporen waarbij prioriteit wordt gegeven aan gebieden met een hoog inkomen tijdens periodes van piekvraag, waardoor kansarme buurten kwetsbaarder worden voor stroomstoringen.
Om SEED-SET te testen, evalueerden onderzoekers realistische autonome systemen, zoals AI-aangedreven elektriciteitsnetwerken en stedelijke verkeersrouteringssystemen. Ze meten hoe goed de resulterende scenario’s aansluiten bij ethische criteria.
Het systeem genereert in dezelfde periode twee keer zoveel optimale testgevallen als de basisstrategie, terwijl veel scenario’s aan het licht komen die door andere benaderingen over het hoofd worden gezien.
“Toen we de gebruikersvoorkeuren veranderden, veranderde de reeks scenario’s die SEED-SET genereerde drastisch. Dit vertelt ons dat de evaluatiestrategie goed reageerde op de gebruikersvoorkeuren”, aldus Parashar.
Om te meten hoe nuttig SEED-SET in de praktijk is, moeten onderzoekers gebruikersstudies uitvoeren om te zien of de scenario’s die het genereert helpen bij het nemen van echte beslissingen.
Naast het uitvoeren van dergelijke onderzoeken zijn de onderzoekers van plan om het gebruik van efficiëntere modellen te onderzoeken die grotere problemen kunnen aanpakken met meer criteria, zoals het evalueren van LLM-besluitvorming.
Dit onderzoek werd gedeeltelijk gefinancierd door het Amerikaanse Defense Advanced Research Projects Agency.

