Home Nieuws Heeft het publieke commentaarsysteem last van AI-problemen?

Heeft het publieke commentaarsysteem last van AI-problemen?

2
0
Heeft het publieke commentaarsysteem last van AI-problemen?

Toen het Zuid-Californische luchtkwaliteitsbureau vorig jaar nieuwe regelgeving voorstelde om consumenten aan te moedigen warmtepompen te kopen in plaats van gaskachels, werd het bureau overspoeld met 20.000 reacties die zich tegen het idee verzetten – meer dan normaal. “Vanwege het volume en de aard van deze zendingen maakt South Coast AQMD zich zorgen over de authenticiteit ervan”, zegt Rainbow Yeung, een woordvoerder van het agentschap. De uitvoerend directeur van het bureau ontving een e-mail waarin hij hem bedankte voor zijn “verzet” tegen de regelgeving die zijn eigen team had opgesteld.

Om de geldigheid van de opmerkingen te controleren, heeft het South Coast Air Quality Management District contact opgenomen met een kleine groep reageerders (172 mensen) om te bevestigen dat zij de e-mail daadwerkelijk hadden verzonden. Bijna niemand antwoordde. Van de vijf mensen die dat deden, gaven er echter drie toe dat ze niets wisten van de opmerkingen die namens henzelf waren gemaakt. In een afzonderlijk onderzoek begon een campagnevoerder van de Sierra Club ook contact op te nemen met mensen op de lijst; Vier gecontacteerde personen zeiden ook dat ze geen e-mail hadden gestuurd.

Dat Los Angeles-tijd onlangs gemeld dat CiviClick, een bedrijf dat zichzelf factureert als aanbieder van “AI-ondersteunde belangenbehartigingsinstrumenten”, heeft geleid tot de campagne om commentaar van de oppositie te plaatsen. De klant is een public affairs-consulent met banden met de gasindustrie.

Klik op Civiel ontkende dat ze zonder toestemming e-mails stuurden of AI gebruikten om geautomatiseerde berichten te maken. Het bureau onderzoekt de situatie nog steeds; zei de directeur in a recente bijeenkomst dat het team meer ‘agressieve’ manieren aan het onderzoeken was om commentatoren te samplen, omdat ze niet in staat waren definitieve conclusies te trekken uit de beperkte eerste reacties.

Ongeacht wat er gebeurt, leidt dit tot een bredere vraag: als kunstmatige intelligentie nu gemakkelijk een mens kan nabootsen – en als commentaar kan worden geleverd zonder medeweten van een persoon – hoe kunnen overheidsinstanties dan weten dat een openbaar commentaar door een burger is geschreven en niet door een bot?

Valse reacties zijn niets nieuws. In 2017 ontving de Federal Communications Commission 22 miljoen reacties tijdens het debat over netneutraliteitsregels – en ongeveer 18 miljoen waarvan sommige later als nep werden ontdekt. Miljoenen komen van a enkele leerling; een half miljoen kwam van een Russisch e-mailadres. Na een onderzoek heeft de New Yorkse procureur-generaal Letitia James beboet ‘Leadgeneratie’-bedrijven die gezamenlijk miljoenen echte mensen nabootsen wanneer ze reacties plaatsen.

AI zou het in theorie gemakkelijker kunnen maken om nepcommentaren te schrijven en af ​​te leveren die echt klinken. CiviClick zegt dat het alleen AI gebruikt om mensen te helpen hun opmerkingen te personaliseren. Het platform stelt gebruikers vragen over het probleem (bijvoorbeeld hoe een belastingverhoging hun budget zou beïnvloeden) en past de e-mail vervolgens dienovereenkomstig aan. (Het bedrijf gebruikt ook AI om te voorspellen hoe waarschijnlijk het is dat iemand op een campagne zal reageren.)

CiviClick-oprichter en CEO Chazz Clevinger zei dat hij de specifieke kenmerken van de campagne in Zuid-Californië niet kon uitleggen, maar benadrukte dat de campagne een authentiek beeld van mensen in de regio kon vastleggen. “Een huiseigenaar in Riverside County die net een gasoven had geïnstalleerd, schreef een ander bericht dan een huurder in Los Angeles die zich zorgen maakte over de nalevingskosten van de huiseigenaar”, zei hij. Snel bedrijf. “Een aannemer in San Bernardino County die een nieuw huis bouwde, schreef een andere boodschap dan een gepensioneerde in Orange County die zich zorgen maakte over het overbelasten van het elektriciteitsnet tijdens een hittegolf.” Clevinger stelt dat deze hulpmiddelen mensen eenvoudigweg helpen ‘hun ware zorgen onder woorden te brengen’, en dat de berichten net zo geldig zijn als de berichten die helemaal opnieuw zijn geschreven.

Actievoerders van de Sierra Club hebben een andere mening. Zelfs als iemand AI toestaat opmerkingen te wijzigen, kan dit problemen veroorzaken. “Regelgevers geven voorrang aan op maat gemaakte opmerkingen, die tijd en moeite vergen om in te dienen, boven standaardbrieven of petities, waar dat niet het geval is”, zegt Dylan Plummer, campagneadviseur voor de Clean Heat-campagne van de Sierra Club. “Het gebruik van AI om op maat gemaakte opmerkingen te genereren creëert de illusie dat de betrokken individuen bereid zijn de tijd te nemen om een ​​doordachte verklaring over een kwestie op te stellen – terwijl ze in werkelijkheid in dezelfde mate betrokken zijn als iemand die een traditionele brief of petitie ondertekent.”

De grotere uitdaging, zei Plummer, is of sommige publieke commentaren gericht waren op mensen met wie ze geen relatie hadden. In een ander geval in Californië begon hij mensen te bellen die opmerkingen hadden ingediend over voorgestelde regelgeving voor het Bay Area Air District. Een andere non-profitorganisatie, het Energy and Policy Institute, heeft een verzoek om openbare registers ingediend om kopieën te verkrijgen van e-mails die zijn verzonden via een ander softwareplatform genaamd Speak4. (Speak4 weigert te spreken Snel bedrijf; in een San Francisco-kroniek artikelDe klant van het bedrijf, de Bay Area Council, zei dat noch Speak4, noch Speak4 de brief zonder goedkeuring heeft verzonden.)

Van de zeven mensen met wie Plummer sprak, zeiden ze alle zeven dat ze niet op de hoogte waren van de e-mail. “Sommigen zeiden zelfs dat ze niet wisten wat het Bay Area Air District was,” zei hij. “Een vrouw met wie ik sprak, zei: ‘Waarom zou ik tegen regelgeving zijn om schone lucht te beschermen?’”

Het is heel moeilijk om achteraf te bewijzen of de opmerkingen daadwerkelijk nep zijn. “Ik moest tientallen nummers bellen waartoe ik via internet toegang had”, zei Plummer. De meeste mensen willen niet praten. ‘Terwijl ik aan het praten was, dacht ik: ‘Hallo, mijn naam is Dylan en ik onderzoek een mogelijk geval van identiteitsdiefstal.’ En hun eerste reactie was: ‘Oh, deze man is een totale fraudeur’, en ze hingen op.”

In een ander geval in North Carolina ontvingen provinciale commissarissen honderden e-mails ter ondersteuning van de aanleg van een nieuwe gaspijpleiding. Maar toen ze op sommige e-mails begonnen te reageren, zeiden hun kiezers dat ze die nog niet hadden verzonden. Massale e-mailcampagnes werken averechts. “Als ze onzorgvuldig zijn in hun belangenbehartiging, wat betekent dat dan voor onze zorg voor hun zorg, wat heel belangrijk is”, zei een commissaris. op de hoogte gebracht E&E Nieuws. De raad stemde unaniem voor een resolutie waarin bezorgdheid over het project werd geuit en federale ambtenaren werden aanbevolen de vergunning te weigeren.

Williams, het bedrijf dat de pijplijn wil aanleggen, zegt dat mensen misschien vergeten dat ze een e-mail hebben gestuurd. CiviClick, dat e-mails voor het bedrijf faciliteert, zei hetzelfde over de campagne in Zuid-Californië. (Opgemerkt moet worden dat de luchtkwaliteitsdienst onmiddellijk contact opnam met de vermeende commentator nadat de opmerking was geplaatst.) Clevinger verklaarde ook dat er mogelijk sprake is van “opzettelijke verkeerde karakterisering of misbruik van onze hulpmiddelen” door groepen als de Sierra Club die “een gevestigd belang hebben bij het in diskrediet brengen van de authenticiteit ervan.”

Wanneer een instelling een groot aantal frauduleuze e-mails ontvangt, is het onduidelijk hoeveel invloed deze zal hebben op de besluitvorming. “Wat er toe doet is niet de identiteit van de commentator”, zegt Steven Balla, hoogleraar politieke wetenschappen aan de George Washington University, die publieke commentaren bestudeert. “Wat belangrijk is, is de inhoud van de reacties.” De agentschappen zijn belast met het in overweging nemen van de technische, juridische en economische informatie die hen tijdens het commentaarproces wordt verstrekt, zei hij. Maar ze tellen niet op hoeveel reacties ze van elke kant krijgen, en het belangrijkste zijn de ideeën en niet de naam van de persoon die ze heeft gestuurd.

Valse of door AI gegenereerde opmerkingen ‘ruiken walgelijk’, zei Balla. “Maar ik ben er niet door geraakt, wauw, dit verandert echt de manier waarop beleid wordt gemaakt.” Als het gaat om netneutraliteit, zegt hij, hebben miljoenen reacties uiteindelijk geen invloed op wat de eerste regering-Trump wilde doen.

“Wat ik weet over desinformatie in het algemeen is dat deze over het algemeen een minimale impact heeft op de overtuigingen of acties van mensen”, zegt Jonathan Brennan, directeur van het Technology Policy Center van de New York University. “Ik maak me veel meer zorgen over de secundaire impact van een algemeen verlies aan vertrouwen – overheidsfunctionarissen die zeggen: ‘Nou, we kunnen publieke commentaren niet echt vertrouwen, misschien zijn ze allemaal nep, misschien ook niet, dus gaan we minder gewicht toekennen aan die commentaren.’” Lokale schoolbesturen zouden theoretisch gezien eerder geneigd kunnen zijn om te luisteren naar mensen die persoonlijk commentaar komen geven, waardoor het voor anderen moeilijker wordt om hun mening te delen als ze geen tijd hebben om aanwezig te zijn.

Agentschappen kunnen technologie gebruiken om digitale commentaren te sorteren en duplicaten samen te vatten, zei Balla. Dit is anders dan de oude massacommentaren die op ansichtkaarten verschenen. “In de jaren negentig sprak ik met een bureau dat destijds waarschijnlijk 100.000 reacties had”, zegt hij. “Het was nog steeds op papier gebaseerd. Ze hadden zelfs een magazijnruimte in Rockville, Maryland, waar ze feitelijk stukjes papier opstapelden. Het was een hoop werk. Nu krijg je 100.000 reacties, en 99.000 daarvan zullen bijna hetzelfde zijn. En dat zie je binnen enkele seconden.”

Als AI echter gemakkelijk een unieke reeks opmerkingen kan genereren, wordt het proces moeilijker. Plummer van de Sierra Club vindt dat er iets moet veranderen. “Astroturf en de oprichting van frontgroepen – vervuilende industrieën die de illusie proberen te wekken van brede steun voor een standpunt – zijn niets nieuws”, zei hij. “Onze grootste zorg is echter dat deze nieuwe technologieën met de ontwikkeling van AI deze tactieken op steroïden zullen zetten en ze nog gevaarlijker en moeilijker uit te roeien zullen maken. En naar mijn mening is dit een directe bedreiging voor de democratie en besluitvormingsprocessen.”

In het South Shore Air Quality Management District stemde het bestuur ternauwernood voor het intrekken van voorgestelde regelgeving die de vervuiling zou hebben verminderd. Hoewel CiviClick prees zijn werk bij het beïnvloeden van beslissingen is het moeilijk te zeggen welke impact de opmerkingen zullen hebben. De raad gaf het agentschap de opdracht om de regelgeving voor verdere bespreking terug te sturen naar de commissie. De regels kunnen later opnieuw worden bekeken, hoewel er geen tijdlijn is vastgesteld.

Nu vraagt ​​de Sierra Club de procureur-generaal van Californië en de officier van justitie van LA om een ​​fraudeonderzoek te starten. Staatssenator Christopher Cabaldon heeft onlangs ook een nieuw wetsvoorstel ingediend, genaamd “Mensen zijn geen bots”, wat duidelijk zou maken dat AI-instrumenten niet als mensen kwalificeren en geen valse publieke inbreng mogen bieden.

En bij het luchtkwaliteitsagentschap in Zuid-Californië zoekt het personeel naar manieren om het insturen van reacties veiliger te maken, waaronder een portaal dat nieuwe manieren zou kunnen bieden om te verifiëren dat ingezonden reacties van mensen afkomstig zijn – hoewel dat een steeds moeilijkere taak wordt. “Het handhaven van de integriteit van onze publieke processen is een topprioriteit”, zei Yeung.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in