Antropisch is gearriveerd uit tegen A voorgestelde wet van Illinois mogelijk gemaakt door OpenAI, dat AI-laboratoria zal beschermen tegen aansprakelijkheid als hun systemen worden gebruikt om grootschalige schade aan te richten, zoals massale slachtoffers of materiële schade ter waarde van meer dan $ 1 miljard.
De strijd om het staatswetsvoorstel, SB 3444, leidt tot nieuwe strijdlijnen tussen Anthropic en OpenAI over de manier waarop AI-technologie moet geregeld worden. Hoewel deskundigen op het gebied van AI-beleid zeggen dat het onwaarschijnlijk is dat de wetgeving wet zal worden, heeft deze wel een politieke kloof blootgelegd tussen twee van de toonaangevende AI-laboratoria van het land, die steeds belangrijker zou kunnen worden naarmate concurrerende bedrijven hun lobbyactiviteiten in het hele land vergroten.
Achter de schermen heeft Anthropic gelobbyd bij staatssenator Bill Cunningham, de sponsor van SB 3444, en andere wetgevers uit Illinois om grote wijzigingen in het wetsvoorstel aan te brengen of het te beëindigen, volgens mensen die bekend zijn met de zaak. In een e-mail aan WIRED bevestigde een woordvoerder van Anthropic het verzet van het bedrijf tegen SB 3444 en zei dat het veelbelovende gesprekken heeft gehad met Cunningham over het gebruik van het wetsvoorstel als uitgangspunt voor toekomstige AI-wetgeving.
“Wij zijn tegen dit wetsvoorstel. Goede transparantiewetten moeten de openbare veiligheid en verantwoordingsplicht garanderen voor de bedrijven die deze geavanceerde technologieën ontwikkelen, en niet voorzien in een kaart om zonder aansprakelijkheid uit de gevangenis te komen”, aldus Cesar Fernandez, staatshoofd en lokale overheidsrelaties van Anthropic in de VS, in een verklaring. “We weten dat senator Cunningham veel waarde hecht aan AI-veiligheid en we kijken ernaar uit om met hem samen te werken aan veranderingen die transparantie zullen combineren met echte verantwoordelijkheid om de ernstigste gevolgen die AI-systemen kunnen hebben te verzachten.”
Vertegenwoordigers Cunningham en de gouverneur van Illinois, J.B. Pritzker, reageerden vóór publicatie niet op het verzoek van WIRED om commentaar.
De kern van het meningsverschil tussen OpenAI en Anthropic over SB 3444 ligt in de vraag wie verantwoordelijk moet worden gehouden in het geval van een door AI veroorzaakte ramp – een potentieel nachtmerriescenario waar Amerikaanse wetgevers onlangs mee zijn begonnen te worstelen. Als SB 3444 wordt aangenomen, zijn AI-laboratoria niet aansprakelijk als criminelen hun AI-modellen gebruiken om bijvoorbeeld een biologisch wapen te maken dat honderden mensen doodt, zolang het laboratorium maar zijn eigen veiligheidskader instelt en dit op zijn website publiceert.
Open AI hebben betoogd dat SB 3444 het risico op ernstige schade door toonaangevende AI-systemen verkleint en tegelijkertijd “deze technologie nog steeds in handen laat komen van mensen en bedrijven – zowel klein als groot – in Illinois.”
De makers van ChatGPT zeggen dat ze hebben samengewerkt met staten als New York en Californië om een zogenaamde “geharmoniseerde” aanpak voor het reguleren van AI te creëren. “Bij gebrek aan federale actie zullen we blijven samenwerken met staten – inclusief Illinois – om te werken aan een consistent veiligheidskader”, zei OpenAI-woordvoerder Liz Bourgeois in een verklaring. “We hopen dat deze staatswetten een nationaal raamwerk zullen vormen dat ervoor zal zorgen dat de VS het voortouw blijft nemen.”
Anthropic stelt daarentegen dat bedrijven die geavanceerde AI-modellen ontwikkelen op zijn minst gedeeltelijk verantwoordelijk moeten zijn als hun technologie wordt gebruikt om wijdverbreide sociale schade aan te richten.
Sommige deskundigen zeggen dat het wetsvoorstel de bestaande regelgeving zou ontmantelen die erop gericht is te voorkomen dat bedrijven zich slecht gedragen. “Aansprakelijkheid bestaat al onder het gewoonterecht en biedt sterke prikkels voor AI-bedrijven om redelijke stappen te ondernemen om de voorzienbare risico’s van hun AI-systemen te voorkomen”, zegt Thomas Woodside, medeoprichter en senior beleidsanalist bij het Secure AI Project, een non-profitorganisatie die heeft geholpen bij het ontwikkelen en pleiten voor AI-veiligheidswetten in Californië en New York. “SB 3444 zou de extreme stap zetten om de aansprakelijkheid voor ernstige schade vrijwel te elimineren. Maar het zou een slecht idee zijn om de aansprakelijkheid te verzwakken, wat in de meeste staten de belangrijkste vorm van juridische aansprakelijkheid is voor bestaande AI-bedrijven.”


