OpenAI steunde een wetsontwerp uit Illinois dat AI-laboratoria zou beschermen tegen aansprakelijkheid als dit zou gebeuren AI-modellen gebruikt om ernstige sociale schade te veroorzaken, zoals de dood of ernstig letsel van 100 of meer mensen of materiële schade van ten minste $ 1 miljard.
Deze inspanningen lijken een verschuiving te markeren Open AI wetgevend strategie. Tot nu toe was OpenAI vooral in het defensief en verzette zich tegen mogelijke wetsvoorstellen AI Labs kunnen worden gekoppeld voor hun technologische verliezen. Verschillende AI-beleidsexperts vertelden WIRED dat SB 3444 – die nieuwe normen voor de industrie zou kunnen stellen – een extremere maatregel is dan de wetsvoorstellen die OpenAI in het verleden heeft gesteund.
Het wetsvoorstel, SB 3444, zou grens-AI-ontwikkelaars beschermen tegen aansprakelijkheid voor ‘kritieke schade’ veroorzaakt door hun grensmodellen, zolang ze het incident niet opzettelijk of roekeloos hebben veroorzaakt en veiligheids-, beveiligings- en transparantierapporten op hun websites hebben gepubliceerd. Het definieert een grensmodel als elk AI-model dat is getraind met behulp van meer dan 100 miljoen dollar aan computerkosten, en dat potentieel van toepassing kan zijn op de grootste AI-laboratoria van Amerika, zoals OpenAI, Google, xAI, Anthropic en Meta.
“Wij ondersteunen een aanpak als deze omdat deze zich richt op wat het belangrijkst is: het verminderen van het risico op ernstige schade als gevolg van de meest geavanceerde AI-systemen, terwijl deze technologie toch in handen kan komen van mensen en bedrijven – zowel klein als groot – in Illinois”, zei OpenAI-woordvoerder Jamie Radice in een verklaring per e-mail. “Het helpt ook een lappendeken van staatsregels te voorkomen en te evolueren naar duidelijkere en consistentere nationale normen.”
Op basis van de definitie van kritische negatieve impact somt het wetsvoorstel een aantal gebieden op die van algemeen belang zijn voor de AI-industrie, zoals slechte actoren die AI gebruiken om schadelijke acties uit te voeren. chemicaliën makenbiologisch, radiologische of nucleaire wapens. Als een AI-model handelingen uitvoert die, als ze door een mens worden uitgevoerd, als een strafbaar feit zouden worden beschouwd en tot zulke extreme gevolgen zouden leiden, dan zal dit ook enorme verliezen veroorzaken. Als een AI-model een van de volgende acties onder SB 3444 onderneemt, is het AI-lab achter het model mogelijk niet aansprakelijk, zolang de actie onbedoeld was en zij een rapport publiceren.
Federale en staatswetgevers in de VS hebben geen wetten aangenomen die specifiek bepalen of ontwikkelaars van AI-modellen, zoals OpenAI, aansprakelijk kunnen worden gesteld voor schade veroorzaakt door hun technologie. Maar naarmate AI-laboratoria krachtigere AI-modellen blijven uitbrengen die nieuwe uitdagingen op het gebied van veiligheid en cyberbeveiliging met zich meebrengen, zoals Claude Mythos van AntropisDeze vragen voelen steeds moderner aan.
In haar getuigenis ter ondersteuning van SB 3444 steunde Caitlin Niedermeyer, teamlid van OpenAI Global Affairs, ook een federaal raamwerk voor AI-regulering. Niedermeyer bracht een boodschap over die consistent was met die van de regering-Trump hardhandig optreden tegen de AI-veiligheidswetten van de staatstelt dat het belangrijk is om “inconsistente staatseisen te vermijden die wrijving kunnen veroorzaken zonder de veiligheid op betekenisvolle wijze te verbeteren.” Dit komt ook overeen met de bredere visie van Silicon Valley van de afgelopen jaren, die in het algemeen heeft geoordeeld dat dit het allerbelangrijkste is AI-wetgeving zal de positie van Amerika in de mondiale AI-race niet belemmeren. Hoewel SB 3444 zelf een veiligheidswet op staatsniveau is, betoogde Niedermeyer dat de wet effectief zou kunnen zijn als deze ‘de wegen naar harmonisatie met het federale systeem versterkt’.
“Bij OpenAI zijn we van mening dat het beste op het gebied van grensregulering het veilig inzetten van de meest geavanceerde modellen is op een manier die ook het Amerikaanse leiderschap op het gebied van innovatie handhaaft”, aldus Niedermeyer.
Scott Wisor, beleidsdirecteur van het Secure AI-project, vertelde WIRED dat hij gelooft dat het wetsvoorstel weinig kans van slagen heeft, gezien de reputatie van Illinois voor het agressief reguleren van de technologie. “We hebben mensen in Illinois ondervraagd en gevraagd of ze vonden dat AI-bedrijven van aansprakelijkheid moesten worden ontheven, en 90 procent van de respondenten was daartegen. Er is geen reden waarom bestaande AI-bedrijven met verminderde aansprakelijkheid zouden moeten worden geconfronteerd”, aldus Wisor.


