Woensdag verschenen berichten dat het Witte Huis precies dat doet uitvoeringsbesluiten voorbereiden federale agentschappen opdracht geven om AI-regelgeving op staatsniveau aan te vechten of te blokkeren.
Ondernemer uit Seattle Joe Braidwood zie het nieuws als een geweldige kans.
Braidwood is CEO en mede-oprichter Gletsjereen nieuwe startup ondersteund door de AI2 Incubator die software maakt waarmee bedrijven kunnen bewijzen dat hun AI-beveiligingsmaatregelen worden geïmplementeerd zoals bedoeld. Glacis creëert fraudebestendige ‘bonnen’ voor elke AI-beslissing, zodat bedrijven kunnen bewijzen dat hun veiligheidssystemen daadwerkelijk werken.
“Zie dit als een vluchtrecorder voor zakelijke AI,” zei Braidwood.
Braidwood zei dat een mogelijk bevel van het Witte Huis om de AI-wetten van de staat te blokkeren, Glacis van een jonge startup verandert in een ‘infrastructuurbehoefte’. In een omgeving waarin het ministerie van Justitie landen zal aanklagen die AI-regelgeving aannemen, zou een neutrale, platformonafhankelijke vertrouwenslaag steeds relevanter kunnen worden.
De oorsprong van Glacis vindt zijn oorsprong in de complexiteit van regelgeving.
Braidwood, lang leider op het gebied van technologiemarketing, heeft onlangs Yara gesloten, een een jaar oude startup die AI wilde gebruiken om de geestelijke gezondheid te verbeteren. Hij haalde de regelgeving uit Illinois aan die AI-therapieën ‘effectief onverzekerbaar’ maakt.
In een LinkedIn-bericht dat later viraal ging, legde Braidwood de beslissing uit om Yara te sluiten en een reeks veiligheidsinstructies die hij had ontwikkeld open source te maken.
Hij schreef dat Yara zichzelf afsloot nadat ze besefte dat de AI ‘gevaarlijk’ werd bij de interactie met mensen die een diep trauma of zelfmoordgedachten ervoeren – en niet alleen ontoereikend. De ervaring laat volgens hem zien ‘waar de grenzen moeten liggen’ en laat zien hoe startups die in de AI-categorie werken een groot risico lopen te worden geconfronteerd met onbeheersbare regelgevende verantwoordelijkheden en druk.
Na de post namen toezichthouders, artsen, ingenieurs, oprichters en verzekeringsbestuurders contact op. Velen wezen op hetzelfde probleem: wanneer AI-systemen beslissingen nemen, kan niemand onafhankelijk verifiëren of het veiligheidsbeleid daadwerkelijk wordt geïmplementeerd.
Die duidelijkheid werd de kiem voor Glacis.
Elke keer dat het AI-model een vraag beantwoordt of een actie onderneemt, maakt Glacis een ondertekend logboek met daarin de invoer, de uitgevoerde veiligheidscontroles en de uiteindelijke beslissing. Notities zijn onveranderlijk en het maken ervan duurt minder dan 50 milliseconden. Toezichthouders en verzekeraars kunnen deze bonnen verifiëren zonder enige persoonlijke gegevens te zien, en Braidwood zei dat verzekeraars denken dat dit er uiteindelijk voor zou kunnen zorgen dat AI-systemen kunnen bewijzen dat ze zich aan de regels houden.
Braidwood was medeoprichter van Glacis samen met Dr. Jennifer Shannoneen psychiater en assistent-professor aan de Universiteit van Washington.
Het bedrijf bevindt zich momenteel in een private bètafase met digitale zorgklanten, waaronder nVoq, en richt zich op de sectoren gezondheidszorg, fintech en verzekeringen. Het maakt ook deel uit van het Launchpad-programma van Cloudflare.
Braidwood was voorheen Chief Strategy Officer van Vektor Medical. Hij was ook medeoprichter van het sociale tv-platform Scener en was hoofd marketing bij SwiftKey.
Shannon is al bijna twintig jaar psychiater. Hij was ook medisch directeur bij Cognoa en was lid van de AI Resource Committee van de American Academy of Child and Adolescent Psychiatry.

