03-03-2026T05:57:47.763Z
Lees in de app
en begin nu met lezen.
Heeft u een account? .
- Medewerkers van OpenAI bespraken openlijk de overeenkomst van het bedrijf met het ministerie van Defensie.
- Sommigen riepen op tot meer duidelijkheid; anderen zeggen dat het contract sterke bescherming biedt
- Sam Altman zei dat OpenAI samenwerkte met het Pentagon om zijn contract te wijzigen na een reactie.
Medewerkers van OpenAI gaven hun mening hierover de deal van het bedrijf met het Pentagon.
In een bericht op
Vorige week, Sam Altman bevestigd De deal van OpenAI om het ministerie van Defensie toegang te geven tot zijn AI-modellen. De overeenkomst komt nadat Anthropic weigerde regeringsvoorwaarden te accepteren waardoor zijn model, Claude, kon worden ingezet voor massale binnenlandse surveillance of autonome dodelijke wapens.
OpenAI zei zaterdag in een blogpost dat het contract met het ministerie van Defensie “beter” is en meer terrein bestrijkt veiligheidshek uit het oorspronkelijke contract van Anthropic.
Maandagavond zei Altman, na zorgen over de deal, in X dat OpenAI samenwerkte met het Pentagon om “enkele aanvullingen te maken op onze overeenkomst”.
Dit is wat het OpenAI-personeel te zeggen had:
Boaz-kazerne
Boaz Barak, een lid van de technische staf van OpenAI die zich bezighoudt met afstemming en tevens hoogleraar computerwetenschappen is aan Harvard, verwierp het idee dat OpenAI de beveiliging heeft verzwakt.
In zijn bericht op autonome dodelijke wapensen de OpenAI-deal zal deze risico’s nu elimineren.
“Het zou verkeerd zijn om het OAI-contract te presenteren alsof het dezelfde deal is die Anthropic heeft afgewezen, of zelfs alsof er minder beschermende rode lijnen in zitten dan deals die Anthropic eerder was aangegaan”, schreef hij.
“Natuurlijk weet ik niet in detail wat Anthropic voorheen bezat, maar op basis van wat ik weet is het zeer waarschijnlijk dat het contract dat OAI heeft getekend voorziet in Opnieuw garanderen dat er geen gebruik zal worden gemaakt van grootschalige binnenlandse surveillancemodellen of autonome dodelijke wapens zoals Anthropic ooit heeft gehad”, voegde hij eraan toe.
In een andere X-post op maandag zei Barak: “De rode lijn tegen het gebruik van AI voor binnenlandse massasurveillance is niet de rode lijn van Anthropic – die zou helemaal de onze moeten zijn.”
Mijl Brundage
Miles Brundage, voormalig hoofd beleidsonderzoek van OpenAI, zei in een bericht op
“Voor alle duidelijkheid: de OAI is een complexe organisatie, en ik denk dat veel van de mensen die hierbij betrokken zijn hard hebben gewerkt om een resultaat te bereiken dat zij als eerlijk beschouwden. Anderen vertrouw ik helemaal niet, vooral degenen die verband houden met de omgang met de overheid en de politiek,” voegde hij eraan toe.
Later verduidelijkte hij zondag in een antwoord op zijn post dat hij “waarschijnlijk niet ‘overgave’ had moeten zeggen in de eerste tweet.”
“OpenAI heeft misschien gekregen wat ze wilden en tegelijkertijd zou dit de onderhandelingspositie van Anthropic kunnen verzwakken, omdat Anthropic zich niet bekommert om details die OAI niet geeft, en toegeeft aan hun standpunt”, zei hij.
Clive Chan
Clive Chan, een technisch staflid bij OpenAI, zei zondag in een post op X dat hij gelooft dat het contract van het bedrijf garanties bevat tegen het gebruik van zijn modellen voor massale binnenlandse surveillance of autonome dodelijke wapens. Hij voegde eraan toe dat hij “intern pleitte voor het vrijgeven van meer informatie” over de overeenkomst.
“Als we er later achter komen dat dit niet is gebeurd, zal ik er intern voor pleiten om het contract te beëindigen”, voegde hij eraan toe.
In een antwoord op zijn bericht erkende Chan dat er mogelijk grenzen zijn aan wat openbaar kan worden gemaakt met betrekking tot defensiecontracten. Toch zei hij dat het bedrijf had moeten anticiperen op de publieke zorgen en al in een vroeg stadium duidelijkere antwoorden had moeten voorbereiden.
Na de publicatie van OpenAI’s blogpost zei Chan zondag in X dat de post “de meeste” van zijn zorgen dekt. “Dank aan het team dat ze zo attent zijn geweest in hun aanpak hiervan”, voegde hij eraan toe.
Mohammed Beieren
Mohammad Bavarian, een onderzoekswetenschapper bij OpenAI, zei in een
Pentagon-aanduiding van Antropisch als een risico’s voor de toeleveringsketen is “oneerlijk, onverstandig en een extreem overdreven reactie”, schreef Bavarian maandag.
“Het aanstellen van een organisatie die zoveel heeft bijgedragen aan het bevorderen van de vooruitgang op het gebied van AI en die zo’n hoge integriteit heeft, zal het land en de mensheid geen goed doen,” voegde hij eraan toe.
Noam Bruin
Noam Brown, een onderzoeker bij OpenAI, zei dinsdag in een X-post dat de oorspronkelijke taal in de overeenkomst van het bedrijf met het Ministerie van Oorlog “legitieme vragen onbeantwoord liet” – vooral rond nieuwe manieren waarop AI mogelijk legaal toezicht mogelijk zou kunnen maken.
Nadat OpenAI maandagavond zijn blogpost had bijgewerkt, zei Brown dat “de taal nu is bijgewerkt om dit aan te pakken”, maar hij is er sterk van overtuigd dat “de wereld niet hoeft te vertrouwen op het vertrouwen in AI-laboratoria of inlichtingendiensten voor hun veiligheid en beveiliging.”
Brown voegde eraan toe dat de inzet bij de NSA en andere inlichtingendiensten van het Ministerie van Oorlog zou worden opgeschort om tijd te geven om potentiële mazen in de wet aan te pakken “via een democratisch proces voorafgaand aan de inzet.”
“Ik weet dat de wetgeving soms traag kan verlopen, maar ik vrees dat er een hellend vlak zal zijn waarbij we gewoonlijk het democratische proces omzeilen voor het nemen van belangrijke beslissingen”, schreef hij.

