A kunstmatige intelligentie De onderzoeker verliet deze week zijn baan bij het Amerikaanse bedrijf Anthropic met een vage waarschuwing over de toestand van de wereld, wat het laatste ontslag markeerde in een golf van fouten over veiligheidsrisico’s en ethische dilemma’s.
In een brief geplaatst op XMrinank Sharma schreef dat hij tijdens zijn tijd bij de organisatie alles had bereikt waarop hij had gehoopt AI veiligheidsbedrijf en is trots op zijn inspanningen, maar neemt de angst weg dat ‘de wereld in gevaar is’, niet alleen door AI, maar ook door ‘een reeks onderling verbonden crises’, variërend van bioterrorisme tot de angst voor industriële ‘drukte’.
Hij zei dat hij zich geroepen voelde om te schrijven, een graad in poëzie volgde en zich toelegde op ‘moedige oratoriumoefeningen’.
“Gedurende mijn tijd hier heb ik keer op keer gezien hoe moeilijk het is om onze waarden onze daden te laten dicteren”, vervolgde hij.
Anthropic werd in 2021 opgericht door een groep voormalige OpenAI-medewerkers die beloofden een meer op veiligheid gerichte benadering van AI-ontwikkeling te ontwerpen dan zijn concurrenten.
Ontvang het laatste nationale nieuws
Voor nieuws dat van invloed is op Canada en de rest van de wereld kunt u zich aanmelden om de laatste nieuwswaarschuwingen direct bij u te ontvangen zodra het zich voordoet.
Sharma leidt het onderzoeksteam voor AI-bescherming van het bedrijf.
Anthropic heeft een rapport uitgebracht waarin de veiligheid van zijn eigen producten wordt geschetst, waaronder Claude, zijn hybride redeneer-grote-taalmodel, en zet zichzelf op de markt als een bedrijf dat zich inzet voor het bouwen van betrouwbare, gemakkelijk te begrijpen AI-systemen.
Het bedrijf kreeg vorig jaar kritiek nadat het ermee had ingestemd 1,5 miljard dollar te betalen om een class action-rechtszaak te schikken van een groep auteurs die het bedrijf ervan beschuldigden illegale versies van hun werk te gebruiken om zijn AI-modellen te trainen.
Sharma’s ontslag kwam in dezelfde week dat OpenAI-onderzoeker Zoë Hitzig haar ontslag in een week aankondigde essay in de New York Timesdaarbij verwijzend naar zorgen over de advertentiestrategie van het bedrijf, inclusief het plaatsen van advertenties op ChatGPT.
“Ik geloofde ooit dat ik mensen die AI bouwen kon helpen de problemen die het veroorzaakt te overwinnen. Deze week bevestigde ik mijn langzame besef dat OpenAI lijkt te zijn gestopt met het stellen van de vragen die ik heb helpen beantwoorden”, schreef hij.
“Mensen vertellen chatbots over hun gezondheidsangsten, hun relatieproblemen, hun overtuigingen over God en het hiernamaals. Advertenties die op deze archieven zijn gebouwd, creëren het potentieel om gebruikers te manipuleren op manieren die we niet kunnen begrijpen, laat staan voorkomen.”
Anthropic en OpenAI zijn onlangs verwikkeld in een publieke ruzie na Anthropic heeft een Super Bowl-advertentie uitgebracht bekritiseerde het besluit van OpenAI om advertenties op ChatGPT weer te geven.
In 2024 zei Sam Altman, CEO van OpenAI, dat hij het niet leuk vond om advertenties te gebruiken en deze als ‘laatste redmiddel’ zou implementeren.
Vorige week weerlegde hij de bewering van de advertentie dat het insluiten van de advertentie misleidend was met een lange post waarin hij Anthropic bekritiseerde.
“Ik dacht dat Anthropic doublespeak misleidende reclame gebruikte om bedrieglijke en onwerkelijke theoretische reclame te bekritiseren, maar de Super Bowl-advertentie was niet wat ik had verwacht”, schreef hij, eraan toevoegend dat de advertentie vrije toegang zou blijven toestaan, wat volgens hem “agentschap” creëert.
Medewerkers van rivaliserende bedrijven – Hitzig en Sharma – uitten beiden hun ernstige bezorgdheid over de erosie van de leidende principes die zijn vastgesteld om de integriteit van AI te behouden en de gebruikers ervan tegen manipulatie te beschermen.
Hitzig schreef dat de potentiële “erosie van de OpenAI-principes voor het maximaliseren van de betrokkenheid” mogelijk al aan de gang is bij het bedrijf.
Sharma zei dat hij zich zorgen maakte over het vermogen van AI om ‘de mensheid te vervormen’.
© 2026 Global News, een divisie van Corus Entertainment Inc.



