Home Nieuws Om deze reden veranderde het beveiligingsbeleid van Anthropic AI

Om deze reden veranderde het beveiligingsbeleid van Anthropic AI

3
0
Om deze reden veranderde het beveiligingsbeleid van Anthropic AI

Toen Anthropic een paar jaar geleden van start ging, voorzag het bedrijf een sectorbrede ‘race naar de top’. kunstmatige intelligentiein plaats van te strijden om klanten en marktdominantie, wat onbedoeld enorme veiligheidsrisico’s met zich mee zou brengen.

Daarom nam Anthropic veiligheidsprincipes en -beleid over waarvan het verwachtte dat zijn concurrenten dat zouden overnemen. In sommige gevallen doen bedrijven, waaronder Google en OpenAI, hetzelfde, aldus Anthropic. De verwachtingen van Anthropic ‘werkten’ echter niet zoals het bedrijf had gehoopt, aldus een woordvoerder blogpost dinsdag gepubliceerd.

De post kondigde aan dat Anthropic, maker AI-chatbot Claudehet veranderen van belangrijke veiligheidspraktijken om de uitdagingen van vandaag aan te kunnen.

Concreet stopt Anthropic niet langer automatisch de ontwikkeling van een model als dit als gevaarlijk wordt beschouwd; in plaats daarvan zullen ze de acties van hun concurrenten overwegen en of ze modellen met vergelijkbare mogelijkheden uitbrengen. Voorheen engageerde Anthropic zich voor waarborgen die het absolute risico van zijn modellen zouden verminderen, ongeacht of andere AI-ontwikkelaars hetzelfde deden.

“De beleidsomgeving is verschoven naar het prioriteren van AI-concurrentievermogen en economische groei, terwijl veiligheidsgerichte discussies op federaal niveau geen betekenisvolle grip hebben gekregen”, schreef het bedrijf. “We blijven ervan overtuigd dat effectieve betrokkenheid van de overheid bij de veiligheid van AI noodzakelijk en haalbaar is, en we streven ernaar discussies te blijven bevorderen op basis van bewijsmateriaal, nationale veiligheidsbelangen, economisch concurrentievermogen en vertrouwen van het publiek. Maar dit is een langetermijnproject gebleken – niet iets dat op natuurlijke wijze gebeurt naarmate AI capabeler wordt of een bepaalde drempel overschrijdt.”

Hoewel Anthropic zegt dat het voorop wil blijven lopen op het gebied van veiligheid, weerspiegelt zijn laatste besluit de razendsnelle snelheid waarmee concurrenten nieuwe modellen op de markt brengen.

Anthropic kwam deze week ook onder zware druk te staan ​​van het Amerikaanse ministerie van Defensie druk uitoefenen op het bedrijf om het leger in staat te stellen zijn AI-instrumenten voor welk doel dan ook te gebruiken, inclusief massasurveillance of het gebruik van autonome wapens zonder menselijk toezicht.

Anthropic heeft op deze punten niet toegegeven tijdens de contractonderhandelingen met het ministerie van Defensie, wat naar verluidt de woede heeft gewekt van minister van Defensie Pete Hegseth, die dreigde de banden van het bedrijf met het leger te verbreken. Axio rapport.

Anthropic heeft samen met Google, OpenAI en xAI deelgenomen aan een AI-pilotprogramma voor analyse van militair gerelateerde beelden. volgens New York Times. Hoewel Claude de enige chatbot is die op geheime overheidssystemen werkt, zei een functionaris van het Pentagon dat Anthropic zou kunnen worden vervangen door een ander bedrijf.


Openbaarmaking: Ziff Davis, het moederbedrijf van Mashable, spande in april 2025 een rechtszaak aan tegen OpenAI en beschuldigde het bedrijf ervan het auteursrecht van Ziff Davis te schenden op het gebied van de training en werking van zijn AI-systeem.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in