Home Nieuws Anthropic laat zijn kenmerkende veiligheidsbelofte vallen te midden van een verhitte AI-race

Anthropic laat zijn kenmerkende veiligheidsbelofte vallen te midden van een verhitte AI-race

6
0
Anthropic laat zijn kenmerkende veiligheidsbelofte vallen te midden van een verhitte AI-race

Anthropic durft niet meer anders te zijn.

AI-startup opgericht door ex Open AI werknemers, die zich sterk concentreerden op het ontwikkelen van geschikte technologie, ondermijnden de fundamentele veiligheidsprincipes ervan.

In een verklaring op dinsdag zei Anthropic dat het, te midden van de toenemende concurrentie en een gebrek aan overheidsregulering, niet langer zou voldoen aan zijn belofte “om te stoppen met het opschalen en/of de inzet van nieuwe modellen uit te stellen” wanneer dergelijke vooruitgang zijn eigen veiligheidsmaatregelen te boven gaat.

Dit nieuwe beleid betekent dat Anthropic niet langer wordt beperkt door veiligheidsproblemen wanneer zijn vlaggenschip chatbot, Claudewaardoor de financiële markten op hun kop worden gezet en de angst voor een software-shutdown wordt aangewakkerd.

Als onderdeel van die veranderingen heeft Anthropic nu afzonderlijke veiligheidsaanbevelingen, het Responsible Scaling Policy genoemd, voor zichzelf en de AI-industrie als geheel. Dit beleid volgt min of meer de normen voor bioveiligheidsniveau (BSL) van de Amerikaanse overheid

Jared Kaplan, Chief Science Officer van Anthropic, vertelde Time Magazine dat het verantwoorde schaalbeleid niet past bij de huidige stand van zaken op het gebied van AI-concurrentie.

“We hadden het gevoel dat het niemand zou helpen als we zouden stoppen met het trainen van AI-modellen”, zegt Kaplan op de hoogte gebracht Tijd. “We waren van mening dat het, gezien de snelle vooruitgang van AI, voor ons geen zin had om een ​​eenzijdige toezegging te doen … als de concurrentie voorop zou lopen.”

Het nieuwe beleid omvat nog steeds een toezegging om de ontwikkeling of lancering van ‘zeer capabele’ AI-modellen uit te stellen, maar alleen in beperktere omstandigheden.

In zijn lange blogpost noemde Anthropic een ‘anti-regulerend politiek klimaat’ als een van de redenen voor zijn besluit. Bedrijf en zijn CEO, Dario Amodeiheeft met enig succes op staatsniveau aangedrongen op AI-regulering, maar zonder grote stappen op federaal niveau.

“We blijven ervan overtuigd dat effectieve overheidsbetrokkenheid bij AI-veiligheid noodzakelijk en haalbaar is, en we streven ernaar gesprekken te blijven bevorderen die gebaseerd zijn op bewijsmateriaal, nationale veiligheidsbelangen, economisch concurrentievermogen en publiek vertrouwen”, aldus het bedrijf. schrijven. “Maar dit is een langetermijnproject gebleken – niet iets dat op natuurlijke wijze gebeurt naarmate AI capabeler wordt of een bepaalde drempel overschrijdt.”

Het bedrijf zei dat het schaalbeleid altijd bedoeld was als een ‘levend document’, zoals uiteengezet in de eerste versie in 2023. Amodei zei echter eerder dat het veiligheidsbeleid bedoeld was om de risico’s die AI zou kunnen opleveren te verminderen – waarbij hij zelfs de beroemde berisping van oom Ben aan het adres van Peter Parker, ook bekend als Spider-Man, aanhaalde.

“De kracht van het model en zijn vermogen om allerlei problemen op het gebied van de biologie, de neurowetenschappen, de economische ontwikkeling, de overheid en de vrede, het grootste deel van de economie, op te lossen, brengen ook allemaal risico’s met zich mee, nietwaar?” Amodei vertelde podcaster Lex Fridman in november 2024. “Met grote macht komt een grote verantwoordelijkheid.”

Anthropic zei dat een andere reden voor het wijzigen van de norm is dat de hogere theoretische risiconiveaus, ASL-4 en hoger, in hun raamwerk niet door één bedrijf alleen kunnen worden opgevangen. (In de wereld van bioveiligheid verwijst BSL-4 naar het hoogste beschermingsniveau dat door een klein aantal laboratoria wordt geïmplementeerd om ziekteverwekkers zoals het Ebola-virus aan te pakken.)

Veiligheid vormt de kern van de antropische ziel

Amodei heeft herhaaldelijk gezegd dat de inzet van zijn bedrijf op het gebied van veiligheid duidelijk bleek uit een van de eerste grote beslissingen: het uitstellen van de vrijlating van Claude tot de zomer van 2022.

Terugkijkend op de verhuizing zei Amodei dat Anthropic bezorgd was dat het niet snel genoeg bescherming kon ontwikkelen om de baanbrekende technologie aan het publiek vrij te geven. OpenAI vrijgegeven GPT-chat in november 2022 start de AI-race. Enkele maanden later liet Anthropic Claude eindelijk vrij.

“Nu is het commercieel erg duur”, zei Amodei in een recent interview met miljardair en investeerder Nikhil Kamath. “Misschien lopen we daardoor voorop op het gebied van consumenten-AI.”

Beleidsveranderingen vinden ook antropisch plaats gezicht druk van het Pentagon over de beperkingen die de startup heeft op het gebruik van zijn AI-modellen. Amodei had dinsdag een ontmoeting met minister van Defensie Pete Hegseth om de kwestie te bespreken. Anthropic heeft vrijdag te maken met een deadline, anders zou Hegseth naar verluidt een beroep kunnen doen op de macht om het bedrijf te dwingen zich terug te trekken.

Naar een van Claude’s eerdere trainingsdocumenten werd intern verwezen als “Zielsdocument”, een voorbeeld van retoriek die niet van toepassing is op de meeste andere AI-bedrijven.

Kamath drong er bij Amodei op aan hoe hij zou reageren op critici die zeggen dat Anthropic alleen maar regelgeving doorvoert om de toekomstige groei van concurrenten tegen te houden. Amodei zei dat het besluit uit 2022 een voorbeeld is van hoe het bedrijf zijn toespraak over veiligheid ondersteunt. Hij wees ook op het Amerikaanse pleidooi voor exportcontroles op geavanceerde chips naar China, een positie die wordt bekleed door de CEO van Nvidia. Jensen Huang heeft bekritiseerd.

“Iedereen die denkt dat wij er baat bij hebben dat we de enigen zijn die dit doen, kan er moeilijk de vinger op leggen waar dat naartoe gaat”, zegt Amodei. “Je kijkt naar een van deze en: ‘Oké, prima’, maar je hebt er genoeg bij elkaar gezet, en ik weet het niet, ik vraag je om ons te beoordelen op basis van onze daden.”



Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in