Home Nieuws Na de antropische mythe heeft OpenAI een nieuw cyberbeveiligingsmodel en -strategie

Na de antropische mythe heeft OpenAI een nieuw cyberbeveiligingsmodel en -strategie

4
0
Na de antropische mythe heeft OpenAI een nieuw cyberbeveiligingsmodel en -strategie

Open AI op dinsdag kondigde de volgende fase aan van zijn cyberbeveiligingsstrategie en een nieuw model dat speciaal is ontworpen voor gebruik door digitale verdedigers, GPT-5.4-Cyber.

Het nieuws volgt op de aankondiging van vorige week door concurrent Anthropic dat het nieuw is Claude Mythos-preview het model wordt voorlopig alleen privé vrijgegeven, omdat dat volgens het bedrijf zou kunnen gebeuren uitgebuit door hackers en kwaadwillende actoren. Anthropic kondigde ook een branchecoalitie aan, inclusief concurrenten als Google, die zich richt op de manier waarop generatieve AI-vooruitgang over de hele linie de cyberveiligheid zal beïnvloeden.

OpenAI leek dinsdag te proberen zijn boodschap te differentiëren door een minder cataclysmische toon aan te slaan en de bestaande vangrails en verdedigingsmechanismen aan te prijzen, terwijl hij hintte op de behoefte aan meer geavanceerde bescherming op de lange termijn.

“Wij zijn van mening dat de soorten bescherming die momenteel worden gebruikt het cyberrisico voldoende verminderen om een ​​brede acceptatie van de huidige modellen te ondersteunen”, schreef het bedrijf in een blogpost. “We verwachten dat deze versie van bescherming in de toekomst geschikt zal zijn voor krachtigere modellen, terwijl modellen die expliciet zijn getraind en toleranter zijn geworden voor cyberbeveiligingswerk een strengere implementatie en passende controles zullen vereisen. Op de lange termijn voorzien we, om de veiligheid van AI in cyberbeveiliging te garanderen, ook de behoefte aan bredere verdediging voor toekomstige modellen, waarvan de capaciteiten snel de beste, speciaal gebouwde modellen van vandaag zullen overtreffen.”

Het bedrijf zegt dat het drie pijlers heeft geïmplementeerd in zijn cybersecurity-aanpak. De eerste betreft een zogenaamd ‘ken uw klant’-validatiesysteem om gecontroleerde toegang mogelijk te maken tot nieuwe modellen die zo breed en ‘gedemocratiseerd’ mogelijk zijn. “We hebben een mechanisme ontworpen dat voorkomt dat er willekeurige beslissingen worden genomen over wie toegang krijgt voor geautoriseerd gebruik en wie niet”, schreef het bedrijf dinsdag. OpenAI combineert een partnerschapsmodel met geselecteerde organisaties in beperkte releases met een geautomatiseerd systeem dat in februari werd geïntroduceerd, bekend als Trusted Access for Cyber ​​of TAC.

Het tweede onderdeel van de strategie omvat ‘iteratieve implementatie’, oftewel een ‘zorgvuldig’ proces van het uitrollen en vervolgens verfijnen van nieuwe mogelijkheden, zodat het bedrijf praktijkgerichte inzichten en feedback kan krijgen. De blogpost benadrukt specifiek “weerstand tegen jailbreak- en andere vijandige aanvallen, evenals verbeterde verdedigingsmogelijkheden.” Ten slotte ligt de derde focus op investeringen die volgens het bedrijf softwarebeveiliging en andere digitale verdedigingsmechanismen ondersteunen naarmate generatieve AI zich ontwikkelt.

OpenAI zei dat het initiatief past in zijn bredere beveiligingsinspanningen, waaronder een AI-agent voor applicatiebeveiliging die vorige maand werd gelanceerd, bekend als Codex Security, een subsidieprogramma voor cyberbeveiliging dat in 2023 begint, een recente donatie aan de Linux Foundation ter ondersteuning van open source-beveiliging, en een ‘Pareparedness Framework’ bedoeld om ‘ernstige bedreigingen van toonaangevende AI-capaciteiten’ te beoordelen en te verdedigen.

De bewering van Anthropic vorige week dat capabelere AI-modellen cyberbeveiligingsoverwegingen vereisen, is controversieel onder beveiligingsexperts. Sommigen zeggen dat deze zorgen overdreven zijn en zouden kunnen leiden tot een nieuwe golf van anti-hackersentiment – ​​een golf die de macht bij de technologiegiganten verder consolideert. Anderen benadrukken echter dat kwetsbaarheden en tekortkomingen in de hedendaagse veiligheidsverdediging algemeen bekend zijn en feitelijk met nieuwe snelheid en intensiteit kunnen worden uitgebuit door meer kwaadwillende actoren in het tijdperk van agentische AI.

Nieuwsbron

LAAT EEN REACTIE ACHTER

Vul alstublieft uw commentaar in!
Vul hier uw naam in