Open AI heeft nieuwe open source-beveiligingsinstructies voor ontwikkelaars aangekondigd, gericht op het uitrollen van massale implementatie van beleid ter bescherming van tieners.
Dat snel gebaseerd beveiligingspakket omvat modelbegeleiding over veelvoorkomende tienerrisico’s, aanbevelingen voor ontwikkelingsinhoud en voor de leeftijd geschikte begeleiding over onderwerpen als zelfbeschadiging, seksuele inhoud en romantisch rollenspel, gevaarlijke trends of virale uitdagingen, en gevaarlijke lichaamsidealen.
OpenAI zegt dat dit een krachtiger alternatief is voor de begeleiding op hoog niveau die het eerder bood, geformatteerd als opdrachten die rechtstreeks op het AI-systeem aansluiten.
OpenAI heeft in december nieuwe U-18-principes toegevoegd aan zijn modelspecificaties. Een paar maanden eerder maakte het bedrijf bekend gpt-oss-beveiligingeen open gewogen redeneermodel dat is ontworpen om ontwikkelaars te helpen bij het implementeren van veiligheidsvoorwaarden en het classificeren van veilige en onveilige inhoud. In tegenstelling tot traditionele veiligheidsclassificatieprocessen kan gpt-oss-safeguard rechtstreeks in het veiligheidsbeleid van een platform worden opgenomen en de bedoeling van het beleid afleiden door de juiste output te differentiëren.
Maar “zelfs ervaren teams hebben vaak moeite om veiligheidsdoelen op hoog niveau te vertalen naar nauwkeurige operationele regels, vooral omdat dit zowel expertise op het terrein als diepgaande kennis van AI vereist”, aldus OpenAI in haar laatste persbericht. “Dit kan leiden tot lacunes in de bescherming, inconsistente handhaving of een te brede screening. Duidelijk en goed gedekt beleid is een belangrijke basis voor een effectief veiligheidssysteem.”
Vernietigbare snelheid van het licht
Er zijn aanvullende ontwikkelaarspakketten ontworpen in samenwerking met non-profitorganisaties Common Sense Media en alles.ai.
Deskundigen hebben ouders gewaarschuwd voor overmatige blootstelling aan chatbots bij kwetsbare tieners en tieners zelfs kleine kinderenterwijl AI-bedrijven de impact van hun modellen proberen aan te pakken geestelijke gezondheid van de gebruiker. Vorig jaar werd OpenAI aangeklaagd door de ouders van tiener Adam Raine in de branche het eerste geval van onrechtmatige doodwaarbij de familie van Raine beweerde dat een combinatie van ChatGPT-sycofantie en een laks veiligheidsbeleid verantwoordelijk waren voor de zelfmoord van hun zoon. Het bedrijf heeft ontkende beschuldigingen van wangedrag en als reactie hierop is het toegenomen geestelijke gezondheid en veiligheidsvoorzieningen voor tieners, incl leeftijd garantie. Toch hebben externe ontwikkelaars die licenties voor OpenAI-modellen hebben, moeite gehad om hetzelfde niveau van veiligheidsmaatregelen te handhaven, ook in dit geval AI-aangedreven kinderspeelgoed.
De zaak tegen OpenAI volgde meerdere rechtszaken tegen controversiële platforms Karakter.AI en bereidde de weg voor een recente rechtszaak wegens onrechtmatige dood ingediend tegen OpenAI-concurrent Google en zijn Gemini AI-assistent.
Industriële, technologie- en socialemediabedrijven worden geconfronteerd met grote juridische uitdagingen met betrekking tot de langetermijnimpact van hun producten op gebruikers. Vorige maand zei Instagram-CEO Adam Mosseri en hoofd van Meta Mark Zuckerberg getuigt voor een jury in een baanbrekende zaak waarin een platform voor sociale media terechtstond vanwege zijn zogenaamd verslavende ontwerpprincipes. Er is een vonnis nog niet bereikt.
OpenAI zei dat het nieuwe pakket veiligheidsinstructies geen alomvattende of definitieve definitie of garantie is voor de veiligheid van tieners. Robbie Torney, hoofd van AI en digitale beoordeling bij Common Sense Media, zei dat het nieuwe beleid een “zinvolle beveiligingsfundament voor het ecosysteem” kan bouwen, waarmee een AI-beveiligingskloof wordt opgevuld die nog is verergerd door een gebrek aan operationeel beleid voor ontwikkelaars.
Ontwikkelaars kunnen het OpenAI-beveiligingsmodel downloaden op Knuffelend gezicht en toegang krijgen tot het nieuwe promptpakket GitHub.
Openbaarmaking: Ziff Davis, het moederbedrijf van Mashable, heeft in april een rechtszaak aangespannen tegen OpenAI en beschuldigd van het schenden van het auteursrecht van Ziff Davis op de training en werking van zijn AI-systeem.



