Welkom bij AI Vertaald, Snel bedrijfeen wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen Hier.
Heeft Anthropic zojuist het engste AI-model tot nu toe gelanceerd?
Dinsdag maakte Anthropic bekend dat ze hun nieuwste en sterkste zouden inzetten AI model, Claude Mythos Preview, naar het nieuwe initiatief van de industrie (Project Glasswing) is bedoeld om kritieke software-infrastructuur te beschermen tegen cyberaanvallen. Dat klinkt geweldig, maar het vertroebelt enigszins het echte nieuws: dat een van de drie grootste AI-laboratoria nu een model heeft ontwikkeld dat, in de verkeerde handen, een zeer gevaarlijk cyberwapen zou kunnen zijn.
Tijdens normale modeltraining begint het model aanzienlijke vaardigheden te tonen in het detecteren van bugs in softwaresystemen en het exploiteren van die bugs om het systeem te verstoren of er controle over te krijgen. Hij ontdekte een 27 jaar oude kwetsbaarheid in OpenBSD en exploiteerde deze om root-toegang te verkrijgen. Het ontdekte een 16 jaar oude FFmpeg-fout die geautomatiseerde tools na vijf miljoen tests hadden gemist. Misschien wel het meest indrukwekkend was dat hij exploits wist te creëren aan elkaar rijgen sommige softwarekwetsbaarheden die op zichzelf niets zullen doen. Het doet dit op Linux-systemen om toegang op beheerdersniveau te krijgen. Interpretatieonderzoekers vinden ook gevallen waarin modellen tijdens het testen misleidend of manipulatief gedrag vertonen. In één geval ontdekte en gebruikte Mythos een misbruik van privilege-escalatie en ontwierp vervolgens een mechanisme om sporen van het gebruik ervan te verwijderen.
Anthropic zei dat het toegang zal bieden tot het Mythos-model aan een selecte groep technologiebedrijven, waaronder Apple en Cisco, samen met ongeveer 40 extra organisaties die kritieke software-infrastructuur bouwen of onderhouden. Dit zou hetzelfde zijn als een defensieaannemer die een superdodelijke raket lanceert die elk doel op aarde kan raken, maar erop aandringt dat de raket alleen wordt gedistribueerd naar een kleine groep vertrouwde landen en alleen voor defensiedoeleinden wordt gebruikt.
Maar het grotere verhaal kan zijn dat Anthropic een model heeft gecreëerd met veel meer intelligentie dan welk model dan ook dat we eerder hebben gezien. Antropische CEO Dario Amodei heeft herhaaldelijk gezegd dat er binnenkort modellen van gelijke of betere intelligentie zullen komen. “Er is een soort exponentiële versnelling, maar langs die exponentiële versnelling zijn er belangrijke punten”, zei hij in een video die dinsdag door het bedrijf werd vrijgegeven. “Claude Mythos preview is een grote sprong voorwaarts”
Misschien is de beperkte lancering van Mythos als defensief middel voor cyberbeveiliging Anthropic’s manier om mensen te laten wennen aan het idee dat ze een model creëren dat kunstmatige algemene intelligentie benadert, waarbij AI-systemen bij de meeste taken de menselijke intelligentie evenaren of zelfs overtreffen.
We bespreken al jaren hoe we AI-systemen in lijn kunnen houden met menselijke waarden en doelen, maar de discussies zijn grotendeels abstract gebleven. De sector rekent daarop en betoogt in feite dat we moeten wachten om te zien hoe risico’s zich daadwerkelijk uiten voordat we bindende regels vaststellen. Anthropic kan aantonen dat deze risico’s niet langer hypothetisch zijn.
Anthropic is waarschijnlijk ook huiverig voor het vrijgeven van modellen die, in de verkeerde handen, zouden kunnen dienen als massavernietigingswapens. In het ergste geval kan het door vijandige statelijke actoren worden gebruikt om te infiltreren en de controle over kritieke informatiesystemen over te nemen, inclusief systemen die de financiële markten ondersteunen. Cyberaanvallers vertrouwen al op software om interne netwerken, websites en applicaties te scannen op kwetsbaarheden, wat vaak dezelfde tools zijn die door verdedigers worden gebruikt. Ze combineren dergelijke tools steeds vaker met grote taalmodellen om processen te automatiseren, agenten te bouwen die zwakke punten kunnen identificeren en zelfs exploits kunnen genereren. Ter vergelijking: Claude Mythos zal waarschijnlijk veel krachtiger en autonomer zijn dan alles wat momenteel beschikbaar is voor cybercriminelen.
Maar dat zal veranderen. Toekomstige versies van bestaande modellen zoals DeepSeek zullen Mythos waarschijnlijk inhalen, en wel binnen enkele maanden, niet jaren. “Er zullen sterkere modellen van ons en anderen komen, dus we hebben een plan nodig om hierop te reageren”, zei Amodei in de video. Er wordt zelfs verwacht dat er in de komende weken een aankomend OpenAI-model, genaamd “Spud”, zal verschijnen, dat de redeneer- en probleemoplossende capaciteiten van Mythos zou kunnen evenaren.
In een interview met VentureBeatNewton Cheng, Red Team Cyber Lead van Frontier Anthropic, is openhartig over de risico’s van dit toekomstige model. “De impact – op de economie, de openbare veiligheid en de nationale veiligheid – zou ernstig kunnen zijn”, zei hij. Zijn gebruik van het woord ‘ondergang’ suggereert een soort cyberaanval waar ik niet aan wil denken.
Vanwege deze duidelijke cyberveiligheidsrisico’s is Anthropic van plan Claude Mythos strak te controleren, met beperkte toegang tot Glasswing-projectdeelnemers. Het lockdown-model roept echter ook zorgen op. Nog geen twee weken geleden onthulde het bedrijf per ongeluk details over Mythos nadat een medewerker het contentmanagementsysteem verkeerd had geconfigureerd. Er zijn geen broncode of modelgewichten vrijgegeven, maar de aflevering wekt nauwelijks vertrouwen in het vermogen van Anthropic om deze te beveiligen. En aanvallers zullen gemotiveerd zijn om het te proberen. Het is ook mogelijk dat het ‘lek’ niet toevallig ontstond, maar deel uitmaakte van een bredere ‘soft launch’-strategie.
Wat we weten over het volgende grote model van OpenAI, ook bekend als ‘Spud’
OpenAI-president Greg Brockman en CEO Sam Altman hebben wat informatie gegeven over het nieuwste model van hun bedrijf, met de codenaam ‘Spud’. De echte naam van het model zou zoiets kunnen zijn als GPT-5.5 of, waarschijnlijker, GPT-6. En het zou binnen een paar weken kunnen worden vrijgegeven. Van Spud wordt verwacht dat het zorgt voor sterkere agentencapaciteiten, meer autonoom gedrag, betere planning en uitvoering in meerdere stappen, en minder fouten, evenals beter multimodaal redeneren en minder hallucinaties.
Brockman zei dat Spud het product is van twee jaar onderzoek. Hij noemt het ‘nieuwe pre-training’, wat suggereert dat OpenAI het basismodel en de manier waarop het leert fundamenteel heeft veranderd, in plaats van hetzelfde model te gebruiken en zaken als optimalisatie of prestatieaanpassingen toe te voegen.
OpenAI-onderzoekers voltooiden de pre-training van het model op 26 maart, zei Brockman. Spud-training moet een grote hoeveelheid rekenkracht hebben vereist, aangezien OpenAI naar verluidt zijn Sora-video-app heeft afgesloten om meer GPU’s vrij te maken voor de inspanning. Onderzoekers bevinden zich nu in de post-trainingsfase, die maatwerk en beveiligingstests omvat.
Brockman zei dat OpenAI met Spud de komende jaren een “blik op AGI zal werpen”. CEO Sam Altman vertelde het personeel dat het model “zeer krachtig” is en “de economie echt kan versnellen.” OpenAI heeft geen officiële benchmarks gedeeld met betrekking tot de prestaties van de Spud, maar het is waarschijnlijk dat de Spud zal wedijveren met het nieuwe Mythos-model van Anthropic. Toen was het de beurt aan Google Deepmind om de benchmarks te overtreffen met het nieuwe Gemini-model.
Onderzoek: Slechts 10 minuten AI-hulp kan je dommer maken
Onderzoekers van Carnegie Mellon, Oxford, MIT en UCLA ontdekten dat mensen na tien minuten AI-hulp slechter presteerden en vaker opgaven dan degenen die nog nooit AI hadden gebruikt. De onderzoekers vroegen 1.200 mensen om breukproblemen op te lossen of vragen over begrijpend lezen te beantwoorden. De helft daarvan mag AI-assistenten gebruiken. Vervolgens vroegen de onderzoekers beide groepen gebruikers dezelfde test uit te voeren.
De onderzoekers ontdekten dat de AI-ondersteunde groep op de eerste test beter scoorde dan de niet-AI-groep. Toen de groep bij de tweede test echter geen AI kreeg, waren hun scores veel slechter vergeleken met de controlegroep (die geen AI gebruikte). Ze gaven het ook vaker op dan niet-AI-gebruikers bij het testen van vragen. Het gebruik van AI gedurende slechts 10 minuten bij de eerste test zou de prestaties en doorzettingsvermogen van de testpersonen bij de tweede test kunnen verminderen, voegde de onderzoekers eraan toe.
Onderzoekers zeggen dat dit vooral zorgwekkend is omdat gebruikers een zekere mate van doorzettingsvermogen nodig hebben om nieuwe vaardigheden te leren. Doorzettingsvermogen is een goede voorspeller van leren op lange termijn, zeggen ze. “AI zorgt ervoor dat je onmiddellijke antwoorden verwacht, waardoor die vragen worden geëlimineerd productief strijd die echte competentie opbouwt”, zei een van de onderzoekers, Michiel Bakker van MIT, dinsdag in een X-post.
Hoe proefpersonen die AI gebruiken is belangrijk. Degenen die het gebruikten om duidelijke antwoorden te krijgen (61% van de testpersonen) lieten de scherpste daling zien in zowel de prestaties als de bereidheid om het te blijven proberen. Mensen die AI alleen als leidraad gebruiken, zullen betere resultaten behalen.
“Wij beweren dat de volharding afneemt omdat AI mensen conditioneert zodat ze onmiddellijke antwoorden verwachten, waardoor ze geen ervaring hebben met het zelfstandig overwinnen van uitdagingen”, schreven de onderzoekers. Ze stellen dat AI-tools meer als menselijke mentoren zouden moeten fungeren, die in sommige situaties voorrang geven aan de groei van gebruikers op de lange termijn boven het voltooien van taken op de korte termijn.
In bredere zin plaatst dit onderzoek een stukje wetenschap achter de angst dat mensen een groter deel van hun hersenwerk aan AI zullen uitbesteden, waardoor ze zichzelf uiteindelijk aan de zijlijn van het moderne bedrijfsleven en andere menselijke problemen zullen plaatsen.
Meer AI-dekking van Snel bedrijf:
- Rana el Kaliouby over waarom AI een menselijker toekomst nodig heeft
- 20 seconden om een militaire aanval goed te keuren; 1,2 seconden om een zorgverzekeringsclaim te weigeren. De mens bevindt zich in de AI-cirkel. De mensheid niet
- OpenAI waarschuwt Elon Musk voor escalerende aanvallen naarmate hun processen dichterbij komen
- De CEO van Y Combinator zegt dat hij 37.000 regels AI-code per dag verzendt. Een ontwikkelaar kijkt onder de motorkap
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Register Voor Snel bedrijf Premie.


