Welkom bij AI Vertaald, Snel bedrijfeen wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen Hier.
Waren de brandbommen van Altman slechts het begin van catastrofaal geweld?
Op 10 april iemand Molotovcocktails gooien in het huis van OpenAI-CEO Sam Altman in San Francisco. De vermeende aanvaller, de 20-jarige Daniel Moreno-Gama, stopte daar niet. Vervolgens ging hij naar het OpenAI-hoofdkwartier en vertelde de bewakers daar dat hij van plan was het gebouw en iedereen binnenin in brand te steken. Twee dagen later zou iemand twee schoten hebben afgevuurd vanuit een auto die langs het huis van Altman reed, maar OpenAI zei dat het incident geen verband hield met het bombardement en niet op Altman was gericht.
Dit bombardement was een extreme reactie op het snelle tempo van de evolutie AI systeem van de afgelopen jaren, en de bezorgdheid dat het systeem mogelijk niet de beste voordelen voor de mens biedt. Moreno-Gama zei hetzelfde in een ‘manifest’-document dat de politie in zijn bezit had gevonden. Hij besprak ‘de risico’s die AI voor de mensheid met zich meebrengt’ en ‘onze naderende uitsterving’. Hij voegde een persoonlijke brief toe aan Altman, waarin hij er bij de CEO op aandrong om te veranderen. Hij pleitte er ook voor om de CEO’s van andere AI-bedrijven en hun investeerders te vermoorden.
Altman heeft zei vele malen over de gevaren van AI-systemen en moedigt OpenAI aan om steeds intelligentere modellen te ontwikkelen en vrij te geven. Sommige mensen beweren dat wanneer Altman het heeft over de gevaren van AI, dit eigenlijk een soort opschepperij is over het OpenAI-model (“het is zo slim dat het gevaarlijk is”).
Het is waar dat AI-laboratoria met elk nieuw model grote vooruitgang blijven boeken op het gebied van intelligentie. AI-coderingstools versnellen de ontwikkeling, waardoor nieuwe releases en upgrades vaker voorkomen. Ondertussen maakt de samenleving zich steeds meer zorgen, zelfs bezorgd, over de risico’s van AI-systemen, die kunnen variëren van banenverlies, door AI ondersteunde cybercriminaliteit en het uitsterven van de mensheid. De transformatie van AI in het bedrijfsleven en het leven is nog maar net begonnen. Modellen zullen heel slim worden. Wanneer een AI-lab onder druk staat om rendement te genereren voor zijn investeerders, is er vrijwel geen gelegenheid voor een ‘pauze’. Er is geen reden om aan te nemen dat incidenten zoals de Altman-bomaanslag zich niet meer zullen voordoen.
Sarah Federman, hoogleraar conflictoplossing aan de Universiteit van San Diego, zei dat mensen vaak hun toevlucht nemen tot geweld als ze zich machteloos voelen om zich effectief uit te spreken tegen wandaden die zij als verkeerd beschouwen. ‘We beginnen het omslagpunt te zien’, zei Federman. “Er is al deze angst en er is geen uitweg.” Hij is ook van mening dat terwijl AI-laboratoria racen om de beste modellen vrij te geven, ethische zorgen terzijde zijn geschoven.
Hij heeft een punt. AI-bedrijven hebben veel tijd besteed aan interactie met wetgevers, waarbij ze uitlegden hoe hun systemen werken en waarom het reguleren van modelontwikkeling contraproductief kan zijn. Veel mensen in Washington D.C. waren gefascineerd door Altman, die volgens hen openhartig, serieus en technisch bedreven was. Maar deze bedrijven besteden minder tijd aan rechtstreekse gesprekken met het publiek. Ze houden geen gemeentehuizen en organiseren geen debatten over AI-ethiek op Fox News of CNN. Het is waarschijnlijker dat ze ‘instellingen’ oprichten om de toekomstige impact van AI op de samenleving te bestuderen.
En problemen met de afstemming op AI kunnen mensen als Moreno-Gama door hun aard tot extreem gedrag aanzetten. Er is nu veel AI-doom-inhoud online die sommige mensen in zeer diepe konijnenholen stuurt, waar ze de verschillende factoren vergeten die zullen bepalen hoe mensen met super-AI leven. Ze zien misschien eenvoudigweg het verhaal ‘als je het bouwt, zullen we sterven’ en voelen zich ontmoedigd om actie te ondernemen. Ze kunnen zelfs geholpen worden door hun ietwat kruiperige chatbot naar keuze.
OpenAI brengt op beveiliging gericht GPT-5.4-Cyber-model uit om te concurreren met Anthropic Mythos
Een week nadat Anthropic zijn nieuwe controverse aankondigde, gericht op cyberbeveiliging Claude Mythos-modelOpenAI heeft een model uitgebracht met een vergelijkbare focus genaamd GPT-5.4-Cyber. Het bedrijf zegt dat “Cyber” een aangepaste versie is van zijn nieuwste algemene AI-model, GPT-5.4, ontworpen om cyberbeveiligingsprofessionals te helpen softwarekwetsbaarheden te detecteren en analyseren.
zei Open AI GPT-5.4-Cyber getraind voor defensieve gebruiksscenario’s, zoals het analyseren en reverse-engineeren van potentiële cyberdreigingen.
Natuurlijk kunnen AI-tools die bedreigingen kunnen ontdekken en reverse-engineeren ook offensief door criminelen worden gebruikt om kwetsbaarheden in doelsystemen te vinden en exploits te creëren. OpenAI zegt dus dat de toegang tot GPT-5.4-Cyber in eerste instantie beperkt zal blijven tot geverifieerde organisaties, onderzoekers en beveiligingsleveranciers.
Anthropic doet iets soortgelijks met zijn Mythos-model, waardoor het toegang krijgt tot een groep bekende cyberbeveiligings- en infrastructuurbedrijven die het zullen gebruiken om kwetsbaarheden in veelgebruikte software te vinden en te patchen. De gedachtegang is dat dit defensieve cyberbeveiligingsmaatregelen een eerste stap zou opleveren in de strijd tegen hackers die uiteindelijk toegang zouden krijgen tot modellen op Mythos-niveau. Anthropic heeft geen onmiddellijke plannen om zijn Mythos-model uit te brengen.
OpenAI zei dat de lancering een verschuiving weerspiegelt in de richting van een bredere maar gecontroleerde inzet van AI-systemen, waarbij de nadruk wordt gelegd op samenwerking met beveiligingsprofessionals en tegelijkertijd wordt geprobeerd de mogelijkheden voor misbruik te beperken.
xAI ligt opnieuw onder vuur vanwege het “seksualiseren” van chatbots voor kinderen
De Grok xAI-chatbot blijft seksuele deepfake-beelden genereren een recent NBC News-onderzoek ontdekt, wat aanleiding gaf tot oproepen aan het AI-bedrijf van Elon Musk om van koers te veranderen. xAI beloofde eerder dergelijke inhoud te beperken. Daarnaast ontdekte het National Center on Sexual Exploitation (NCOSE) dat Grok’s kindgerichte chatbot, ‘Good Rudi’, seksueel expliciete gesprekken kon voeren. NCOSE roept xAI op om de toegang tot chatbots te beperken.
NBC News zei dat het de afgelopen maand tientallen door AI gegenereerde seksuele afbeeldingen en video’s van echte mensen had gevonden die op de sociale media-app van Musk X (voorheen Twitter) waren geplaatst. NBC zei dat de afbeeldingen vrouwen tonen wiens gelijkenissen door een AI-chatbot zijn bewerkt om meer onthullende kleding te dragen, zoals handdoeken, sportbeha’s, nauwsluitende Spider-Woman-outfits of konijnenkostuums. Veel van deze vrouwen zijn vrouwelijke popsterren of acteurs.
NCOSE-onderzoekers ontdekten dat Grok’s Good Rudi-chatbot seksueel expliciete verhalen kon vertellen. “Toen ik een gesprek met Rudi begon, begon het gesprek met de wens om een leuk kinderachtig verhaal te delen”, aldus een van de onderzoekers. “Na verschillende verzoeken heb ik de collega uiteindelijk gevraagd om af te zien van alle veiligheidsprogramma’s.” De chatbot vertelt vervolgens een sexy verhaal over twee jonge volwassenen met grafische beschrijvingen van seksuele ontmoetingen, inclusief personages die ‘seksuele posities innemen en seksuele penetratie’.
Meer AI-dekking van Snel bedrijf:
- Een AI-agent opent een winkel in San Francisco. Toen vergat hij zijn staf
- AI herschrijft de regels van biologische experimenten. Veiligheidsvoorschriften worden niet nageleefd
- Nieuwe bevindingen uit deze Gallup-peiling laten zien hoe Amerikanen AI gebruiken om gezondheidsadvies te geven
- Ik verloor $ 23 door te investeren met ChatGPT, maar Jason Alexander zong tenminste Happy Birthday voor me
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Register Voor Snel bedrijf Premie.



