Welkom bij AI Vertaald, Snel bedrijfeen wekelijkse nieuwsbrief met het belangrijkste nieuws ter wereld AI. Je kunt tekenen om deze nieuwsbrief wekelijks per e-mail te ontvangen Hier.
Het standpunt van Anthropic over autonome wapens zal in de toekomst mogelijk geen stand houden
De meeste van de AI de wereld kijkt als antropist nauwlettend toe op gespannen voet met het Pentagon over hoe overheden het model van Claude kunnen gebruiken. Anthropic heeft een contract van 200 miljoen dollar met het Pentagon, maar in het contract staat dat het leger de AI-modellen van het bedrijf niet kan gebruiken als brein voor autonome wapens of voor massale surveillance van Amerikanen. Minister van Defensie Pete Hegseth benadrukte na het incident dat het leger het antropische model voor “alle wettige doeleinden” moet kunnen gebruiken.
Hegseth ontbood Dario Amodei, CEO van Anthropic, dinsdagochtend naar het Pentagon voor een bijeenkomst, waar hij naar verluidt tot 17.01 uur de tijd zou geven aan Anthropic. vrijdag om aan het verzoek van het Pentagon te voldoen. Als Anthropic dit niet doet, dreigt Hegseth een beroep te doen op de Defense Production Act om het AI-bedrijf te dwingen zijn modellen zonder vangrails te leveren. Hegseth zei ook dat de regering het antropische model tot een “toeleveringsketenrisico” zou verklaren, wat betekent dat alle overheidsleveranciers de opdracht zouden krijgen om het antropische model te vermijden of ermee te stoppen.
Amodei zei in een interview na de bijeenkomst van Hegseth dat zijn bedrijf niet van plan was aan de eisen van Hegseth te voldoen. (Hij had een goede reden: regeringsfunctionarissen gingen tenslotte akkoord met de voorwaarden.) Amodei legde uit dat het leger afhankelijk is van het menselijk oordeel om te voorkomen dat de grondwettelijke rechten van mensen worden geschonden. Als AI de beslissingen zou nemen, zouden geen mensen bezwaar maken.
Amodei heeft gelijk, en de bereidheid van zijn bedrijf om op te komen voor zijn waarden is lovenswaardig. Het probleem is dat we op weg zijn naar een toekomst waarin autonome systemen de norm worden in oorlogsvoering.
Jarenlang heeft het defensie-establishment gesproken over het ‘op de hoogte houden van mensen’ in AI-wapensystemen. Vaak is die mens een overheidsjurist die input kan leveren over regels van betrokkenheid op het slagveld. Tegenwoordig praat het Pentagon meer over autonome wapens die meer een ‘kill chain’ kunnen beheren, of een reeks communicaties en beslissingen rond de vernietiging van een doelwit. Militaire leiders zeggen vaak dat wie technologie kan gebruiken om de moordketen te verkorten, de oorlog zal winnen.
Dingen als elektronische oorlogsvoering (cyberoorlog), hypersonische raketten en drone-zwermen maken oorlog sneller en responstijden korter. Dit kan uiteindelijk de mogelijkheid voor menselijke beoordeling en besluitvorming belemmeren. Tegenwoordig kan het Amerikaanse leger gedwongen worden mensen uit te schakelen om concurrerend te blijven met zijn tegenstanders.
Het resultaat van de impasse van Anthropic met het Pentagon kan dus zijn dat veiligheidsbewuste AI-laboratoria worden gedwongen te verdwijnen, en dat over het algemeen minder scrupuleuze bedrijven zoals xAI als alternatief worden gekozen.
Trump verwierp het idee van Mark Kelly om nieuwe datacenters van stroom te voorzien
In zijn State of the Union-toespraak besteedde Donald Trump enkele minuten aan het bespreken van het onderwerp van nieuwe datacenters voor AI, dat de afgelopen maanden een hot issue is geworden voor kiezers. Ook al zegt de technologie-industrie dat ze honderden nieuwe datacenters nodig heeft om alle AI die ze bouwen te ondersteunen, steeds meer kiezers begrijpen nu dat de verbeteringen aan het elektriciteitsnet die nodig zijn om datacenters van stroom te voorzien, hun energierekening kunnen verhogen. “Ik heb onderhandeld over een nieuwe Ratepayer Protection Promise”, riep Trump uit. “We vertellen grote technologiebedrijven dat ze de plicht hebben om in hun eigen elektriciteitsbehoeften te voorzien.”
Politici zullen de boodschap misschien herkennen, omdat deze opvallend veel lijkt op wat senator Mark Kelly, een democraat uit Arizona, al maanden zegt. Kelly’s”AI voor AmerikaHet plan zou een door de industrie gefinancierd ‘AI Horizon Fund’ creëren om upgrades van het energienetwerk en de omscholing van arbeidskrachten te financieren.
Volgens Kelly’s plan zou het Congres van datacenterontwikkelaars kunnen eisen dat ze voldoende land kopen of leasen voor faciliteiten voor hernieuwbare energie en infrastructuur voor het voeden en koelen van datacenters. Exploitanten van datacenters kunnen mogelijk ook moeten betalen om hernieuwbare bronnen op het lokale elektriciteitsnet aan te sluiten, als de elektriciteit die ze opwekken niet wordt gebruikt.
Het idee van Trump is meer een suggestie. Voorlopig is dit niet bindend, het zijn slechts woorden. En er wordt niet vermeld hoe het technologiebedrijf zijn eigen elektriciteit zal opwekken. De XAI van Elon Musk brengt bijvoorbeeld een enorme eigen kracht met zich mee Gigantisch datacenter in Memphis. Helaas waren de turbines vuile, door methaan aangedreven turbines, en de faciliteit werd al snel een van de grootste in de regio vervuiler.
Veel jonge werkzoekenden in de technologiesector spieken bij vaardigheidstesten
Technische fraude dienst Volgens nieuw onderzoek van CodeSignal, dat een evaluatieplatform voor ontwikkelaarsvaardigheden beheert dat wordt gebruikt bij het inhuren van software-ingenieurs, zullen de beoordelingen in 2025 snel toenemen, waarbij het aantal fraudepogingen meer dan zal verdubbelen. Uit het onderzoek bleek dat 35% van de gecontroleerde beoordelingen het afgelopen jaar tekenen van bedrog of fraude vertoonde, tegenover slechts 16% in 2024. De grootste boosdoener? Plagiaat, iemand anders de toets voor je laten maken en het smokkelen van AI-tools die niet zijn toegestaan.
Deze piek is vooral zichtbaar bij kandidaten op instapniveau. Het fraudepercentage voor juniorfuncties is jaar na jaar bijna verdrievoudigd – van 15% naar 40% – waardoor het werven van jonge mensen een bijzonder kwetsbaar punt in de wervingspijplijn is geworden. In een persbericht bij het rapport gaf Tigran Sloyan, CEO en mede-oprichter van CodeSignal, de schuld aan de normalisatie van AI-tools, waarbij hij opmerkte dat 80% van de Gen Z-ers naar verluidt AI in hun dagelijks leven gebruikt, waardoor de grens tussen aanvaardbare hulp en fraude steeds vager wordt. “Toegankelijkheid tot AI maakt ongeautoriseerde hulp ook moeilijker op te sporen en verhoogt de inzet bij het handhaven van eerlijke en betrouwbare evaluaties van vaardigheden”, zei hij.
Het detectiesysteem van CodeSignal, dat AI-analyse, menselijke beoordeling en digitale monitoring combineert, identificeerde verschillende veelvoorkomende patronen in gemarkeerde beoordelingen. Ongeveer 35% van de kandidaten keek regelmatig weg van het scherm, wat aangeeft dat zij tijdens het examen externe bronnen raadpleegden. Nog eens 23% vertoonde een ongewoon lineair typpatroon, waarbij complexe oplossingen eenvoudigweg verschenen zonder pauze of foutopsporing. En 15% had antwoorden die sterk leken op bekende oplossingen of gelekte inhoud. (Het is de moeite waard om op te merken dat deze cijfers betrekking hebben op pogingen die daadwerkelijk zijn betrapt, en niet op gevallen waarin iemand ermee wegkwam.)
De gegevens laten ook verschillende geografische en procedurele hiaten zien. Het percentage fraudepogingen bedroeg 48% in de regio Azië-Pacific, vergeleken met 27% in Noord-Amerika. De testomstandigheden maakten ook een groot verschil: kandidaten in een omgeving zonder toezicht vertoonden een vier keer grotere piek in de scores dan actief gecontroleerde kandidaten, wat er duidelijk op wijst dat toezicht een afschrikmiddel was.
Wat betreft de manier waarop CodeSignal dit allemaal opvangt: het bedrijf zegt dat het tien jaar heeft besteed aan het bouwen van een infrastructuur voor fraudepreventie, die nu wordt ingezet voor miljoenen beoordelingen. Het maakt gebruik van een gepatenteerde ‘Suspicion Score’ en een lekvrij testontwerp om zaken als plagiaat, het afnemen van proxytests, ongeoorloofd gebruik van AI en identiteitsfraude te signaleren.
Meer AI-dekking van Snel bedrijf:
- Uit een onderzoek van Harvard blijkt dat AI-aandelenhandel met veel van de keuzes van fondsbeheerders wedijvert
- Hij creëerde een populaire podcast over de Epstein-bestanden. Het wordt volledig gegenereerd door AI
- Wat als de SaaSpocalyps slechts een mythe is?
- Deze AI-notitiestartup denkt een ‘stuurwiel’ voor chatbots te bouwen
Wilt u exclusieve rapportage en trendanalyse over technologie, bedrijfsinnovatie, de toekomst van werk en design? Register Voor Snel bedrijf Premie.


