Kunstmatige intelligentie leert snel biologische experimenten autonoom te ontwerpen en uit te voeren, maar de systemen die bedoeld zijn om deze mogelijkheden te reguleren hebben moeite om het bij te houden.
AI bedrijf Open AI en biotechnologiebedrijf Ginkgo Bioworks maakten in februari 2026 bekend dat het vlaggenschipmodel van OpenAI, GPT-5, zelfstandig ontworpen en uitgevoerd 36.000 biologische experimenten. Dit gebeurt via een robotachtig cloudlaboratoriumeen faciliteit waar geautomatiseerde apparatuur, op afstand bestuurd door computers, experimenten uitvoert. Het AI-model stelt een onderzoeksontwerp voor, de robot voert dit uit en voert gegevens terug in het model voor de volgende ronde. Mensen stellen de doelen, en machines doen het meeste werk in het laboratorium, waardoor de kosten voor het produceren van het gewenste eiwit met 40% worden verlaagd.
Dit programmeerbare biologie: het ontwerpen van biologische componenten in computers en het bouwen ervan in de fysieke wereld, waarbij AI de cirkel sluit.
In de loop van de decennia is de biologie er grotendeels van afgestapt observatie leidt tot begrip. Wetenschappers sequencen de genomen van organismen om hun volledige DNA te catalogiseren, en bestuderen hoe genen coderen voor eiwitten die de functies van het leven uitvoeren. Uitvinding tools zoals CRISPR stelt wetenschappers vervolgens in staat dat DNA te bewerken voor specifieke doeleinden, zoals het uitschakelen van genen die verband houden met ziekten. AI versnelt nu de derde fase, waarin computers biologische systemen kunnen ontwerpen en snel kunnen testen.
Het proces lijkt niet op traditioneel bankwerk in een laboratorium lijkt meer op techniek: ontwerpen, bouwen, testen, leren en itereren. Waar traditionele experimenten één enkele hypothese kunnen testen, onderzoekt op AI gebaseerde geprogrammeerde biologie duizenden ontwerpvariaties parallel, waarbij de manier wordt gerepliceerd waarop een ingenieur een prototype perfectioneert.
Als een datawetenschapper wie onderzoek naar genomica en bioveiligheidIk onderzoek hoe AI biologisch onderzoek een nieuwe vorm geeft en welke waarborgen nodig zijn. De bestaande veiligheidsmaatregelen en regelgeving hebben geen gelijke tred gehouden met deze mogelijkheden, en de kloof tussen wat AI in de biologie kan doen en wat bestuurssystemen klaar zijn om aan te pakken, wordt steeds groter.
Wat AI mogelijk maakt
Het duidelijkste voorbeeld van hoe onderzoekers AI gebruiken om onderzoek te automatiseren is AI-versneld eiwitontwerp.
Eiwitten zijn moleculaire machines die de meeste functies in levende cellen vervult. Het ontwerpen van een nieuw eiwit vereist traditioneel jaren van vallen en opstaan, omdat zelfs kleine veranderingen in de sequentie van een eiwit de vorm en functie ervan op onverwachte manieren kunnen veranderen.
EiwittaalmodellenDat is een AI-systeem dat is getraind op miljoenen natuurlijke eiwitsequenties en dat snel kan voorspellen hoe mutaties het gedrag of gedrag van een eiwit zullen veranderen. het ontwerpen van nieuwe eiwitten. Dit AI-model wordt ontworpen potentieel nieuw medicijn En de ontwikkeling van vaccins versnellen.
Gekoppeld aan een geautomatiseerd laboratoriumdeze modellen creëren een rigoureuze cyclus van experimenteren en herzien, waarbij duizenden variaties binnen enkele dagen worden getest, in plaats van de maanden of jaren die menselijke teams nodig hebben.
Snellere eiwitmanipulatie zou snellere reacties op nieuwe infecties en goedkopere medicijnen kunnen betekenen.
Probleem voor tweeërlei gebruik
Onderzoekers hebben hun bezorgdheid geuit over het feit dat dergelijke AI-tools kunnen worden misbruikt, een uitdaging die bekend staat als uitdaging probleem van tweeërlei gebruik: Technologie die voor nuttige doeleinden is ontwikkeld, kan ook worden hergebruikt om schade aan te richten.
Onderzoekers hebben bijvoorbeeld AI-modellen ontdekt geïntegreerd met een geautomatiseerd laboratorium Kan optimaliseren hoe goed het virus zich verspreidtzelfs zonder speciale training. Wetenschappers hebben instrumenten voor risicobeoordeling ontwikkelen om te evalueren hoe AI de mogelijkheden van het virus kan wijzigen, zoals het veranderen van de soort die het infecteert of het helpen het immuunsysteem te ontwijken.
De huidige AI-modellen zijn in staat gebruikers door technische stappen te leiden het terugwinnen van levende virussen uit synthetisch DNA. Onderzoekers hebben vastgesteld dat AI barrières kan wegnemen in verschillende stadia van het ontwikkelingsproces van biologische wapens en het toezicht dat momenteel bestaat niet genoeg om mee om te gaan dit risico.
Risico’s van bio-AI
Ervaren wetenschappers hebben het al gedaan met behulp van AI naar plan En het ontwerpen van biologische experimenten. De vraag of AI mensen met een beperkte biologieopleiding kan helpen gevaarlijk laboratoriumwerk uit te voeren, blijft onderwerp van actief onderzoek.
Twee recente onderzoeken zijn tot verschillende conclusies gekomen.
Uit een onderzoek uitgevoerd door AI-bedrijf Scale AI en bioveiligheidsnon-profitorganisatie SecureBio is gebleken dat wanneer mensen met beperkte biologie-ervaring toegang krijgen tot grote taalmodellen, het type AI achter tools als ChatGPT, ze taken uitvoeren die verband houden met bioveiligheid zoals het oplossen van complexe virologische laboratoriumprotocolproblemen met een vier keer grotere nauwkeurigheid. Op sommige gebieden presteren deze nieuwelingen beter dan getrainde experts. Ongeveer 90% van deze nieuwelingen rapporteerde weinig moeite om de modellen risicovolle biologische informatie te laten verschaffen, zoals gedetailleerde instructies over hoe gevaarlijke ziekteverwekkers moeten worden behandeld, ondanks ingebouwde veiligheidsfilters die bedoeld zijn om dergelijke output te blokkeren.
Uit een onderzoek onder leiding van Active Site, een non-profitorganisatie die het gebruik van AI in de synthetische biologie bestudeert, bleek daarentegen dat AI-hulp geen significant verschil maakte in het vermogen van beginners om taken uit te voeren. complexe workflow om virussen te produceren in het bioveiligheidslaboratorium. De door AI ondersteunde groep slaagde echter vaker in de meeste taken en voltooide sommige stappen sneller, vooral bij het kweken van cellen in het laboratorium.
Praktijkwerk in het laboratorium vormt meestal een barrière bij het vertalen van ontwerpen naar resultaten. Zelfs briljante studieplannen zijn nog steeds afhankelijk van bekwame mensenhanden om ze uit te voeren. Dit zal misschien niet lang duren, aangezien cloudlabs en robotautomatisering blijven groeien goedkoper en toegankelijkerstelt onderzoekers in staat door AI gegenereerde experimentele ontwerpen naar afgelegen faciliteiten te sturen voor uitvoering.
Reageren op biologische risico’s veroorzaakt door AI
AI-systemen kunnen nu zelfstandig en op grote schaal experimenten uitvoeren, maar de bestaande regelgeving is hier niet op ingericht. Regelgeving voor biologisch onderzoek houdt geen rekening met AI-gestuurde automatisering, en regelgeving voor AI heeft niet specifiek betrekking op het gebruik ervan in de biologie.
In de VS heeft de regering-Biden een uitvoerend bevel uit 2023 uitgevaardigd over AI-beveiliging waarin dit is opgenomen bioveiligheidsbepalingenmaar de regering-Trump trok het in. Het screenen van synthetisch DNA door commerciële aanbieders om er zeker van te zijn dat het niet wordt misbruikt om ziekteverwekkers of toxines te creëren, gebeurt grotendeels op vrijwillige basis. In 2026 werd een tweeledig wetsvoorstel geïntroduceerd verplicht DNA-onderzoek heeft niet gesproken over een reeks AI-ontwerpen die de huidige detectiemethoden omzeilen.
1975 Biologische Wapenconventieeen internationaal verdrag dat de productie en het gebruik van biologische wapens verbiedt, bevat geen bepalingen over AI. Engels AI-beveiligingsinstituut en VS Nationale Veiligheidscommissie voor opkomende biotechnologieën beiden riepen op tot gecoördineerd optreden van de overheid.
Veiligheidsevaluaties die AI-laboratoria uitvoeren voordat nieuwe modellen worden uitgebracht, zijn vaak negatief wazig en ongeschikt om risico’s uit de echte wereld vast te leggen. De onderzoekers voorspellen dat zelfs kleine verbeteringen in het vermogen van AI-modellen om pathogeengerelateerde experimenten te helpen plannen dit mogelijk zouden kunnen maken duizenden extra sterfgevallen als gevolg van bioterrorisme per jaar. Een tijdlijn van wanneer deze mogelijkheid een kritieke drempel overschrijdt blijft onduidelijk.
Het Nuclear Threat Initiative heeft dat gedaan stelde een beheerd toegangskader voor voor biologische AI-instrumenten: wie een bepaald instrument kan gebruiken, afstemmen op het risiconiveau van het model, in plaats van algemene beperkingen. Het Rand Center on AI, Security, and Technology schetst een aantal zaken acties die onderzoekers kunnen ondernemen om de bioveiligheid te verbeteren, inclusief verbeterde screening van DNA-synthese en modelevaluatie voorafgaand aan de introductie. Dat denken onderzoekers ook biologische gegevens zelf vereisen governancevooral genomische gegevens die modellen met gevaarlijke capaciteiten kunnen trainen.
Sommige AI-bedrijven zijn begonnen vrijwillig hun eigen beveiligingsmaatregelen te implementeren. Antropisch activeert het hoogste beveiligingsniveau wanneer het medio 2025 zijn meest geavanceerde model uitbrengt. Tegelijkertijd OpenAI het actualiseren van het paraatheidskaderhet herzien van de drempel voor hoeveel biologisch risico een model kan opleveren voordat aanvullende beschermende maatregelen nodig zijn. Maar dit is een vrijwillige maatregel die specifiek is voor het bedrijf. Anthropic CEO Dario Amodei schreef dat het tempo van de AI-ontwikkeling aanstaande is liep sneller dan welk bedrijf dan ook zou kunnen om het risico van een bepaald model te beoordelen.
Bij gebruik in een goed gecontroleerde omgeving kan AI wetenschappers helpen hun onderzoeksdoelen snel te bereiken. Wat er gebeurt als diezelfde capaciteiten buiten een dergelijke controle opereren, is een vraag die het beleid nog moet beantwoorden. Door overreageren kunnen talent en investeringen ergens anders heen gaan terwijl de technologie zich blijft ontwikkelen. Als het niet reageert, bestaat het risico dat de technologie kan worden uitgebuit om echte schade aan te richten.
Stephen D. Turner is hoogleraar datawetenschap bij Universiteit van Virginia.
Dit artikel is opnieuw gepubliceerd van Gesprek onder een Creative Commons-licentie. Lezen origineel artikel.



