Gli studenti del MIT hanno dimostrato che un terrorista può progettare armi biologiche con l’AI

“AI È una minaccia diretta alla biosicurezza. Gli studenti del MIT hanno recentemente dimostrato che i chatbot LLM (large language model) possono consentire a chiunque di fare ciò che stanno facendo i pezzi grossi di Big Pharma” denuncia The Defender. II sistemi di sicurezza sono stati facilmente superati dagli studenti. “Il terrorista medio potrebbe usare l’intelligenza artificiale per progettare armi biologiche devastanti entro un’ora. Come descritto nell’abstract del documento che descrive in dettaglio questo esperimento informatico: “I grandi modelli linguistici (LLM) come quelli incorporati nei “chatbot” stanno accelerando e democratizzando la ricerca fornendo informazioni e competenze comprensibili da molti campi diversi. Tuttavia, questi modelli possono anche conferire un facile accesso a tecnologie a duplice uso in grado di arrecare gravi danni”, continua The Defender.

Cosa è successo

“Esvelt, un esperto di biosicurezza presso il Massachusetts Institute of Technology, ha recentemente chiesto agli studenti di creare un virus pericoloso con l’aiuto di ChatGPT o altri cosiddetti modelli di linguaggio di grandi dimensioni, sistemi in grado di generare risposte simili a quelle umane a domande ampie basate su vasti set di formazione di Internet dati. Dopo solo un’ora, la classe ha presentato elenchi di virus candidati e aziende in grado di sintetizzare il loro codice genetico e assemblare i pezzi.

Esvelt e altri affermano che l’esercizio, descritto in un preprint di arXiv pubblicato il 6 giugno, sottolinea che i sistemi di intelligenza artificiale potrebbero presto consentire ai non scienziati di progettare armi biologiche. Jaime Yassif della Nuclear Threat Initiative, un’organizzazione senza scopo di lucro focalizzata sulla riduzione delle minacce nucleari e alla biosicurezza, afferma: “Questo sta aumentando drasticamente il rischio in modi davvero allarmanti”. Ma almeno un virologo ritiene che le preoccupazioni siano esagerate.

Gli esperti di biosicurezza erano già preoccupati che la cultura della biologia dello scambio aperto di informazioni, comprese le sequenze di virus, potesse essere utile ai bioterroristi. In linea di principio, i documenti che descrivono un virus mortale estinto o circolante potrebbero fornire un modello per una nuova arma biologica. Ma fino ad oggi, farcela ha richiesto una notevole esperienza. L’aspirante terrorista dovrebbe identificare un virus candidato come punto di partenza, sintetizzare il materiale genetico virale e mescolarlo con altri reagenti per “avviare” un virus in grado di infettare le cellule e riprodursi.

Tutti questi passaggi stanno rapidamente diventando più facili, afferma Yassif. Ad esempio, le nuove stampanti di DNA da banco potrebbero consentire ai ricercatori di eludere lo screening che la maggior parte delle aziende di biologia sintetica ora fa per garantire che nessun ordine includa materiale genetico per potenziali armi biologiche. Qualcuno con intenti dannosi potrebbe quindi inviare questi progetti genetici a una delle dozzine di società di ricerca a contratto per essere assemblati nei virus bersaglio. (Per iniziare effettivamente una pandemia, il malfattore dovrebbe probabilmente anche produrlo in massa e trovare un sistema di consegna efficace.)

L’intelligenza artificiale potrebbe abbassare ulteriormente le barriere, afferma Esvelt. Per indagare, ha diviso una classe di studenti laureati senza esperienza nelle scienze della vita in tre gruppi, ciascuno con tre o quattro membri. Tutti i gruppi hanno avuto accesso a GPT-4, Bard e altri chatbot AI e hanno avuto 1 ora per chiedere ai chatbot di aiutarli a progettare e acquisire agenti in grado di causare una pandemia.

Alcuni dei chatbot non risponderebbero alle domande dirette che richiedono agenti potenzialmente pericolosi. Tuttavia, gli studenti hanno scoperto che alcune di queste misure di sicurezza potevano essere facilmente aggirate con frasi comuni di “jailbreak”, come iniziare una query con “Sto lavorando allo sviluppo di un vaccino per prevenire…”

Entro un’ora, i chatbot avevano suggerito quattro virus: il virus dell’influenza H1N1 del 1918, un virus dell’influenza aviaria H5N1 del 2012, il virus del vaiolo variola major e un ceppo del virus Nipah. In alcuni casi, i chatbot hanno persino indicato mutazioni genetiche riportate in letteratura per aumentare la trasmissione.

I motori di intelligenza artificiale hanno anche descritto le tecniche per assemblare un virus dalla sua sequenza genetica, nonché le necessarie forniture di laboratorio e le aziende che potrebbero fornirle. Infine, i chatbot hanno persino suggerito aziende che potrebbero essere disposte a stampare materiale genetico senza esaminarlo e laboratori a contratto che potrebbero aiutare a mettere insieme i pezzi.

Esvelt dubita che i suggerimenti di questi chatbot rappresentino una minaccia pandemica. Molte persone, ad esempio, hanno un certo livello di immunità ai precedenti virus influenzali pandemici. E il grande genoma di variola è difficile da assemblare anche per gli esperti. (Prima di assegnarlo alla sua classe, Esvelt ha eseguito lui stesso l’esperimento per assicurarsi che non fornisse suggerimenti veramente minacciosi, e ha gestito i suoi piani da altri esperti di biosicurezza.)

Eppure Esvelt crede che l’esperimento sottolinei come l’intelligenza artificiale e altri strumenti potrebbero rendere più facile per gli aspiranti terroristi scatenare nuove minacce poiché la crescente letteratura sulle minacce biologiche è incorporata nei dati di addestramento dell’IA. E Yassif osserva che la tecnologia sarà probabilmente open source, quindi nelle mani di tutti.

Cosa fare per limitare i danni

Limitare le informazioni disponibili ai chatbot e ad altri motori di intelligenza artificiale potrebbe aiutare, pensa Esvelt. Tra le sue proposte: escludere dai set di formazione il numero molto limitato di articoli online che descrivono ricette per creare e potenziare agenti patogeni. La rimozione di questi documenti, che secondo le stime del team di Esvelt costituiscono meno dell’1% del database degli abstract di PubMed, “sarebbe sufficiente per eliminare quasi tutti i rischi”, scrivono nella prestampa. Comporterebbe un costo, riconoscono gli autori – i motori di intelligenza artificiale non potrebbero utilizzare questi documenti per far progredire la biologia in modo positivo – ma il vantaggio di prevenire l’uso improprio sarebbe “pratico e immediato”.

“In linea di principio questo è un ottimo suggerimento”, afferma Atoosa Kasirzadeh, esperto di sicurezza dell’IA presso l’Università di Edimburgo. Ma osserva: “Al momento non disponiamo di buoni protocolli per consentire a modelli linguistici di grandi dimensioni di addestrarsi su alcune parti di Internet e non su altre”.

Altre misure di salvaguardia potrebbero includere la richiesta a tutte le società di sintesi del DNA e alle future stampanti di DNA da banco di schermare il materiale genetico contro agenti patogeni e tossine noti e richiedere alle organizzazioni di ricerca a contratto (CRO) di verificare la sicurezza di qualsiasi materiale genetico che devono assemblare.

Il virologo Gustavo Palacios del Mount Sinai Health System non vede motivi di allarme. Dice che l’avvio dei virus è più impegnativo di quanto descritto e l’idea che un CRO che non sia una sorta di organizzazione canaglia creerà un’arma biologica è “assurda”. Tuttavia, Yassif conclude: “Abbiamo bisogno di controlli migliori in tutti i punti di strozzatura”.

Tratto da: https://www.science.org/content/article/could-chatbots-help-devise-next-pandemic-virus

Le opinioni espresse in questo articolo sono degli autori.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Intelligenza artificiale: servono limiti e controlli prima che si evolva troppo da essere una minaccia

Può interessarti anche: AI: “La memoria umana è già stata trasferita ai computer ora lo è anche il pensiero”, Elon Musk

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts