Il futuro dell’intelligenza artificiale secondo Mustafa Suleiman

Il futuro dell’intelligenza artificiale secondo Mustafa Suleiman, co-fondatore di DeepMind, si vedrà da qui a pochi anni, forse cinque.  Ne ha ha parlato in una intervista a The Economist.

“Nei prossimi cinque anni, le aziende modello di frontiera, quelle di noi all’avanguardia,  che stanno addestrando i modelli di intelligenza artificiale più grandi, addestreranno modelli che sono oltre mille volte più grandi di quello che vedi attualmente oggi in GPT-4. Invece di generare semplicemente un nuovo testo in un colpo solo, il modello sarà in grado di generare una sequenza di azioni nel tempo. E penso che questo sia davvero il carattere dell’intelligenza artificiale che vedremo nei prossimi cinque anni. IA con capacità artificiali. Le IA che non possono solo dire cose, possono anche fare cose.

Sarà in grado di telefonare ad altri esseri umani per negoziare. Sarà in grado di chiamare altre IA per stabilire, ad esempio, la giusta sequenza in una catena di approvvigionamento. E, naturalmente, imparerà a utilizzare le API, le interfacce di programmazione delle applicazioni, quindi altri siti Web o altre basi di conoscenza o altri archivi di informazioni. E quindi, sai, il mondo è la tua ostrica. Potete immaginare che venga applicato a moltissime parti diverse della nostra economia.

Penso che sia importante dire che questi non sono strumenti autonomi per impostazione predefinita. Queste capacità non emergono naturalmente solo dai modelli. Cerchiamo di progettare le capacità. La sfida per noi è essere molto ponderati, precisi e attenti a quelle capacità che vogliamo emergano dal modello, che vogliamo integrare nel modello e ai vincoli che costruiamo attorno ad esso. È estremamente importante non proiettare antropomorficamente idee e potenziali intenzioni o potenziale azione o potenziale autonomia in questi modelli. La sfida di governance che dovremo affrontare nei prossimi vent’anni per garantire il contenimento di questa ondata sarà quella di riuscire sempre a imporre i nostri vincoli allo sviluppo di questa traiettoria di sviluppo. Questi saranno strumenti che possiamo applicare in contesti ristretti.

E’ qualcosa che non abbiamo mai affrontato prima. Ancora una volta, le bombe atomiche non avevano alcun potenziale di azione. Le macchine da stampa non avevano un potenziale di agenzia. Questa cosa si ripete a meno che non la conteniamo e il problema del contenuto è molto difficile perché potenzialmente saranno più intelligenti di noi. E’ per questo che da tempo sostengo il principio di precauzione. Dovremmo entrambi eliminare alcune funzionalità dal tavolo e classificarle come ad alto rischio. L’autonomia, ad esempio, è chiaramente una capacità potenzialmente ad alto rischio. Auto-miglioramento ricorsivo, la stessa storia. Questo è quindi il momento in cui dobbiamo adottare un principio di precauzione, non per allarmismo, ma semplicemente come un modo logico e sensato di procedere. Questo è un momento in cui noi, collettivamente in Occidente, dobbiamo stabilire i nostri valori e sostenerli. Ciò che non possiamo permettere è una corsa al ribasso secondo la quale, solo perché lo stanno facendo, dovremmo correre lo stesso rischio. Se adottiamo questo approccio e tagliamo gli angoli a sinistra, a destra e al centro, alla fine ne pagheremo il prezzo”.

 

Qui trovate l’intervista a The Economist: (https://www.youtube.com/watch?v=b2uEAgLeOzA&t=437s)

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Geoffrey Hinton, pioniere dell’Ai, mette in guardia dai pericoli degli algoritmi: disinformazione, ma non solo

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts