“Al momento, non riusciamo a produrre dati abbastanza velocemente per supportare questi modelli di IA sempre più grandi,” denuncia Ben Harris, professore allo Stadler College di Boston, Massachusetts, con un background nell’ingegneria e nell’apprendimento automatico. “Non stiamo riuscendo a farlo; stiamo esaurendo le materie prime per creare i chip necessari per l’addestramento e i sistemi che li supportano.
Quindi, stiamo iniziando a incontrare ostacoli. E penso che ciò influenzerà le previsioni in modo piuttosto drammatico.
Poco più di un anno fa, a maggio 2023, c’è stata una famosa dichiarazione sui rischi dell’intelligenza artificiale, firmata da un gruppo di importanti esperti. La versione breve era che mitigare il rischio di estinzione causato dall’IA dovrebbe essere una priorità globale, insieme ad altri rischi su scala sociale, come pandemie e guerre nucleari. Questo ha ottenuto molta attenzione dai media.
Ho trovato interessante che, qualche settimana dopo, un sondaggio della CNN riportasse l’opinione di diversi CEO. Hanno ricevuto 119 risposte e di queste, 50 hanno affermato che l’IA potrebbe potenzialmente distruggere l’umanità nei prossimi cinque o dieci anni, mentre le altre 69 non erano preoccupate.
Se parliamo dei limiti dell’IA, forse il primo aspetto a cui pensiamo è quello tecnologico. Possiamo costruirla? Cosa possiamo effettivamente creare?
Che tipo di computer possiamo costruire? Che tipo di reti neurali, e così via. O un limite epistemologico: cosa sappiamo fare, quale conoscenza possediamo. Quando parliamo di limiti ontologici, entriamo in un territorio più profondo, poiché ci chiediamo quali siano i limiti intrinseci alla natura stessa di questa tecnologia. E sì, penso che tu abbia accennato a qualcosa del genere.
In un certo senso, il limite ontologico più evidente dell’IA è legato alla sua origine: è una nostra creazione, giusto? Una creazione della nostra ingegnosità, immensamente potente in alcuni ambiti, ma che non coinvolge il soprannaturale. È, per definizione, un prodotto naturale.
Abbiamo molte fonti di energia disponibili, ma quando proviamo ad aumentarne esponenzialmente la quantità, ci imbattiamo in limiti legati alla capacità della rete elettrica e della generazione di elettricità.
Il mio scetticismo risiede nella natura delle domande che ci poniamo: per creare qualcosa che ci renda unicamente umani, non basta sempre più silicio. Serve un altro approccio, un altro modo di comprendere la realtà ed elaborare informazioni che, semplicemente, ancora non possediamo.”
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Per non dimenticare: Un avatar nel metaverso consuma la stessa energia di un cittadino del Sud America
Può interessarti anche: A cosa fare attenzione prima di investire nell’intelligenza artificiale: è importante comprenderne i limiti
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su X: https://x.com/Presskit_
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.