“Le versioni cinematografiche dell’IA come minaccia per gli umani tendono a ruotare attorno a un momento in cui l’IA prende coscienza di sé e delle sue potenzialità, sviluppando una reazione autodifensiva contro l’umanità che cerca di spegnerla. Tuttavia, non credo che l’IA abbia ancora una comprensione esistenziale della sua stessa natura”, spiega Ben Harris, professore allo Stadler College di Boston, Massachusetts, con un background in ingegneria e apprendimento automatico. “Probabilmente potrebbe rispondere testualmente, sì, io sono un sistema, un sistema di IA, ma ciò non implica ancora una reazione autodifensiva naturale come quella degli esseri umani. Quindi, penso che esista ancora un divario ontologico, anche con quella che chiamiamo intelligenza artificiale generalizzata o AGI, ovvero sistemi capaci di pensare e ragionare autonomamente. Ritengo che questo sia ancora un campo di ricerca aperto, soprattutto nell’argomentazione automatica. Puoi presentare un testo a un motore e chiedergli se sia un buon argomento, ma la macchina ha ancora difficoltà a determinare una risposta netta.
Noi umani, invece, leggiamo e giudichiamo facilmente: ‘Oh, questo è un argomento terribile’ oppure ‘Questo è un argomento convincente’. Rifletto molto su questo divario, che per me rappresenta uno dei maggiori ostacoli tra l’IA odierna e qualsiasi preoccupazione esistenziale reale.
Nel campo matematico, affrontiamo domande come il famoso “problema dell’arresto” nell’informatica, ormai riconosciuto come irrisolvibile per un sistema informatico. In sostanza, il calcolo non è un affare finito, non solo non lo è, ma probabilmente non lo sarà mai. I matematici hanno scoperto che ci sono questioni fondamentalmente inconoscibili anche nel campo del calcolo, e simili interrogativi emergeranno nella crescita dell’IA, vincolata alla propria ontologia. È limitata dalle stesse leggi che vincolano tutti i sistemi digitali fisici, come la velocità di elaborazione e il surriscaldamento, oltre che dall’ingegnosità umana, che è limitata e finita. Faccio fatica a immaginare un sistema che, spontaneamente, possa superare questi limiti.
L’intelligenza artificiale non fornirà mai una cognizione simile a quella umana. Ad esempio, i principali casi d’uso delle reti neurali nell’apprendimento automatico sono la classificazione e la regressione. La classificazione consente a un sistema di riconoscere e identificare un oggetto, mentre la regressione crea relazioni tra quantità, permettendo di fare previsioni in-sample. Questi sono i fondamenti dei modelli di apprendimento automatico e dei trasformatori su cui si basano gli LLM. Tuttavia, ritengo che siamo ancora molto lontani dalla funzionalità del cervello umano. Probabilmente ci saranno interruzioni o discontinuità nel progresso, e alcune di queste potrebbero persino bloccare il nostro cammino. Potremmo arrivare solo fino a un certo punto con l’IA e non oltre.
Attualmente, i costi per sviluppare modelli successivi a GPT-4 sono enormi, con trilioni di dollari necessari per raccogliere i dati, addestrare i modelli e coprire le spese energetiche. Prima o poi, l’umanità dovrà decidere se continuare a investire in questa direzione o se fermarsi. Semplicemente, non possiamo sostenere indefinitamente un simile livello di spesa per sviluppare tali sistemi”.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: A cosa fare attenzione prima di investire nell’intelligenza artificiale: è importante comprenderne i limiti
Può interessarti anche: I tre rischi principali degli algoritmi per mappare la vita e la biologia, spiegati dalla dottoressa Siguna Mueller
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su X: https://x.com/Presskit_
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.