“L’intelligenza artificiale non è un pezzo di scienza, non lo è ancora, non è esatta nei risultati. Un compito che la ricerca si deve dare, fondamentale, è quello di trasformare le AI in una scienza”, Mario Rasetti

“L’intelligenza artificiale non è un pezzo di scienza, non lo è ancora e credo che un compito che la ricerca si deve dare, fondamentale, è quello di trasformare l’AI in una scienza”, spiega Mario Rasetti, professore emerito di fisica teorica.

“Se uno di voi e io guardiamo lo stesso quesito, lo stesso query, e lo affrontiamo con i metodi dell’intelligenza artificiale, sicuramente i risultati saranno diversi.

Se uno di noi, usando le leggi di Newton, vuole calcolare dove sarà la luna alle 10.25 del 5 maggio del 2038, chiunque faccia il calcolo, se lo sa fare, se conosce le leggi di Newton, troverà lo stesso risultato. Quindi non è una scienza, ma è una cosa che può diventarlo e lo può diventare solo se sarà in grado di darsi delle definizioni rigorose delle variabili in gioco.

Noi stiamo facendo un gioco enormemente difficile perché tutte le grandezze, tutte le quantità di cui ci stiamo occupando sono mal definite.

Noi non sappiamo cos’è l’intelligenza, parliamo di intelligenza artificiale ma non sappiamo cos’è l’intelligenza. Uno come me dice, guarda, prova a misurare l’intelligenza, prova a fare una misura dell’intelligenza. Quante volte uno ha detto che A è più intelligente di B? Poi, magari in contesto diverso, che B è più intelligente di C.

Se voi volete fare una teoria della misura dell’intelligenza, dovete addirittura cambiare l’algebra, dovete scriverla in un linguaggio matematico che ha un’algebra diversa da quella che noi conosciamo.

Noi abbiamo a che fare con tutte le quantità di quel genere, l’intelligenza, la verità, la causa, perché l’altro grande problema dell’intelligenza artificiale è quello che in gergo si chiama la causation, il capire, come vi ho spiegato prima, noi ci preoccupiamo molto di capire se ci sono correlazioni, se una stringa di dati conduce a un certo punto, un’altra stringa di dati conduce a un altro punto, ma queste due cose succedono sempre simultaneamente. Noi non siamo in grado di capire se una è effetto o causa dell’altro. Abbiamo un gap aperto, un gap culturale aperto su quello e le statistiche che utilizziamo non ci portano da nessuna parte.

Per esempio il deep learning, che è questo machine learning cascata, non ha un ambiente di riferimento. Quindi di nuovo Platone, noi crediamo di avere un sistema che ci mette in grado di predire la dinamica, il movimento, il comportamento delle ombre sul fondo della caverna e non abbiamo nessuna idea di cosa sia la realtà che produce queste ombre.

Il deep learning ha una proprietà molto bella, molto efficace, che è un’iterazione incascata di tante analisi tipo machine learning fatta ogni volta prendendo il risultato del passo precedente come sistema di riferimento. Questo comporta una cosa, è autoreferenziale al suo proprio sistema di riferimento, le probabilità che si autocalcola sono relative a quello e come Platone appunto due volte. Il fondo della caverna è una rappresentazione e il deep learning da un’altra rappresentazione.”

Fonte

 

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: L’intelligenza artificiale ha scarsa memoria semantica, da qui le allucinazioni, gli sbagli

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts