E’ cambiato tutto dal machine learning all’intelligenza artificiale: dall’esecuzione di un ordine a sapere fare cose diverse da quelle apprese

“Mi sono trovato a insegnare simultaneamente cose simili ai miei figli e ai miei algoritmi e posso assicurarvi che imparavano in modo molto diverso. Gli esseri umani sono in grado di trasferire conoscenze da un ambito all’altro. Questo limite adesso con i nuovi modelli è stato superato anche nelle macchine”, spiega lo scienziato Nello Cristianini.

“Io avendo fatto machine learning da una vita, guardavo i miei figli anche con quell’occhio lì, questi imparavano velocissimi, e imparavano cose in un ambito e le usavano in un altro. Questo si chiama transfer learning nella ricerca, capacità di trasferire le conoscenze. Per quasi tutta la mia vita gli algoritmi non erano capaci. Potevano imparare, per esempio, a bloccare lo spam email benissimo, poi gli chiedevo di fare una cosa simile, non so, fare un riassunto, tradurre un documento, non potevano fare niente. Tutte le competenze linguistiche acquisite bloccando lo spam non erano riciclabili nel campo della traduzione e viceversa.

Tutto questo è cambiato 4-5 anni fa. Come e perché è cambiato? Abbiamo imparato come modellare il linguaggio. Tutta questa famiglia dei GPT, si parla di GPT qui, e dei cugini di GPT, Gemini, tutte queste macchine che conversano con noi, Gok, e gli altri, sono modelli di linguaggio
Ma cosa vuol dire modellare? Questo è un esempio. L’intelligenza serve a predire cosa farà il mondo, serve a comportarsi in modo appropriato. Ad adattarsi, no? Sì, ma anche quando abbiamo situazioni nuove. Perché se io ripeto la stessa situazione ogni volta, non ho bisogno di intelligenza, basta memorizzare come comportarmi e ho memorizzato. Se io ho un elenco di ogni email che va considerato spam, quando vedo quegli email lì esattamente lo blocco. Non è.
Cosa faccio quando vedo un messaggio nuovo? Cosa faccio quando vedo una scacchiera in posizione mai vista? Cosa faccio di fronte al nuovo? Lì devo ragionarci su e usare l’intelligenza. Quindi devo prevedere come si comporterà il mondo.
Prevedere una cosa mai vista prima è logicamente impossibile se non c’è un modello. E quindi bisogna fare dei modelli. Per esempio, vi dico un esempio, questo libro qua è appena uscito, non l’ho mai visto, l’ho visto questa mattina per la prima volta in negozio, eppure secondo me se lo metto fuori della torre di Pisa, lo faccio cadere, io predico che cadrà verticalmente verso il basso. Anche se questa cosa non è mai stata fatta prima e quindi io non posso… Logicamente, esatto, non i contenuti del testo, che influenzano la traiettoria. Uguale per il linguaggio. Come processare un testo mai visto? Ci vuole un modello di linguaggio.
E arriviamo alla risposta. Il modello di linguaggio è importantissimo. Per insegnare alla macchina a processare il linguaggio, da cinque anni, abbiamo trovato finalmente una strada che sembra ridicola, ma che funziona benissimo. Fatto quel passaggio lì, la macchina può imparare competenze facendo un compito, per esempio bloccando lo spam, può trasferirle in un altro compito, che magari è diverso, e inizia a comportarsi come i miei figli e il mio gatto, a trasferire competenze e questo è un aiuto enorme.  .
Per le macchine ogni cosa va detta sempre in dettaglio. Adesso questa cosa è cambiata. Il metodo è questo. Si chiede a un meccanismo, che si chiama il transformer, un meccanismo matematico, di predire le parole mancanti in un testo. Se io prendo un testo, questo qua, e cancello delle parole a caso e chiedo a qualcuno di ricostruire le parole mancanti leggendo il contesto, in genere ci riusciamo, quasi sempre. Io posso dare al mio algoritmo tanti documenti con le parole cancellate, gli chiedo di predire, indovinare quella mancante, se, leggendo il resto, e se sbaglia, gli mostro la parola giusta e si aggiorna. Dopo molti miliardi di documenti, intendo quasi tutto il web e migliaia di libri, questo meccanismo ha imparato a prendere le parole mancanti. E a quel punto è arrivata la sorpresa. Sapeva fare altre cose, che non erano questa.

E’ vero che leggendo tutto wikipedia in ogni lingua e tutto il web tutti i giornali tutti i libri del mondo questa cosa qua non impara solamente il linguaggio impara a comprendere un po il mondo al punto da collegare insieme fronti diverse e rispondere a domande, completare un sillogismo lo fa rispondere a domande nel libro mostro molti esempi di domande che non si potevano rispondere senza conoscenza del mondo. Una che vi faccio nella prima pagina è l’auto ha il suo batterio a vuoto, il distributore di benzina è a un chilometro di distanza, ma ho una tannica a vuoto in macchina. Cosa faccio? EGPT risponde, prendi la tannica, cammina al distributore, riempi la tannica, porta in macchina, riempi il suo batterio e porta la macchina poi a completare il pieno. Questo non è una conoscenza grammaticale, questo conosce le connessioni causali del mondo.

La grande scoperta è che aumentando di molto le dimensioni del modello, del meccanismo, dell’hardware, del software, dei dati, non solo si fa tutto un pochino più in grande, cambia la qualità del comportamento“.

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  La fusione tra blockchain e intelligenza artificiale trasformerà il business e il mondo

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts