“Penso che, in generale, le aziende di intelligenza artificiale continueranno a sviluppare sistemi sempre più vicini alla cognizione umana. Certo, si potrebbe dire che siamo ancora lontani anni luce, ma stiamo facendo progressi, e questo è probabilmente vero,” spiega Ben Harris, professore allo Stadler College di Boston, Massachusetts, con un background in ingegneria e apprendimento automatico. “Non sono quindi particolarmente preoccupato per lo sviluppo dell’AGI. A volte si fa riferimento a casi come quelli degli scacchi o del Go, giochi da tavolo che hanno una lunga e leggendaria storia nell’informatica. Aziende come DeepMind, ora di proprietà di Google ma con sede a Londra, hanno fatto un lavoro davvero interessante, come lo sviluppo di motori di scacchi e Go a livello sovrumano, che giocano a un livello che supera la comprensione umana, il che è davvero straordinario.
È incredibile come abbiano dovuto sviluppare sistemi per riuscirci. Tuttavia, si tratta pur sempre di giochi con uno spazio di funzionalità definito, regole definite e opzioni specifiche, giusto? Quando puoi confinare il sistema, definendo l’universo in cui opera, puoi ottenere risultati davvero notevoli. Ma l’umanità non si lascia confinare in questo modo: semplicemente, non è nella nostra natura. Penso che questa sia una delle ragioni alla base del mio scetticismo. Se consideri il campo dell’apprendimento per rinforzo, una sottocategoria dell’apprendimento automatico, è così che è stato costruito il motore scacchistico di DeepMind. Una delle cose che devono fare è definire le regole del gioco e stabilire le ricompense per ogni azione, la cosiddetta ‘funzione di ricompensa.’ Ad esempio, se prendi un pedone dell’avversario, ottieni una piccola ricompensa; se prendi la sua regina, la ricompensa è maggiore.
Negli scacchi, questo approccio funziona perché puoi definire le regole in modo preciso e creare un sistema che risulti molto efficace. Ma pensa a una relazione sentimentale o a un matrimonio. Ci rendiamo conto abbastanza rapidamente che i nostri tentativi di quantificare e definire il valore non sono applicabili: si entra in un livello di astrazione completamente diverso. Le due cose semplicemente non vanno insieme. Queste sono alcune delle riflessioni che mi portano a pensare che l’AGI sia ancora lontana.”
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: A cosa fare attenzione prima di investire nell’intelligenza artificiale: è importante comprenderne i limiti
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su X: https://x.com/Presskit_
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.