L’intelligenza artificiale ha scarsa memoria semantica, da qui le allucinazioni, gli sbagli

Nell’intelligenza artificiale “tutti i dati che ingeriscono, dovrebbero avere una buona memoria episodica (anche se con input spazzatura possono generare output spazzatura). Ma hanno ancora una scarsa memoria semantica, spiega John Thornhill.

“Si parla tanto di modelli di intelligenza artificiale generativa, di fatti allucinanti. Sussultiamo davanti all’avvocato che ha presentato un atto giudiziario contenente casi fittizi inventati da ChatGPT. Un collega del FT, che ha chiesto al chatbot di produrre un grafico dei costi di formazione dei modelli di intelligenza artificiale generativa, è rimasto sorpreso nel vedere che quello più costoso identificato non esisteva (a meno che il modello non avesse accesso a informazioni privilegiate). Come ogni utente scopre rapidamente: questi modelli sono inaffidabili, proprio come gli esseri umani. La domanda interessante è: le macchine sono più correggibili di noi? Potrebbe rivelarsi più semplice riscrivere il codice che ricablare il cervello.

I ricercatori stanno lavorando su modi per migliorare ulteriormente la memoria episodica dei modelli di intelligenza artificiale generativa e ridurre le allucinazioni. Un recente articolo dei ricercatori di Google DeepMind ha proposto una nuova metodologia chiamata Safe: valutatore di fattualità potenziato dalla ricerca. Le risposte generate dal modello vengono suddivise in frasi costitutive e confrontate con la Ricerca Google per verificarne la fattualità o la correttezza fattuale. Il documento afferma che questo sistema sperimentale supera gli annotatori umani in termini di accuratezza ed è più di 20 volte più economico.

“Nei prossimi anni saremo in grado di verificare i risultati di grandi modelli linguistici con una buona precisione. Penso che sia piuttosto utile”, mi dice Quoc Le, uno degli autori dello studio. Le allucinazioni sono sia una caratteristica dei LLM da accogliere con favore quando si tratta di creatività, sia un bug da sopprimere quando si tratta di fattualità, dice.

Nel frattempo, gli LLM possono ancora confondere creatività e fattualità. Ad esempio, quando ho chiesto al copilota di Microsoft Bing di dirmi il record mondiale per aver attraversato la Manica a piedi, ha risposto con sicurezza: “Il record mondiale per aver attraversato la Manica interamente a piedi è detenuto da Christof Wandratsch della Germania, che hanno completato la traversata in 14 ore e 51 minuti il 14 agosto 2020.” Facilmente, ha anche fornito una citazione per questo fatto. Sfortunatamente, il riferimento si è rivelato essere un articolo pubblicato lo scorso anno che evidenziava le allucinazioni generate da ChatGPT.

“La precisione è relativamente facile da automatizzare. La rilevanza non è scontata”, afferma Schnell. “Dobbiamo pensare a come vengono ricevuti i contenuti ed è qui che l’intelligenza artificiale fatica”.

Almeno per il momento, gli esseri umani e le macchine possono collaborare fruttuosamente per amplificare le loro diverse capacità e minimizzare i rispettivi difetti”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Identificare e mitigare i rischi dell’intelligenza artificiale in medicina, dagli errori alle allucinazioni AI

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts