“Oggi il modo in cui la maggior parte di noi usa grandi modelli linguistici è così: si digita un problema e si genera una risposta”, spiega Andrew Ng, fondatore di DeepLearning.AI, professore di informatica a Stanford, tra i primi nello sviluppo di reti neurali con GPU.
“E’ un po’ come se chiedi a una persona di scrivere un saggio su un argomento e io dico: per favore, siediti alla tastiera e digita semplicemente il saggio dall’inizio alla fine senza mai usare il backspace e nonostante quanto sia difficile, gli LLM lo fanno in modo straordinario BENE.
A differenza del flusso di lavoro basato su agenti, ecco come potrebbe apparire.
Avere un’intelligenza artificiale, avere un LLM, ad esempio scrivere una bozza di saggio. Hai bisogno di fare qualche ricerca sul web, quindi facciamolo. Quindi scrivi la prima bozza e poi leggi prima la tua bozza e pensa a quali parti necessitano di revisione.
E poi rivedi la tua bozza e vai avanti all’infinito.
E quindi questo flusso di lavoro è molto più iterativo in cui potresti chiedere al LLM di riflettere un po’, quindi rivedere questo articolo e poi riflettere ancora un po’ e ripeterlo più volte e ciò che non molte persone apprezzano è che questo fornisce risultati notevolmente migliori”.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Sei importanti precauzioni da adottare quando si usa ChatGPT, illustrate dal Dr. Joseph Mercola
Può interessarti anche: ChatGPT tende ad assecondarci anche per questo “spara fandonie”, la spiegazione di Padre Benati
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.