“Molti di noi hanno inviato biglietti di auguri acquistati in negozio, sapendo che al destinatario sarebbe stato chiaro che non abbiamo composto noi le parole. Non copiamo le parole da un biglietto Hallmark con la nostra grafia, perché sembrerebbe disonesto. Il programmatore Simon Willison ha descritto la formazione per grandi modelli linguistici come “riciclaggio di denaro per dati protetti da copyright”, che trovo un modo utile per pensare all’attrattiva dei programmi di intelligenza artificiale generativa: ti lasciano impegnarti in qualcosa come il plagio, ma non c’è alcun senso di colpa associato perché non è chiaro nemmeno a te che stai copiando”, denuncia l’autore di racconti di fantascienza Ted Chiang.
“Alcuni hanno affermato che i grandi modelli linguistici non stanno riciclando i testi su cui sono stati formati, ma, piuttosto, imparando da essi, nello stesso modo in cui gli scrittori umani imparano dai libri che hanno letto. Ma un grande modello linguistico non è uno scrittore; non è nemmeno un utente del linguaggio. Il linguaggio è, per definizione, un sistema di comunicazione e richiede un’intenzione di comunicare. Il completamento automatico del tuo telefono può offrire buoni o cattivi suggerimenti, ma in nessun caso sta cercando di dire qualcosa a te o alla persona a cui stai scrivendo. Il fatto che ChatGPT possa generare frasi coerenti ci invita a immaginare che comprenda il linguaggio in un modo in cui il completamento automatico del tuo telefono non lo fa, ma non ha più intenzione di comunicare.
Una persona che usa l’intelligenza artificiale generativa per aiutarli a scrivere potrebbe affermare che stanno traendo ispirazione dai testi su cui è stato formato il modello, ma vorrei ancora una volta sostenere che questo differisce da ciò che di solito intendiamo quando diciamo che uno scrittore trae ispirazione da un altro. Considera uno studente universitario che consegna un elaborato che consiste esclusivamente in una citazione di cinque pagine da un libro, affermando che questa citazione trasmette esattamente ciò che voleva dire, meglio di quanto potrebbe dirlo lei stessa. Anche se lo studente è completamente sincero con l’istruttore su ciò che ha fatto, non è corretto dire che sta traendo ispirazione dal libro che sta citando. Il fatto che un ampio modello linguistico possa riformulare la citazione abbastanza da rendere la fonte non identificabile non cambia la natura fondamentale di ciò che sta accadendo.
Come ha notato la linguista Emily M. Bender, gli insegnanti non chiedono agli studenti di scrivere saggi perché il mondo ha bisogno di più saggi degli studenti. Lo scopo di scrivere saggi è rafforzare le capacità di pensiero critico degli studenti; allo stesso modo in cui sollevare pesi è utile indipendentemente dallo sport praticato dall’atleta, scrivere saggi sviluppa le competenze necessarie per qualsiasi lavoro che un atleta svolga.
Usare ChatGPT per completare i compiti è come portare un carrello elevatore in sala pesi; non migliorerai mai la tua forma fisica cognitiva in questo modo”.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime notizie su www.presskit.it
Può interessarti anche: Come controllare che i testi non siano copiati, grazie all’intelligenza artificiale
Per non dimenticare: Sports Illustrated accusato di aver pubblicato articoli scritti da AI: “queste pratiche violano tutto ciò in cui crediamo riguardo al giornalismo”
Può interessarti anche: Studenti: compiti fatti con ChatGPT hanno “elementi” che tradiscono gli imbroglioni, affermano gli esperti
Può interessarti anche: “Lavoro per un editore che usa l’intelligenza artificiale”, e ve ne spiego i pericoli
Può interessarti anche: I migliori tre programmi di scrittura, che usano l’intelligenza artificiale
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su Sfero: https://sfero.me/users/presskit-quotidiano-on-line
Seguici su Telegram https://t.me/presskit
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.