GPT-3 non ha comprensione del linguaggio su cui opera, usa rappresentazioni statistiche del linguaggio

GPT-3 non ha alcuna rappresentazione mentale o comprensione del linguaggio su cui opera. Il sistema si basa su rappresentazioni statistiche del linguaggio per come viene utilizzato nella vita reale da esseri umani reali o “un simulacro dell’interazione tra le persone e il mondo”, lo sostiene uno studio dell’Università di Zurigo pubblicato su Science.org.

“Anche tenendo presente queste limitazioni strutturali, ciò che può fare GPT-3 è notevole, e notevoli sono anche le possibili implicazioni. Mentre GPT-3 può essere un ottimo strumento per traduzioni automatiche, classificazione del testo, sistemi di dialogo/chatbot, riepilogo delle conoscenze, risposta a domande, scrittura creativa, rilevamento di incitamento all’odio e scrittura automatica di codici , può anche essere utilizzato per produrre “disinformazione, spam, phishing, abuso di processi legali e governativi, scrittura di saggi accademici fraudolenti e pretesti di ingegneria sociale” .

GPT-3 funge da leva, amplificando le intenzioni umane. Può ricevere istruzioni in linguaggio naturale e generare output che possono essere in linguaggio naturale o formale. Lo strumento è intrinsecamente neutro da un punto di vista etico e, come ogni altra tecnologia simile, è soggetto al problema del duplice uso”.

Qui lo studio completo: https://www.science.org/doi/10.1126/sciadv.adh1850

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche:  Come parla di se stessa l’intelligenza artificiale? Non “io”, ma probabilmente serve una forma di IT, Seth Godin

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Related Posts