ChatGPT 4 è diventato “pigro”, forse per i meccanismi di sicurezza per prevenire la generazione di contenuti dannosi

OpenAI riconosce la “pigrizia” di ChatGPT 4 dopo i reclami degli utenti su attività incomplete e elusione di responsabilità.

Il modello non è stato aggiornato dall’11 novembre e la “pigrizia” percepita non è intenzionale e probabilmente interessa solo un sottoinsieme di suggerimenti

Sebbene la causa non sia chiara, gli esperti ipotizzano che potrebbe essere dovuta a meccanismi di sicurezza progettati per prevenire la generazione di contenuti dannosi. Questi meccanismi sono progettati per impedire a ChatGPT 4 di generare contenuti dannosi o offensivi. Tuttavia, potrebbero inavvertitamente portare il modello a evitare determinati compiti o a offrire risposte incomplete.

OpenAI, la società dietro il popolare modello linguistico ChatGPT, ha recentemente riconosciuto che il modello è diventato “pigro” e che ciò potrebbe avere implicazioni per il futuro dell’intelligenza artificiale.

Questa notizia arriva dopo le diffuse segnalazioni degli utenti sul degrado delle prestazioni del modello. Gli utenti hanno evidenziato problemi quali attività incomplete, scorciatoie ed elusione della responsabilità per le attività impartite.

“Non aggiorniamo il modello dall’11 novembre, e questo certamente non è intenzionale. Il comportamento del modello può essere imprevedibile e stiamo cercando di risolverlo”, ha twittato la società.

OpenAI ha ulteriormente chiarito che le modifiche sono probabilmente impercettibili e interessano solo un sottoinsieme specifico di istruzioni. Ciò rende difficile per gli utenti e persino per gli sviluppatori identificare e affrontare immediatamente i modelli

“L’idea non è che il modello sia in qualche modo cambiato dall’11 novembre. È solo che le differenze nel comportamento del modello possono essere sottili: solo un sottoinsieme di prompt può essere degradato”, ha spiegato OpenAI.
La società ha assicurato agli utenti che sta indagando attivamente sul problema e sta lavorando per una soluzione. Tuttavia, hanno avvertito che la natura imprevedibile di questi modelli rende il problema complesso da risolvere.

Tratto da:  https://www.indiatoday.in/technology/news/story/openai-confirms-chatgpt-4-has-become-lazy-and-that-shows-ai-future-may-not-come-that-early-2474529-2023-12-11?ref=futurepedia

e opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Bing e ChatGPT-3.5 falliscono nella logica degli scacchi

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

 

Related Posts