Perché gli algoritmi dei Large Linguistic Models come ChatGPT possono dare risposte sbagliate?

Perché gli algoritmi dei Large Linguistic Models come ChatGPT possono dare risposte sbagliate? La riposta ce la fornisce in un saggio di Sasha Latypova su The Difender.

“I Large Linguistic Models (LLM) sono sistemi in grado di generare output complessi e aperti da input in linguaggio naturale. Sono addestrati con grandi quantità di dati di testo, come libri, articoli, pagine web, ecc. Tuttavia, gli LLM possono anche generare risposte errate, fuorvianti o prive di senso per una serie di motivi. Alcuni esempi di guasti LLM e le loro possibili cause e conseguenze sono:

Errori di negazione: gli LLM possono non riuscire a gestire la negazione in modo appropriato, come produrre l’opposto di ciò che è previsto o previsto. Ad esempio, quando viene chiesto di completare una frase con un’affermazione negativa, un LLM può dare la stessa risposta di un’affermazione positiva. Ciò può portare a gravi malintesi, soprattutto in settori come la salute o la legge, poiché il modello può dare consigli dannosi.

Mancanza di comprensione: gli LLM possono apprendere la forma del linguaggio senza possedere alcuna delle abilità linguistiche intrinseche che dimostrerebbero una reale comprensione. Ad esempio, potrebbero non essere in grado di ragionare logicamente, dedurre la causalità o risolvere ambiguità. Ciò può portare a risultati privi di significato o irrilevanti che non riflettono la realtà o il buon senso. Ad esempio, Galactica e ChatGPT hanno generato articoli scientifici fasulli sui benefici del consumo di vetro frantumato o dell’aggiunta di porcellana frantumata al latte materno.

Problemi relativi ai dati: gli LLM possono ereditare opinioni esistenti. Occorre essere consapevoli dei dati di allenamento usati dagli algoritmi, possono fuorviare se contengono informazioni errate, stereotipi razziali pervasivi e linguaggio offensivo. Ad esempio, un LLM può generare risposte offensive in base all’identità o al background dell’utente o all’argomento della conversazione. Ciò può creare significativi rischi reputazionali per i fornitori di questi modelli.

Allucinazioni: questo è forse il più interessante degli strani attributi degli LLM. Nella sua forma più semplice, i modelli hanno la tendenza a inventare le cose. Ciò può essere dovuto al fatto che la casualità viene inserita nel modello quando viene previsto il token successivo. Se questo segnalino casuale conduce il modello lungo uno strano percorso allucinatorio, così sia.

Sono stupidi ma possono essere utili in alcune situazioni, ma vanno sempre controllate le informazioni di partenza, tutte!

A questo punto, questi modelli sarebbero al livello di uno stagista universitario che richiede una supervisione significativa ei cui risultati devono essere confrontati con il materiale originale. Detto questo, molte aziende utilizzano stagisti universitari per vari compiti. In particolare, l’ho trovato utile quando ho dovuto riassumere grandi quantità di informazioni da varie fonti, o quando ho avuto bisogno di un breve tutorial su un argomento totalmente nuovo. Tuttavia, devi sempre controllare le informazioni dalla fonte se vuoi che le informazioni siano veramente affidabili.

Tratto da: https://childrenshealthdefense.eu/es/agenda-mundial/limitaciones-de-la-ia/

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Per non dimenticare: Epidemiologo ingaggia una discussione con l’AI sull’drossiclorochina. Ne escono errori e disinformazione

Per non dimenticare: Quattro possibili errori letali delle armi autonome gestite dall’intelligenza artificiale

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it