I sistemi di mitigazione degli sbagli dell’intelligenza artificiale non la rendono infallibile

L’intelligenza artificiale non è infallibile, fa sbagli, ha allucinazioni, chiunque abbia mai usato ChatGPT lo ha sperimentato di persona. “Quindi cosa facciamo?”, si chiede Matteo Flora, docente di Cyber Security all’Università degli Studi di Milano, durante un intervento al “AI e manomissioni delle informazioni, discriminazioni, fake news e rischi per la democrazia”, organizzato dall’ordine degli avvocati di Milano.
“La usiamo lo stesso, continuiamo a mitigare, tendo presente che i sistemi di mitigazione non sono sistemi che rendono infallibile o abbassano il rischio”.
La mitigazione degli errori dell’AI è un aspetto fondamentale per il miglioramento dei sistemi, ma non può essere considerata una soluzione definitiva. Flora sottolinea che questi sistemi di mitigazione non eliminano il rischio di errori né garantiscono l’infallibilità. Al contrario, è essenziale comprendere che questi strumenti servono principalmente come un “salvagente”, una misura di sicurezza per limitare i danni potenziali.

“Che cos’è l’allineamento? Sono quella serie di processi post training, dopo che io ho trainato, ho fatto tutte le mie cose, ho il sistema bellissimo intelligente, dopo di quello sono una serie di operazioni che vengono fatte per tentare di fare in modo che lo scopo con cui agisce l’intelligenza artificiale sia allineato con i valori etici e morali dell’umanità,” ha spiegato Flora. Questo processo è essenziale per assicurare che l’AI operi in modo eticamente corretto e responsabile.

Tuttavia, Flora evidenzia un problema significativo: l’infallibilità dell’intelligenza artificiale è un mito. “Però è un procedimento molto diverso, c’è un motivo secondo me per cui non ne parla l’AI Act, perché dovrebbe dire premesso che l’AI sbaglia e non esisterà mai nella vita una AI infallibile, matematicamente lo sappiamo, non esisterà mai nella vita la possibilità di dire che non sbaglia, premesso questo facciamo in modo che si muova su quel binario.”

L’accettazione dell’inevitabilità degli errori dell’AI è un passo cruciale. Sapere che l’AI sbaglierà sempre, almeno in qualche misura, porta a un cambiamento di paradigma: invece di cercare l’infallibilità, dobbiamo lavorare per creare sistemi che siano resilienti e che possano operare in modo sicuro e responsabile all’interno dei limiti umani e tecnologici.

La mitigazione degli errori non equivale all’infallibilità è essenziale per evitare illusioni pericolose e per indirizzare i nostri sforzi verso soluzioni pratiche e etiche. Solo con un approccio consapevole e critico possiamo sperare di sfruttare appieno il potenziale dell’AI, minimizzando i rischi e massimizzando i benefici per la società.

Fonte

e opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Per non dimenticare: L’intelligenza artificiale ha scarsa memoria semantica, da qui le allucinazioni, gli sbagli

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts