E’ facile da usare, è arrivata per restare, ma l’IA generativa presenta profonde sfide per le aziende che la costruiscono e cercano di applicarla nella pratica, così come per le molte persone che potrebbero incontrarla presto nel loro lavoro o nella vita personale.
“Il primo è il problema dell’affidabilità“, spiega Rob Porter in un recente saggio su Firsthand. “I computer possono fornire risposte credibili, ma è impossibile fidarsi completamente di qualsiasi cosa dicano. Fanno la loro ipotesi migliore sulla base di ipotesi probabilistiche informate dallo studio di montagne di dati, senza una reale comprensione di ciò che producono.
“Non hanno alcun ricordo al di fuori di una singola conversazione, non possono conoscerti e non hanno alcuna idea di cosa significhino le parole nel mondo reale”, afferma Melanie Mitchell, professoressa al Santa Fe Istituto. Semplicemente sfornando risposte dal suono persuasivo in risposta a qualsiasi suggerimento, sono imitazioni brillanti ma senza cervello, senza alcuna garanzia che il loro output sia qualcosa di più di un’allucinazione digitale.
È uno strumento che le persone possono usare in modo morale o immorale, legale o illegale, etico o non etico
Ci sono già state dimostrazioni grafiche di come la tecnologia possa produrre risultati credibili ma inaffidabili.
Alla fine dell’anno scorso, ad esempio, il genitore di Facebook Meta ha mostrato un sistema generativo chiamato Galactica che è stato addestrato su documenti accademici. Si scoprì rapidamente che il sistema produceva ricerche credibili ma false su richiesta, portando Facebook a ritirare il sistema giorni dopo.
I creatori di ChatGPT ammettono le carenze. Il sistema a volte fornisce risposte “prive di senso” perché, quando si tratta di addestrare l’IA, “al momento non esiste alcuna fonte di verità”, ha affermato OpenAI. Usare gli umani per addestrarlo direttamente, piuttosto che lasciarlo imparare da solo – un metodo noto come apprendimento supervisionato – non ha funzionato perché il sistema era spesso più bravo a trovare “la risposta ideale” rispetto ai suoi insegnanti umani, ha aggiunto OpenAI.
Una potenziale soluzione è sottoporre i risultati dei sistemi generativi a un controllo sensoriale prima che vengano rilasciati. Il sistema sperimentale LaMDA di Google, annunciato nel 2021, fornisce circa 20 risposte diverse a ciascuna richiesta e quindi valuta ciascuna di queste per “sicurezza, tossicità e radicamento”, afferma Manyika. “Facciamo una chiamata per cercare di vedere, è reale?”
Tuttavia, qualsiasi sistema che si affida agli esseri umani per convalidare l’output dell’IA solleva i propri problemi, afferma Percy Liang, professore associato di informatica alla Stanford University. Potrebbe insegnare all’intelligenza artificiale come “generare cose ingannevoli ma credibili che in realtà ingannano gli umani”, dice. “Il fatto che la verità sia così sfuggente e che gli umani non siano molto bravi a farlo è potenzialmente preoccupante”.
Secondo i sostenitori della tecnologia, ci sono modi pratici per usarla senza cercare di rispondere a queste domande filosofiche più profonde. Come un motore di ricerca su Internet, che può generare disinformazione oltre a risultati utili, le persone capiranno come ottenere il massimo dai sistemi, afferma Oren Etzioni, consulente e membro del consiglio di amministrazione di A12, l’istituto di ricerca sull’intelligenza artificiale creato da Il co-fondatore di Microsoft Paul Allen.
L’uso dell’intelligenza artificiale cambierà senza dubbio il nostro modo di vivere, ma non sappiamo se sarà per lo più buono, per lo più cattivo o una via di mezzo; sappiamo solo che è qui per restare. Come esseri umani, dobbiamo esercitare la responsabilità quando gestiamo i sistemi di intelligenza artificiale: conosciamo tutti la battuta intelligente su Skynet che diventa realtà, ma è così lontano dalla verità? L’intelligenza artificiale potrebbe rendere gli esseri umani obsoleti?”
Leggi le ultime news su: https://w3b.today
Può interessarti anche: L’intelligenza artificiale può produrre grandi quantità di disinformazione, Giacomo Miceli su Scientific America
Seguici su Telegram https://t.me/presskit