I ricercatori sono cautamente ottimisti su dove l’intelligenza artificiale generativa (GenAI) guiderà l’umanità, ma “dobbiamo sviluppare più guardrail”. Questo è il pensiero di Pascale Fung, Chair Professor, Department of Electronic and Computer Engineering, Hong Kong SAR, Cina.
“Dobbiamo disporre di un quadro per lo sviluppo di una modalità GenAI responsabile, non solo mantenendo un essere umano nel giro, ma per comprendere fondamentalmente questi modelli e allinearli con ciò che gli umani vogliono a livello di dati, modello di addestramento, livello di prestazioni delle attività”. Potenti e creativi, questi modelli segnano un “salto quantico nella civiltà umana”.
Cathy Li, Head, AI, Data and Metaverse e Membro del Comitato Esecutivo, World Economic Forum, ha moderato la sessione. Ha detto: “È fondamentale che tutti comprendano l’enorme potenziale che vediamo con questa nuova tecnologia, ma anche le sfide e le responsabilità che ne derivano”.
La sessione è stata facilitata da AI Governance Alliance, un’iniziativa multistakeholder che unisce leader del settore, governi, istituzioni accademiche e organizzazioni della società civile per sostenere la progettazione globale responsabile e il rilascio di sistemi di intelligenza artificiale trasparenti e inclusivi. Fa seguito a un vertice del Forum economico mondiale sulla leadership responsabile dell’IA, che ha convocato leader di pensiero e professionisti e ha prodotto le Raccomandazioni del Presidio sull’IA generativa responsabile.
Fung, che ha contribuito alle raccomandazioni, ha spiegato l’importanza della trasparenza nei modelli GenAI in modo che i ricercatori possano mitigare “l’allucinazione del modello” e moderare i pregiudizi, addestrare l’IA sui dati di numerose lingue ed evitare contenuti tossici.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Primo corso sui risvolti etici delle nuove tecnologie organizzato da Ateneo Pontificio e UER
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it