I modelli di intelligenza artificiale si evolvono continuamente, da qui la difficoltà della regolamentazione

Uno dei problemi principali della regolamentazione dell’intelligenza artificiale è che è in continua evoluzione, come un virus che muta per cui non è possibile creare un vaccino. La regolamentazione legale è in continua rincorsa e deve affrontare sempre nuove sfide. Lo spiegano bene Bertalan Meskó & Eric J. Topol in un nuovo studio su Nature.

“La maggior parte degli LLM, modelli linguistici di grandi dimensioni, sono stati rilasciati a livello globale e non sono disponibili iterazioni specifiche per paese che richiedano un approccio globale da parte delle autorità di regolamentazione. Inoltre, non è chiaro in quale categoria tecnica rientreranno gli LLM dal punto di vista normativo. Tuttavia, sulla base delle differenze tra i LLM e i precedenti metodi di deep learning, potrebbe essere necessaria una nuova categoria normativa per affrontare le sfide e i rischi specifici del LLM”, spiegano Bertalan Meskó & Eric J. Topol in un nuovo studio su Nature.

“Un organismo di regolamentazione deve elaborare regolamenti per LLM solo se gli sviluppatori di LLM affermano che il loro LLM può essere utilizzato per scopi medici; o se gli LLM sono sviluppati, adattati, modificati o diretti a scopi specificamente medici. Anche se i LLM attualmente diffusi non rientreranno in nessuna delle due categorie, probabilmente lo faranno le alternative mediche dei LLM specificamente formati su dati e database medici.

Un esempio importante è Med-PaLM su cui DeepMind e i ricercatori di Google hanno pubblicato articoli. In quello studio, gli autori hanno proposto un quadro per la valutazione umana delle risposte del modello lungo più assi tra cui fattualità, precisione, possibile danno e pregiudizi. Inoltre, utilizzando una combinazione di strategie di suggerimento, il loro modello ha raggiunto un’accuratezza del 67,6% sulle domande dell’esame di licenza medica statunitense, superando lo stato dell’arte precedente di oltre il 17%. Poiché la valutazione umana ha rivelato lacune chiave nelle risposte fornite dal LLM, hanno introdotto la messa a punto delle istruzioni e il modello risultante, Med-PaLM, funziona in modo incoraggiante, ma rimane inferiore a quello dei medici. Da allora, GPT-4 ha potuto raggiungere una precisione superiore all’85% sullo stesso esame14.

Con il rilascio di GPT-4 in grado di analizzare non solo testi ma anche immagini, si può prevedere che nel prossimo futuro il modello crescerà per analizzare documenti caricati, documenti di ricerca, appunti scritti a mano, audio e video.

Ciò sottolinea l’idea che non è sufficiente regolamentare gli attuali modelli LLM poiché ci si può aspettare che le nuove iterazioni con tali funzionalità avanzate vengano implementate a un ritmo simile alle iterazioni precedenti. Senza prendere in considerazione queste future aggiunte, un regolamento che si concentra solo sui modelli linguistici potrebbe perdere importanti aggiornamenti nel momento in cui tali aggiornamenti diventeranno ampiamente accessibili.

Le aziende con dispositivi approvati che decidono di implementare gli LLM nei propri servizi devono affrontare un’ulteriore sfida. Vale a dire, in che modo la FDA regolerà una tecnologia medica basata sull’intelligenza artificiale recentemente infusa con LLM se la tecnologia fosse già approvata per usi medici? La tabella 3 riassume le sfide normative.

Ci sono proposte sulla regolamentazione dei LLM, sebbene provengano dall’esterno dell’assistenza sanitaria. In un documento di lavoro, Hacker et al. suggerisce una nuova terminologia per catturare la catena del valore dell’intelligenza artificiale distinguendo tra sviluppatori, distributori, utenti professionali e non professionali, nonché destinatari dell’output LLM. Gli autori hanno inoltre suggerito quattro strategie per garantire che questi modelli siano affidabili e utilizzati a beneficio della società in generale. Nel dettaglio, la regolamentazione dovrebbe concentrarsi su applicazioni concrete ad alto rischio, e non sul modello stesso pre-addestrato, e dovrebbe includere (i) obblighi in materia di trasparenza, (ii) gestione del rischio, (iii) disposizioni contro la discriminazione e (iv) regole di moderazione dei contenuti15.

Mökander et al hanno sottolineato che le procedure di audit esistenti non riescono ad affrontare le sfide di governance poste dagli LLM e hanno offerto tre contributi per colmare tale lacuna:

1) stabilire la necessità di sviluppare nuove procedure di audit che catturino i rischi posti dagli LLM;

2) delineare un progetto per verificare gli LLM in modi fattibili ed efficaci attingendo alle migliori pratiche della governance IT e dell’ingegneria dei sistemi; e

3) discutere i limiti della prospettiva di effettuare l’audit degli LLM.

Tali potenziali soluzioni potrebbero fungere da punto di riferimento per le nuove normative nel settore sanitario. In entrambi i casi, le autorità di regolamentazione e i legislatori devono agire rapidamente per tenere il passo con le dinamiche dell’evoluzione e del progresso senza precedenti degli LLM”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Giustizia predittiva e intelligenza artificiale: “disumanizzare l’applicazione del diritto, moderna perversione della legge”, avv. Fusillo

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts