“Dato che oltre il 70% delle persone si rivolge a Internet come prima fonte di informazioni sanitarie,1 è fondamentale identificare i tipi comuni di rischi associati alle tecnologie di intelligenza artificiale e introdurre strutture di vigilanza efficaci per mitigare tali rischi. In particolare, man mano che l’intelligenza artificiale generativa diventa sempre più sofisticata, diventerà più difficile per il pubblico discernere quando gli output (testo, audio, video) non sono corretti. In questo articolo, miriamo a differenziare i tipi comuni di rischi potenziali ed evidenziare le idee emergenti per mitigare ciascun tipo di rischio”, scrivono Michael J Sorich, professor, Bradley D Menz, doctoral student, e Ashley M Hopkins in un recente articolo su bmj.
“Sebbene l’intelligenza artificiale (AI) offra notevoli promesse di effetti positivi sulla società, può anche comportare conseguenze dannose, che possono verificarsi involontariamente o a causa di un uso improprio. Applicazioni come ChatGPT, Gemini, Midjourney e Sora mostrano la capacità dell’intelligenza artificiale generativa di creare contenuti di testo, audio, video e immagini di alta qualità. Il rapido progresso delle tecnologie di intelligenza artificiale richiede un’escalation altrettanto rapida degli sforzi per identificare e mitigare i rischi. Nuove discipline, come la sicurezza dell’intelligenza artificiale e l’intelligenza artificiale etica, mirano in generale a garantire che l’intelligenza artificiale attuale e futura operi in modo sicuro ed etico”,
In tutti i tipi di intelligenza artificiale, gli errori rappresentano una sfida comune. Poiché l’output di testo, audio e video della moderna intelligenza artificiale generativa è diventato sempre più sofisticato, le risposte errate o fuorvianti potrebbero essere difficili da rilevare. Il fenomeno delle “allucinazioni AI” ha acquisito importanza con l’uso diffuso di chatbot AI (ad esempio ChatGPT) alimentati da LLM.
Nel contesto dell’informazione sanitaria, le allucinazioni dell’IA sono particolarmente preoccupanti perché gli individui possono ricevere informazioni sanitarie errate o fuorvianti dai LLM che vengono presentati come fatti. Per i membri del pubblico in generale, che potrebbero non avere la capacità di distinguere tra informazioni corrette e errate, questo ha un notevole potenziale di danno.
Per gli operatori sanitari che utilizzano LLM per generare documentazione clinica, i risultati generati devono essere trattati come bozze che richiedono un’attenta revisione per verificarne l’accuratezza prima della finalizzazione.
Si stanno esplorando numerose strategie tecnologiche per ridurre al minimo i potenziali rischi associati agli errori dell’intelligenza artificiale generativa. Una strategia promettente per rispondere in modo accurato alle domande relative alla salute prevede lo sviluppo di applicazioni di intelligenza artificiale generativa che si “radicano” in fonti di informazione pertinenti. Questo approccio diverge dai metodi precedenti che si basavano sulle risposte generate dalla “memoria” del modello. Invece, molte applicazioni di intelligenza artificiale possono ora accedere e successivamente riassumere le informazioni provenienti da fonti aggiornate e autorevoli. Ad esempio, molti chatbot basati sull’intelligenza artificiale ora incorporano funzionalità di ricerca su Internet in tempo reale per restituire risposte che riassumono e citano esplicitamente la fonte delle informazioni.
Un altro approccio consiste nel migliorare la “quantificazione dell’incertezza” per l’IA generativa. Ciò comporta lo sviluppo di un’intelligenza artificiale generativa che comunichi meglio il livello di incertezza associato alla sua risposta. Pertanto, in caso di dubbi su una risposta, la risposta dovrebbe evidenziare chiaramente l’incertezza, consentendo così all’utente di interpretare le informazioni in modo più appropriato.
A differenza delle allucinazioni legate all’intelligenza artificiale, in cui vengono generate inavvertitamente informazioni errate o fuorvianti, è anche possibile che attori malintenzionati generino intenzionalmente informazioni errate o fuorvianti utilizzando l’intelligenza artificiale generativa se mancano protezioni efficaci. Quando non corretto o fuorviante informare l’azione viene generata deliberatamente, si parla di disinformazione. Sebbene la disinformazione non sia una novità, l’intelligenza artificiale generativa può consentire la creazione a basso costo di disinformazione diversificata, mirata e di alta qualità su vasta scala. Questo problema non è specifico della salute, ma è probabile che gli effetti di una maggiore disinformazione sanitaria siano particolarmente problematici per la società. Ad esempio, nel nostro studio, Copilot di Microsoft ha dimostrato misure di salvaguardia efficaci per prevenire la generazione di disinformazione sanitaria nel settembre 2023, ma tre mesi dopo tali misure di sicurezza non erano più presenti. Tale scoperta sottolinea che saranno necessari frequenti controlli continui di rischi e funzionalità.
Un’opzione per prevenire la disinformazione sanitaria generata dall’IA prevede la messa a punto di modelli per allinearli ai valori e alle preferenze umani, incluso evitare che vengano generate risposte dannose o di disinformazione note. Un’alternativa è costruire un modello specializzato (separato dal modello di intelligenza artificiale generativa) per rilevare richieste e risposte inappropriate o dannose. Il modello specializzato esaminerebbe la richiesta prima di consentirne il passaggio al modello di intelligenza artificiale generativa e l’output del modello di intelligenza artificiale generativa verrebbe vagliato prima di rilasciare l’output. Nello studio collegato (doi:10.1136/bmj-2023-078538), abbiamo evidenziato che molti popolari chatbot e assistenti IA, tra cui ChatGPT, Copilot, Bard e HuggingChat, non dispongono di protezioni efficaci per prevenire la generazione di disinformazione sanitaria.4
Sono inoltre in corso iniziative per facilitare la facile identificazione dei contenuti generati dall’intelligenza artificiale, come l’incorporamento di filigrane digitali. Tuttavia, sono ancora necessari progressi verso gli standard di settore per il materiale identificabile generato dall’intelligenza artificiale. Tali sforzi renderebbero più semplice per le piattaforme di condivisione dei contenuti (ad esempio, social media, motori di ricerca) identificare e rimuovere i contenuti inappropriati generati dall’intelligenza artificiale.
Altrettanto fondamentale per contrastare la disinformazione facilitata dall’IA è l’istituzione di solidi processi di vigilanza sull’IA. Man mano che l’intelligenza artificiale generativa continua a svilupparsi, è probabile che sorgano rischi emergenti e imprevisti, sottolineando l’importanza del monitoraggio continuo, della correzione delle vulnerabilità di protezione identificate e della trasparenza. Il nostro studio ha rilevato una mancanza di trasparenza tra gli sviluppatori di intelligenza artificiale generativa per quanto riguarda le misure di salvaguardia e i processi implementati per ridurre al minimo i rischi derivanti dalla disinformazione sanitaria, insieme a una carenza nel rispondere e correggere le vulnerabilità segnalate relative alla disinformazione sanitaria.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Bisogna regolamentare l’intelligenza artificiale perché non mini le democrazie, Yuval Noah Harari
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.
.