“La riservatezza delle informazioni sanitarie personali deve avere la priorità durante lo sviluppo e l’utilizzo dell’IA generativa. Le informazioni sanitarie private non dovrebbero essere utilizzate per addestrare modelli di IA generativa, poiché è difficile garantire che le informazioni sensibili non si diffondano negli output del modello”, scrivono Michael J Sorich, professor, Bradley D Menz, doctoral student, e Ashley M Hopkins in un recente articolo su bmj.
“Gli operatori sanitari devono anche considerare attentamente le conseguenze dell’immissione di informazioni sensibili sui pazienti negli assistenti pubblici di intelligenza artificiale e nei chatbot per attività quali la stesura di riassunti clinici, comunicazioni ed e-mail. Le applicazioni di intelligenza artificiale generativa spesso stabiliscono termini e condizioni che consentono agli sviluppatori di archiviare e utilizzare le informazioni immesse. Anche il pubblico dovrebbe esserne consapevole per evitare di inserire informazioni sensibili.
Pertanto, per i dati sensibili, è importante utilizzare solo servizi di IA generativa che si impegnano esplicitamente a non conservare i dati o eseguire il modello di IA generativa localmente per garantire che i dati sanitari non vengano inviati a terzi.
La formazione dell’intelligenza artificiale generativa richiede grandi quantità di testi, immagini e contenuti audio, spesso provenienti da Internet. Imparando da questo materiale diversificato, il modello di intelligenza artificiale rischia di ereditare i pregiudizi presenti nel materiale di formazione, e quindi l’implementazione dell’intelligenza artificiale rischia di rafforzare le disuguaglianze esistenti.
Nonostante gli sforzi degli sviluppatori per mitigare i pregiudizi, rimane difficile identificare e comprendere appieno i pregiudizi dei LLM accessibili a causa della mancanza di trasparenza sui dati e sul processo di formazione.8 In definitiva, le strategie volte a ridurre al minimo questi rischi includono l’esercizio di una maggiore discrezione nella selezione dei dati di formazione, un controllo approfondito dei risultati dell’intelligenza artificiale generativa e l’adozione di misure correttive per minimizzare i bias individuati”.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Per non dimenticare: Il Garante della privacy contesta a ChatGPT la violazione della privacy
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.