Problemi di privacy nell’uso dell’intelligenza artificiale in medicina: le applicazioni spesso stabiliscono termini e condizioni che consentono agli sviluppatori di archiviare e utilizzare le informazioni immesse

“La riservatezza delle informazioni sanitarie personali deve avere la priorità durante lo sviluppo e l’utilizzo dell’IA generativa. Le informazioni sanitarie private non dovrebbero essere utilizzate per addestrare modelli di IA generativa, poiché è difficile garantire che le informazioni sensibili non si diffondano negli output del modello”, scrivono Michael J Sorich, professor,  Bradley D Menz, doctoral student,  e Ashley M Hopkins in un recente articolo su bmj.

“Gli operatori sanitari devono anche considerare attentamente le conseguenze dell’immissione di informazioni sensibili sui pazienti negli assistenti pubblici di intelligenza artificiale e nei chatbot per attività quali la stesura di riassunti clinici, comunicazioni ed e-mail. Le applicazioni di intelligenza artificiale generativa spesso stabiliscono termini e condizioni che consentono agli sviluppatori di archiviare e utilizzare le informazioni immesse. Anche il pubblico dovrebbe esserne consapevole per evitare di inserire informazioni sensibili.

Pertanto, per i dati sensibili, è importante utilizzare solo servizi di IA generativa che si impegnano esplicitamente a non conservare i dati o eseguire il modello di IA generativa localmente per garantire che i dati sanitari non vengano inviati a terzi.

La formazione dell’intelligenza artificiale generativa richiede grandi quantità di testi, immagini e contenuti audio, spesso provenienti da Internet. Imparando da questo materiale diversificato, il modello di intelligenza artificiale rischia di ereditare i pregiudizi presenti nel materiale di formazione, e quindi l’implementazione dell’intelligenza artificiale rischia di rafforzare le disuguaglianze esistenti.

Nonostante gli sforzi degli sviluppatori per mitigare i pregiudizi, rimane difficile identificare e comprendere appieno i pregiudizi dei LLM accessibili a causa della mancanza di trasparenza sui dati e sul processo di formazione.8 In definitiva, le strategie volte a ridurre al minimo questi rischi includono l’esercizio di una maggiore discrezione nella selezione dei dati di formazione, un controllo approfondito dei risultati dell’intelligenza artificiale generativa e l’adozione di misure correttive per minimizzare i bias individuati”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Per non dimenticare: Il Garante della privacy contesta a ChatGPT la violazione della privacy

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

 

 

Related Posts