Rischi e sfide dei modelli linguistici di grandi dimensioni nel settore sanitario per medici e pazienti: pregiudizi, distorsioni e fake

L’introduzione di questi modelli nel settore sanitario porta all’amplificazione dei rischi e delle sfide.

“Ha iniziato a rappresentare una nuova sfida per i medici poiché i pazienti arrivano alla riunione non solo con le risposte ricevute dopo aver cercato su Google i loro sintomi, ma anche da chatbot simili a ChatGPT. Si è discusso in che misura ChatGPT possa essere utilizzato per la ricerca medica e per riassumere documenti sottoposti a revisione paritaria quando fornisce solo fonti su cui ha basato le sue risposte dopo averlo specificamente richiesto. Inoltre, è stato segnalato che alcune di queste fonti sono inventate”, spiegano Bertalan Meskó & Eric J. Topol in un nuovo studio su Nature.

“Gli LLM a volte possono “allucinare” i risultati, il che si riferisce alla generazione di output che non sono basati sui dati di input o su informazioni fattuali. Tale disinformazione può essere correlata a una diagnosi, a un trattamento o a un test consigliato. Per chi non lo sapesse, tali risultati vengono trasmessi con un alto livello di sicurezza e potrebbero essere facilmente accettati dal suggeritore come verità, il che può potenzialmente essere pericoloso. Che sia dovuto a dati di addestramento incompleti o distorti, alla loro natura probabilistica o alla mancanza di contesto; comporta un rischio significativo di fornire risposte inaffidabili o completamente false in ambito medico che potrebbero avere gravi conseguenze.

Un altro problema, i pregiudizi in medicina durante l’utilizzo degli LLM possono influenzare il processo decisionale clinico, i risultati dei pazienti e l’equità sanitaria. Se i dati di formazione contengono pregiudizi, come la sottorappresentazione di determinati gruppi demografici, un’enfasi eccessiva su trattamenti specifici o pratiche mediche obsolete, gli LLM potrebbero inavvertitamente apprendere e propagare questi pregiudizi nei suoi risultati. I risultati distorti di GPT-4 possono portare a diagnosi errate o raccomandazioni terapeutiche non ottimali, causando potenzialmente danni ai pazienti o ritardando cure adeguate”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Intelligenza artificiale in medicina: c’è il pericolo che sia programmata per indirizzare i pazienti verso particolari farmaci

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts