Medicina e intelligenza artificiale: GPT-4 porta le potenzialità e i rischi a un nuovo livello

“GPT-4 porta le potenzialità e i rischi a un nuovo livello. Sarà in grado di leggere testi sulle immagini (compresi gli appunti scritti a mano dai medici) e analizzare il contenuto e il contesto delle immagini.  GPT-3 è in grado di gestire prompt semplici con query generali, mentre GPT-4 è in grado di analizzare prompt complessi e multilivello e fornire risultati più sofisticati come descrizioni di casi o riepiloghi di documenti di ricerca”, spiegano Bertalan Meskó & Eric J. Topol in un nuovo studio su Nature.

Con il rilascio di GPT-4 in grado di analizzare non solo testi ma anche immagini, si può prevedere che nel prossimo futuro il modello crescerà per analizzare documenti caricati, documenti di ricerca, appunti scritti a mano, audio e video.

L’applicazione del GPT-4 nel settore sanitario solleva preoccupazioni etiche che giustificano un quadro normativo. Questioni come la trasparenza, la responsabilità e l’equità devono essere affrontate per prevenire potenziali errori etici. Ad esempio, gli operatori sanitari e i pazienti dovrebbero essere informati del coinvolgimento dell’IA nel processo decisionale e ricevere spiegazioni per le raccomandazioni dell’IA.

Inoltre, la supervisione normativa può contribuire a garantire che i modelli basati sull’intelligenza artificiale non perpetuino o esacerbano le disparità sanitarie esistenti. Imponendo fonti di dati diverse e rappresentative, le autorità di regolamentazione possono contrastare potenziali distorsioni all’interno dei dati di formazione dell’intelligenza artificiale, promuovendo così l’equità nella fornitura di servizi sanitari.

L’uso di GPT-4 e ChatGPT in tali ambienti richiede normative rigorose per garantire la riservatezza e la sicurezza delle informazioni sui pazienti. Ciò potrebbe includere linee guida specifiche per l’anonimizzazione dei dati, la crittografia e l’archiviazione sicura, nonché misure per prevenire l’accesso non autorizzato o l’uso improprio dei dati da parte di terzi.

Come segno di un’ampia implementazione, le aziende mediche, i servizi sanitari digitali e le organizzazioni sanitarie hanno già iniziato a implementare ChatGPT nel loro core business. Gli esempi includono Nuance di proprietà di Microsoft che ha deciso di aggiungere GPT-4 AI al suo strumento per prendere appunti medici; e una startup francese chiamata Nabla che affermava di essere la prima a costruire uno strumento utilizzando GPT-3 per aiutare i medici a svolgere le loro pratiche burocratiche.

Tutti questi esempi e sfide spingono gli organismi di regolamentazione non solo a iniziare a regolamentare gli LLM man mano che tali modelli vengono implementati, ma a regolarli in modo diverso rispetto alle tecnologie di intelligenza artificiale attualmente sul mercato”.

Fonte

Le opinioni espresse in questo articolo sono dell’autore.

Leggi le ultime news su: https://w3b.today

Può interessarti anche: Sei importanti precauzioni da adottare quando si usa ChatGPT, illustrate dal Dr. Joseph Mercola

Seguici su Telegram https://t.me/presskit

Seguici su Facebook https://www.facebook.com/presskit.it

Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.

Related Posts