“GPT-4 porta le potenzialità e i rischi a un nuovo livello. Sarà in grado di leggere testi sulle immagini (compresi gli appunti scritti a mano dai medici) e analizzare il contenuto e il contesto delle immagini. GPT-3 è in grado di gestire prompt semplici con query generali, mentre GPT-4 è in grado di analizzare prompt complessi e multilivello e fornire risultati più sofisticati come descrizioni di casi o riepiloghi di documenti di ricerca”, spiegano Bertalan Meskó & Eric J. Topol in un nuovo studio su Nature.
Con il rilascio di GPT-4 in grado di analizzare non solo testi ma anche immagini, si può prevedere che nel prossimo futuro il modello crescerà per analizzare documenti caricati, documenti di ricerca, appunti scritti a mano, audio e video.
L’applicazione del GPT-4 nel settore sanitario solleva preoccupazioni etiche che giustificano un quadro normativo. Questioni come la trasparenza, la responsabilità e l’equità devono essere affrontate per prevenire potenziali errori etici. Ad esempio, gli operatori sanitari e i pazienti dovrebbero essere informati del coinvolgimento dell’IA nel processo decisionale e ricevere spiegazioni per le raccomandazioni dell’IA.
Inoltre, la supervisione normativa può contribuire a garantire che i modelli basati sull’intelligenza artificiale non perpetuino o esacerbano le disparità sanitarie esistenti. Imponendo fonti di dati diverse e rappresentative, le autorità di regolamentazione possono contrastare potenziali distorsioni all’interno dei dati di formazione dell’intelligenza artificiale, promuovendo così l’equità nella fornitura di servizi sanitari.
L’uso di GPT-4 e ChatGPT in tali ambienti richiede normative rigorose per garantire la riservatezza e la sicurezza delle informazioni sui pazienti. Ciò potrebbe includere linee guida specifiche per l’anonimizzazione dei dati, la crittografia e l’archiviazione sicura, nonché misure per prevenire l’accesso non autorizzato o l’uso improprio dei dati da parte di terzi.
Come segno di un’ampia implementazione, le aziende mediche, i servizi sanitari digitali e le organizzazioni sanitarie hanno già iniziato a implementare ChatGPT nel loro core business. Gli esempi includono Nuance di proprietà di Microsoft che ha deciso di aggiungere GPT-4 AI al suo strumento per prendere appunti medici; e una startup francese chiamata Nabla che affermava di essere la prima a costruire uno strumento utilizzando GPT-3 per aiutare i medici a svolgere le loro pratiche burocratiche.
Tutti questi esempi e sfide spingono gli organismi di regolamentazione non solo a iniziare a regolamentare gli LLM man mano che tali modelli vengono implementati, ma a regolarli in modo diverso rispetto alle tecnologie di intelligenza artificiale attualmente sul mercato”.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Sei importanti precauzioni da adottare quando si usa ChatGPT, illustrate dal Dr. Joseph Mercola
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.