“Circa 15.000 dottori e assistenti in più di 150 sistemi sanitari stanno utilizzando una nuova funzionalità di intelligenza artificiale in MyChart per redigere le risposte a tali messaggi”, spiega Teddy Rosenbluth parlando dell’app MyChart.
“Nelle interviste, i funzionari di diversi sistemi sanitari che utilizzano lo strumento di MyChart hanno riconosciuto di non divulgare che i messaggi contengono contenuti generati dall’intelligenza artificiale” …e i pazienti potrebbero non saperne nulla, in quanto non tutti lo dichiarano.
“La tendenza preoccupa alcuni esperti che temono che i dottori potrebbero non essere abbastanza vigili da individuare errori potenzialmente pericolosi in messaggi clinicamente significativi redatti dall’intelligenza artificiale.
In un settore che ha ampiamente utilizzato l’intelligenza artificiale per affrontare compiti amministrativi come riassumere le note degli appuntamenti o contestare i dinieghi assicurativi, i critici temono che l’ampia adozione dello strumento MyChart abbia permesso all’intelligenza artificiale di insinuarsi nel processo decisionale clinico e nelle relazioni medico-paziente.
Lo strumento può già essere istruito a scrivere con la voce di un singolo medico. Ma non sempre elabora risposte corrette.
“Il discorso di vendita è stato che dovrebbe far risparmiare loro tempo in modo che possano dedicare più tempo a parlare con i pazienti”, ha affermato Athmeya Jayaram, ricercatrice presso l’Hastings Center, un istituto di ricerca sulla bioetica a Garrison, New York”.
La tendenza a chiedere consulenze mediche via Chat o on-line ai propri medici è iniziata negli anni della pandemia e non si è più fermata.
“Lo strumento MyChart, chiamato In Basket Art”, spiega Teddy Rosenbluth, “estrae il contesto dai messaggi precedenti del paziente e dalle informazioni della sua cartella clinica elettronica, come un elenco di farmaci, per creare una bozza che i fornitori possono approvare o modificare.
Lasciando che i medici agissero più come editor, i sistemi sanitari speravano di poter elaborare i messaggi dei pazienti più velocemente e impiegare meno energia mentale nel farlo.
In assenza di rigide normative federali o quadri etici ampiamente accettati, ogni sistema sanitario decide come testare la sicurezza dello strumento e se informare i pazienti sul suo utilizzo.
Alcuni sistemi ospedalieri, come U.C. San Diego Health, inseriscono una nota in fondo a ogni messaggio spiegando che è stato “generato automaticamente” e revisionato e modificato da un medico”.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Laura Teodori mette in guardia dai pericoli dei pazienti curati con gli algoritmi: i soldi per la medicina di prossimità sono per la digitalizzazione
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Seguici su X: https://x.com/Presskit_
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.