I due principali sistemi sanitari della Florida centrale, Orlando Health e AdventHealth Central Florida, utilizzano ampiamente l’intelligenza artificiale per il lavoro amministrativo e, sempre più, per lanciare allarmi precoci su potenziali malattie, tra cui il cancro al pancreas mortale e la sepsi.
La maggior parte delle attività assistite dall’intelligenza artificiale comportano lavoro amministrativo, come la registrazione e la trascrizione degli appuntamenti, quindi la generazione di note cliniche e riepiloghi. Ciò fa risparmiare tempo ai fornitori nel contesto della cronica carenza di personale della Florida.
Viene anche utilizzato in ambito limitato per risolvere problemi specifici e fornire una rete di sicurezza. Ad esempio, AdventHealth ha integrato l’intelligenza artificiale nel suo reparto di imaging nel 2020 per segnalare i primi segni di potenziali ictus. Il sistema dispone di raggi X con intelligenza artificiale per lo screening dell’osteoporosi.
L’intelligenza artificiale monitora inoltre i parametri vitali dei pazienti e avvisa i fornitori di segni di sepsi, una risposta immunitaria potenzialmente mortale e una delle principali cause di morte negli ospedali statunitensi.
Presso Orlando Health, l’intelligenza artificiale aiuta a identificare i candidati per il suo programma ospedaliero a domicilio. È rivolto alle persone che necessitano di cure di livello ospedaliero ma che sono indipendenti e sufficientemente stabili da vivere a casa con visite quotidiane e monitoraggio remoto.
L’intelligenza artificiale aiuta anche a monitorare a distanza i parametri vitali di questi pazienti e allerta gli infermieri – che li osservano 24 ore su 24, 7 giorni su 7 presso un centro di assistenza pazienti – quando un paziente potrebbe essere in difficoltà.
Mary Mayhew, presidente e amministratore delegato della Florida Hospital Association, ha affermato che l’intelligenza artificiale sta riducendo il burnout riducendo il lavoro amministrativo. Spera in un futuro in cui l’intelligenza artificiale possa fare ancora di più. Ma, ha aggiunto, è necessario che siano mantenute adeguate garanzie.
“L’intelligenza artificiale è valida tanto quanto le informazioni e i dati che possiede”, ha affermato Mayhew. “Dobbiamo essere consapevoli dei potenziali pregiudizi nel modo in cui i dati vengono sviluppati e analizzati attraverso l’intelligenza artificiale. È qui che gli esseri umani, il giudizio e il processo decisionale critico devono rimanere in prima linea”.
Queste tecnologie di intelligenza artificiale commettono ancora errori. Uno studio del 2023 su oltre 11.000 pazienti ha rilevato che la tecnologia dell’IA per la sepsi era associata a una riduzione del 44% delle morti per sepsi. Ma uno studio di febbraio dell’Università del Michigan ha analizzato la stessa tecnologia di sepsi AI utilizzata su più di 77.000 pazienti e ha scoperto che era in grado di predire la sepsi solo nella metà dei pazienti che alla fine l’hanno contratta e non si poteva contare in modo affidabile per diagnosticare la sepsi più velocemente dei professionisti medici.
Uno studio del 2023 condotto da ricercatori di Stanford ha testato se i medici potevano fare affidamento sul collegamento degli scenari clinici dei pazienti alla Chat GPT-4 e chiedere alla tecnologia di fornire consigli. I ricercatori hanno scoperto che il software rispondeva correttamente solo nel 41% dei casi. Circa il 6% delle volte, la risposta includeva una citazione falsa, un fenomeno definito “allucinante” che i creatori non sono ancora stati in grado di risolvere.
Tradotto da: Fonte
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Intelligenza artificiale in medicina: c’è il pericolo che sia programmata per indirizzare i pazienti verso particolari farmaci
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.