“L’Intelligenza artificiale non può sostituire il medico, ma il medico può utilizzare questo strumento per migliorare le propria capacità professionale, ottimizzando le conoscenze ed esperienza personali”. Lo spiega il presidente dell’Ordine dei Medici-Chirurghi e degli Odontoiatri della provincia di Roma, Antonio Magi, parlando dell’uso, sempre più diffuso in sanità, di sistemi legati all’Intelligenza artificiale.
“Se lasciato al governo del medico- prosegue- il ricorso all’Intelligenza artificiale è un fatto estremamente positivo, sempre che questo avvenga attraverso il rispetto di determinate regole ed entro limiti precisi. Nella parte amministrativa, come per esempio la gestione degli appuntamenti e dell’agenda, può certamente essere di aiuto. Se invece l’Intelligenza artificiale decide che per abbattere le liste d’attesa è necessario che le visite durino non più di un minuto, è chiaro che è qualcosa di sbagliato. Non è il modo migliore per aiutare la sanità”.
“Dunque- evidenzia il presidente dell’Omceo Roma- ben vengano i chatbot, chat gpt e gli altri servizi di machine learning in ambito sanitario, purchè siano usati dal medico in maniera autonoma. L’importante è che tutto venga gestito dal professionista sanitario, soprattutto per quanto riguarda le modalità e le tempistiche. Se invece il medico è costretto a seguire le indicazioni dell’Intelligenza artificiale, siamo di fronte a una stortura”.
Il numero uno dell’Omceo della Capitale si dice estremamente preoccupato dagli sviluppi che l’Intelligenza artificiale sta facendo registrare in ambito sanitario. “Si stanno creando situazioni che non aiutano affatto il medico nella propria attività professionale. Mi ha molto colpito, ad esempio, una piattaforma di Intelligenza artificiale approvata dall’ultimo Consiglio dei ministri per la medicina generale che potrebbe addirittura rappresentare un controllo sulla tipologia delle prescrizioni, togliendo di fatto al medico quella autonomia professionale indispensabile per la qualità della professione“.
“E la qualità del medico- precisa Magi- non è solo nella sua autonomia decisionale ma anche nella sua esperienza nel momento in cui è chiamato a decidere quale cura e quale terapia somministrare al paziente. Ecco perché vedo con grande preoccupazione il modo in cui l’Intelligenza artificiale potrebbe indirizzare il medico e il suo lavoro”.
Magi si sofferma poi su un aspetto medico legale: “Se a seguito di una diagnosi il medico dà una terapia certificata dall’Intelligenza artificiale e poi però non risulta corretta, la responsabilità ricade comunque e sempre sul medico. E dunque, la deve usare o meno? Potremmo ritrovarci di fronte a un caso di medicina difensiva anche nell’Intelligenza artificiale” conclude il presidente dell’Omceo Roma.
Le opinioni espresse in questo articolo sono dell’autore.
Leggi le ultime news su: https://w3b.today
Può interessarti anche: Problemi di privacy nell’uso dell’intelligenza artificiale in medicina: le applicazioni spesso stabiliscono termini e condizioni che consentono agli sviluppatori di archiviare e utilizzare le informazioni immesse
Seguici su Telegram https://t.me/presskit
Seguici su Facebook https://www.facebook.com/presskit.it
Copiate l’articolo, se volete, vi chiediamo solo di mettere un link al pezzo originale.