ISOMERISM, e così SIT e SCImPULSE, contribuiranno al QUATTORDICESIMO CONVEGNO DI TRAUMATOLOGIA CLINICA E FORENSE & 21° Corso di Ortopedia, Traumatologia e Medicina Legale, 29-30 Novembre 2024 presso il Palazzo dei Congressi - Salsomaggiore Terme (PR), dedicato alla prognosi, e specificamente alla sfida della previsione dell'evoluzione clinica in base alla storia del paziente, e come conseguentemente moderare il rischio: "Complessità clinica: dallo stato anteriore al rischio. L’insuccesso in Ortopedia e in Medicina Riabilitativa".
Imperdibile la sessione dedicata a "LA RESPONSABILITÀ DELLA TELEMEDICINA NEL TELECONSULTO" presieduta dal Presidente Prof. Antonio V. Gaddi.
...E che dire dell'intervento che sarà condiviso dal Presidente Dott. Marco Manca sul tema "Riflessioni tecniche e applicative sulla IA nella gestione del paziente ortopedico" il Venerdì 29 Novembre 2024, nel contesto della sessione di apertura dei lavori? Qui di seguito l'abstract che sarà incluso negli atti congressuali, in anteprima:
(DOI: 10.5281/zenodo.14024698, licenza CC BY-NC 4.0)
L'uso dell'intelligenza artificiale (IA) in ortopedia e traumatologia ha una lunga storia, dapprima come supporto allo studio delle immagini radiografiche, e poi già negli anni ’90 del secolo scorso con i primi sistemi robotici [Paul HA, Bargar WL, Mittlestadt B, Musits B, Taylor RH, Kazanzides P, Zuhars J, Williamson B, Hanson W. Development of a surgical robot for cementless total hip arthroplasty. Clin Orthop Relat Res. 1992 Dec;(285):57-66]. Tuttavia, l'integrazione di queste tecnologie solleva importanti questioni di responsabilità medico-legale. Per qualificare le implicazioni legali dell’IA è necessario riferirsi ad un corretto inquadramento tecnico ed al perimetro di applicazione. Non potendo qui essere esaustivi, ci riferiremo a tre macroaree: l'analisi delle immagini radiologiche, i sistemi di supporto decisionale clinico (CDSS) e l'IA generativa applicata al riassunto e reporting dei casi.
Analisi delle Immagini Radiologiche
L'uso dell'IA per l'analisi delle immagini radiologiche è uno dei settori di più longeva applicazione e forse per questo uno dei più promettenti. Tuttavia, la responsabilità in questo contesto è complessa. In caso di errore diagnostico, la responsabilità può ricadere sul produttore del software, sul medico che ha interpretato i risultati o sulla struttura sanitaria che ha adottato la tecnologia. È importante che i professionisti siano formati a valutare la rilevanza dei dati di addestramento al dominio delle possibilità legato al dubbio diagnostico, e che sia accessibile una fenomenologia degli errori del modello associati alle relative frequenze/probabilità, infine che sia prevista una modalità operativa per la moderazione del rischio.
Sistemi di Supporto Decisionale Clinico (CDSS)
I CDSS basati su IA mirano ad assistere i medici nel disegno degli iter diagnostici e nella scelta delle terapie più appropriate, promettendo un guadagno di efficacia/efficienza basata sull’opportunità costituita dai “segnali deboli” rilevabili su grandi basi di dati di pratica precedente. Questi sistemi possono accelerare significativamente la pratica clinica, ma portano con sé un elevato rischio di errore e bias. I dati su cui vengono allenati includono molte sfumature di errore e di grandi e piccole discriminazione che a volte avvengono a causa di fattori non direttamente clinici (ad esempio accessibilità differenziale dei servizi per geografia, o per fascia di reddito quando si considerino i costi diretti ed indiretti delle cure) e pertanto particolarmente insidiosi. Un disegno dei servizi che adottino CDSS di tipo man-in-the-loop [Eduardo Mosqueira-Rey, Elena Hernández-Pereira, David Alonso-Ríos, José Bobes-Bascarán, and Ángel Fernández-Leal. 2022. Human-in-the-loop machine learning: a state of the art. Artif. Intell. Rev. 56, 4 (Apr 2023), 3005–3054. https://doi.org/10.1007/s10462-022-10246-w], che garantisca trasparenza del CDSS (la cosiddetta spiegabilità) e che garantisca un ruolo critico chiave dell’operatore umano [Agudo U, Liberal KG, Arrese M, Matute H. The impact of AI errors in a human-in-the-loop process. Cogn Res Princ Implic. 2024 Jan 7;9(1):1. doi: 10.1186/s41235-023-00529-3] nei momenti decisionali, è tra le misure fondamentali della ricerca di un buon outcome.
Intelligenza Artificiale Generativa per Riassunto e Reporting dei Casi
I modelli di linguaggio di grandi dimensioni (LLM, un esempio molto popolare di IA generativa), possono essere utilizzati per catturare interazioni significative [Steve Lohr. A.I. May Someday Work Medical Miracles. For Now, It Helps Do Paperwork. New York Times; June 26, 2023], e riassumere o documentare interi casi clinici, promettendo una significativa riduzione del carico amministrativo. Tuttavia, l'uso di IA generativa comporta rischi legati alla loro inaccuratezza, fenomeno che è diventato popolarmente noto con il termine improprio ed antropomorfizzante [Floridi, Luciano and Nobre, Anna C, Anthropomorphising machines and computerising minds: the crosswiring of languages between Artificial Intelligence and Brain & Cognitive Sciences (February 25, 2024). Centre for Digital Ethics (CEDE) Research Paper No. Forthcoming, http://dx.doi.org/10.2139/ssrn.4738331] di allucinazioni. Se la responsabilità potrebbe essere attribuita al fornitore del software, al medico che ha utilizzato il sistema, o alla struttura sanitaria, in funzione del momento e del tipo di conseguenze che dovessero realizzarsi, e del contesto d’uso, è fondamentale che si consideri la relativa unicità della vulnerabilità introdotta da queste tecnologie in ambito sanitario. L’introduzione di un errore in cui viene prodotto un output verosimigliante ma falso, rende particolarmente ostica la moderazione umana degli errori di questi sistemi.
È fervente l’attività di ricerca nel campo delle applicazioni dell’IA alla Sanità/medicina, ma affetta da innumerevoli errori metodologici, spesso “giustificati” dalla difficoltà di avere accesso a larghe basi di dati indipendenti, e da un certo bias da specialismo, ovvero una certa idea per cui si vorrebbe l’IA non passibile di valutazione secondo i metodi scientifici applicati agli altri strumenti che l’hanno preceduta. Pochi sono ancora gli esempi di studi ben concepiti [Lenharo M. The testing of AI in medicine is a mess. Here's how it should be done. Nature. 2024 Aug;632(8026):722-724. doi: 10.1038/d41586-024-02675-0] tra i tantissimi che regolarmente raggiungono il pubblico a mezzo press release. La rapida e forse precoce adozione dell’IA nel contesto delle attività di ricerca e nell’industria delle pubblicazioni complica ulteriormente il quadro, iniettando nell’ecosistema dati e risultati spuri, difficili da filtrare in tempo reale.
Ciò non di meno, importanti attività di esplorazione e riflessione sono in corso per definire standards per il reporting degli studi in cui sia coinvolta IA medicale, chiarire su quale corso evolutivo debba muoversi la pedagogia dei professionisti, lanciare programmi di valutazione ed audit longitudinali di questi strumenti innovativi nell’uso reale, tra molto altro.
In sintesi, l'uso dell'intelligenza artificiale in ortopedia e traumatologia offre allettanti opportunità, ma comporta anche rischi significativi dal punto di vista medico-legale. È essenziale un approccio equilibrato che integri innovazione e responsabilità per garantire la sicurezza dei pazienti e la protezione dei professionisti.
No comments:
Post a Comment