Saturday, June 21, 2025

Prof. Antonio Gaddi sulla telemedicina a "Sei in Salute"

 Il Presidente di SIT (Societa' Italiana di Telemedicina) e' intervenuto alla 30esima puntata della stagione 2024-2025 di "Sei in Salute". La registrazione e' disponibile qui di seguito:



Wednesday, June 18, 2025

Alert: Rething digital health, from technology to therapeutic relationships. Coming on June 23, 2025

 In the context of DIGICARE Academy, Dr Marco Manca (President of SCImPULSE Foundation)is invited to share his mind about the role of Digital Health not just as a tool for efficiency and convenience, but as empowerer of the therapeutic relationships.


Participation is free, just follow the instructions here

Sunday, June 8, 2025

Alert: International One Health Conference 2025 coming on Sept30-Oct2, 2025

The 4th International One Health Conference 2025 is scheduled to take place in Rome from September 30 to October 2, 2025. The conference will adopt a hybrid format, dedicating two days to exchanging and discussing experiences related to systemic approaches within the One Health framework and exploring a vision for improving systemic management of urban and natural resources.



The Conference aims to foster synergistic dialogues across various research disciplines and practical domains involving researchers, experts, and students.


The One Health conceptual framework and its potential contributions to enhancing urban resilience capacities will be central to the congress discussions. 

Wednesday, May 28, 2025

There and back again. European diversity as a ladder for growth

  On May the 28th, 2025 Dr Marco Manca (President of SCImPULSE Foundation) has shared with international peers and a brilliant audience his wisdom about managing innovation in healthcare



His message has been clear. To nurture innovation as a force for good in healthcare managers have to hold on to 3 key principles:

  1. promoting a culture of transparency, where any actor involved is free to contribute and raise questions;
  2. knowing one's own value chain and how it compares to the stakeholders', as a key to maintain a healthy alignment between goals and actionability; 
  3. identifying the sectors/domains where a blame free culture is beneficial, and necessary, and those where a healthy spending control can become a leverage for change.
The time available was limited, but if you are curious to read more about the value chain maturity mapping technique he referred to, please head to where its original author kindly contributed the documentation in open access guise.

Sunday, November 10, 2024

Progettiamo insieme la cardiologia del futuro: Convention NEXT-GEN 2024

 SIT ed ISOMERISM contribuiranno a questo prestigioso evento formativo:


Negli ultimi anni le problematiche della sicurezza dei pazienti e dei luoghi di cura stanno prendendo sempre più importanza a causa del loro impatto prognostico, clinico e medico-legale. Il corso si propone di dare una sintetica rassegna delle principali problematiche di rischio clinico e responsabilità professionale presente nelle cardiologie italiane. 
Ci saranno inoltre sessioni dedicate agli aspetti organizzativi e di sviluppo della cardiologia del S.S.N. e alle prospettive lavorative e formative, italiane ed europee, dei giovani cardiologi.

Il giorno 15 Novembre, in particolare, non perdete le sessioni "CARDIOLOGIA DIGITALE E INTELLIGENZA ARTIFICIALE: DUE SINONIMI O DUE REALTÀ IN DIVENIRE?" e "L’ITALIA CHE GUARDA ALL’EUROPA: QUALI PROPOSTE E OPPORTUNITÀ PER I GIOVANI CARDIOLOGI"!

Il parterre di docenti ed esperti coinvolti è prestigioso, e di provata competenza



Il programma definitivo è disponibile qui


Saturday, November 2, 2024

Riflessioni tecniche e applicative sulla IA nella gestione del paziente ortopedico

ISOMERISM, e così SIT e SCImPULSE, contribuiranno al QUATTORDICESIMO CONVEGNO DI TRAUMATOLOGIA CLINICA E FORENSE & 21° Corso di Ortopedia, Traumatologia e Medicina Legale, 29-30 Novembre 2024 presso il Palazzo dei Congressi - Salsomaggiore Terme (PR), dedicato alla prognosi, e specificamente alla sfida della previsione dell'evoluzione clinica in base alla storia del paziente, e come conseguentemente moderare il rischio: "Complessità clinica: dallo stato anteriore al rischio. L’insuccesso in Ortopedia e in Medicina Riabilitativa".

Imperdibile la sessione dedicata a "LA RESPONSABILITÀ DELLA TELEMEDICINA NEL TELECONSULTO" presieduta dal Presidente Prof. Antonio V. Gaddi.

...E che dire dell'intervento che sarà condiviso dal Presidente Dott. Marco Manca sul tema "Riflessioni tecniche e applicative sulla IA nella gestione del paziente ortopedico" il Venerdì 29 Novembre 2024, nel contesto della sessione di apertura dei lavori? Qui di seguito l'abstract che sarà incluso negli atti congressuali, in anteprima:

(DOI: 10.5281/zenodo.14024698, licenza CC BY-NC 4.0)

L'uso dell'intelligenza artificiale (IA) in ortopedia e traumatologia ha una lunga storia, dapprima come supporto allo studio delle immagini radiografiche, e poi già negli anni ’90 del secolo scorso con i primi sistemi robotici [Paul HA, Bargar WL, Mittlestadt B, Musits B, Taylor RH, Kazanzides P, Zuhars J, Williamson B, Hanson W. Development of a surgical robot for cementless total hip arthroplasty. Clin Orthop Relat Res. 1992 Dec;(285):57-66]. Tuttavia, l'integrazione di queste tecnologie solleva importanti questioni di responsabilità medico-legale. Per qualificare le implicazioni legali dell’IA è necessario riferirsi ad un corretto inquadramento tecnico ed al perimetro di applicazione. Non potendo qui essere esaustivi, ci riferiremo a tre macroaree: l'analisi delle immagini radiologiche, i sistemi di supporto decisionale clinico (CDSS) e l'IA generativa applicata al riassunto e reporting dei casi.

Analisi delle Immagini Radiologiche

L'uso dell'IA per l'analisi delle immagini radiologiche è uno dei settori di più longeva applicazione e forse per questo uno dei più promettenti. Tuttavia, la responsabilità in questo contesto è complessa.  In caso di errore diagnostico, la responsabilità può ricadere sul produttore del software, sul medico che ha interpretato i risultati o sulla struttura sanitaria che ha adottato la tecnologia. È importante che i professionisti siano formati a valutare la rilevanza dei dati di addestramento al dominio delle possibilità legato al dubbio diagnostico, e che sia accessibile una fenomenologia degli errori del modello associati alle relative frequenze/probabilità, infine che sia prevista una modalità operativa per la moderazione del rischio.

Sistemi di Supporto Decisionale Clinico (CDSS)

I CDSS basati su IA mirano ad assistere i medici nel disegno degli iter diagnostici e nella scelta delle terapie più appropriate, promettendo un guadagno di efficacia/efficienza basata sull’opportunità costituita dai “segnali deboli” rilevabili su grandi basi di dati di pratica precedente. Questi sistemi possono accelerare significativamente la pratica clinica, ma portano con sé un elevato rischio di errore e bias. I dati su cui vengono allenati includono molte sfumature di errore e di grandi e piccole discriminazione che a volte avvengono a causa di fattori non direttamente clinici (ad esempio accessibilità differenziale dei servizi per geografia, o per fascia di reddito quando si considerino i costi diretti ed indiretti delle cure) e pertanto particolarmente insidiosi. Un disegno dei servizi che adottino CDSS di tipo man-in-the-loop [Eduardo Mosqueira-Rey, Elena Hernández-Pereira, David Alonso-Ríos, José Bobes-Bascarán, and Ángel Fernández-Leal. 2022. Human-in-the-loop machine learning: a state of the art. Artif. Intell. Rev. 56, 4 (Apr 2023), 3005–3054. https://doi.org/10.1007/s10462-022-10246-w], che garantisca trasparenza del CDSS (la cosiddetta spiegabilità) e che garantisca un ruolo critico chiave dell’operatore umano [Agudo U, Liberal KG, Arrese M, Matute H. The impact of AI errors in a human-in-the-loop process. Cogn Res Princ Implic. 2024 Jan 7;9(1):1. doi: 10.1186/s41235-023-00529-3] nei momenti decisionali, è tra le misure fondamentali della ricerca di un buon outcome.

Intelligenza Artificiale Generativa per Riassunto e Reporting dei Casi

I modelli di linguaggio di grandi dimensioni (LLM, un esempio molto popolare di IA generativa), possono essere utilizzati per catturare interazioni significative [Steve Lohr. A.I. May Someday Work Medical Miracles. For Now, It Helps Do Paperwork. New York Times; June 26, 2023], e riassumere o documentare interi casi clinici, promettendo una significativa riduzione del carico amministrativo. Tuttavia, l'uso di IA generativa comporta rischi legati alla loro inaccuratezza, fenomeno che è diventato popolarmente noto con il termine improprio ed antropomorfizzante [Floridi, Luciano and Nobre, Anna C, Anthropomorphising machines and computerising minds: the crosswiring of languages between Artificial Intelligence and Brain & Cognitive Sciences (February 25, 2024). Centre for Digital Ethics (CEDE) Research Paper No. Forthcoming, http://dx.doi.org/10.2139/ssrn.4738331] di allucinazioni. Se la responsabilità potrebbe essere attribuita al fornitore del software, al medico che ha utilizzato il sistema, o alla struttura sanitaria, in funzione del momento e del tipo di conseguenze che dovessero realizzarsi, e del contesto d’uso, è fondamentale che si consideri la relativa unicità della vulnerabilità introdotta da queste tecnologie in ambito sanitario. L’introduzione di un errore in cui viene prodotto un output verosimigliante ma falso, rende particolarmente ostica la moderazione umana degli errori di questi sistemi.


È fervente l’attività di ricerca nel campo delle applicazioni dell’IA alla Sanità/medicina, ma affetta da innumerevoli errori metodologici, spesso “giustificati” dalla difficoltà di avere accesso a larghe basi di dati indipendenti, e da un certo bias da specialismo, ovvero una certa idea per cui si vorrebbe l’IA non passibile di valutazione secondo i metodi scientifici applicati agli altri strumenti che l’hanno preceduta. Pochi sono ancora gli esempi di studi ben concepiti [Lenharo M. The testing of AI in medicine is a mess. Here's how it should be done. Nature. 2024 Aug;632(8026):722-724. doi: 10.1038/d41586-024-02675-0] tra i tantissimi che regolarmente raggiungono il pubblico a mezzo press release. La rapida e forse precoce adozione dell’IA nel contesto delle attività di ricerca e nell’industria delle pubblicazioni complica ulteriormente il quadro, iniettando nell’ecosistema dati e risultati spuri, difficili da filtrare in tempo reale.

Ciò non di meno, importanti attività di esplorazione e riflessione sono in corso per definire standards per il reporting degli studi in cui sia coinvolta IA medicale, chiarire su quale corso evolutivo debba muoversi la pedagogia dei professionisti, lanciare programmi di valutazione ed audit longitudinali di questi strumenti innovativi nell’uso reale, tra molto altro.

In sintesi, l'uso dell'intelligenza artificiale in ortopedia e traumatologia offre allettanti opportunità, ma comporta anche rischi significativi dal punto di vista medico-legale. È essenziale un approccio equilibrato che integri innovazione e responsabilità per garantire la sicurezza dei pazienti e la protezione dei professionisti.



Iscrivetevi e partecipate tutti! A presto ^_^




Prof. Antonio Gaddi sulla telemedicina a "Sei in Salute"

 Il Presidente di SIT (Societa' Italiana di Telemedicina) e' intervenuto alla 30esima puntata della stagione 2024-2025 di "Sei ...