IA in medicina i nove princìpi per un uso etico
giovedì 12 dicembre 2024
La scorsa settimana sulla rivista npj Digital Medicine, pubblicata dal gruppo Nature, è uscito uno studio dal titolo “Stabilire linee guida per l’uso responsabile dell’IA: un caso di studio completo per le istituzioni sanitarie” che si presenta come un esempio approfondito sull’integrazione responsabile dell’intelligenza artificiale (IA) negli ambienti sanitari. L’integrazione dell’IA nella medicina è avanzata notevolmente, in particolare nei settori dell’imaging medico. L’avvento dei modelli linguistici di grandi dimensioni (Llm) ha ulteriormente ampliato il potenziale dell’IA nell’assistenza sanitaria. Tuttavia queste tecnologie presentano nuove sfide, come la variabilità delle prestazioni del modello e il rischio di generare contenuti imprecisi o irrilevanti. Questo porta gli autori a sostenere che «come con altre tecnologie sanitarie – le cartelle cliniche elettroniche, il supporto alle decisioni cliniche, la telemedicina – i modelli linguistici di grandi dimensioni necessitano di controllo, convalida e monitoraggio continuo della sicurezza». Alla luce di questo orizzonte, lo studio propone nove princìpi fondamentali per l’uso responsabile dell’IA in sanità: equità, robustezza, privacy, sicurezza, trasparenza, spiegabilità, responsabilità e beneficio. Un gruppo multidisciplinare ha identificato temi critici attraverso una revisione della letteratura e un approccio di consenso degli esperti. Sono stati istituiti tre gruppi di lavoro per perfezionare le linee guida, concentrandosi su equità e privacy; trasparenza, responsabilità e beneficio; robustezza e sicurezza. Questo lavoro ha generato un framework strutturato per l’applicazione delle linee guida, che include una valutazione specializzata della tecnologia, una fase di valutazione preliminare, una fase di implementazione ombra e una valutazione completa. Gli autori sottolineano l’importanza della collaborazione tra le istituzioni sanitarie e i fornitori di tecnologia per garantire l’uso responsabile dell’IA sottolineando la necessità di un monitoraggio e una valutazione continui dei sistemi di intelligenza artificiale. Questo documento offre un modello pratico per l’integrazione responsabile dell’IA negli ambienti sanitari, enfatizzando l’importanza di un approccio multidisciplinare, un framework solido e un monitoraggio continuo. Promuovendo la collaborazione e l’apprendimento ininterrotto, le istituzioni sanitarie possono sfruttare il potere dell’IA per migliorare l’assistenza ai pazienti e ottenere risultati sanitari migliori. Più volte in questo spazio abbiamo parlato di algoretica e di come questa debba accompagnare, fornendo dei guardrails etici, l’implementazione dell’IA in medicina. Lo studio pubblicato su npj Digital Medicine ci sembra un tentativo molto consistente in questa direzione: partire dagli scenari, utilizzare dei princìpi e provare ad applicarli a quelli che sono i temi critici attuali fa ben sperare per un uso sempre più attento ai valori e le persone dell’IA in medicina. © riproduzione riservata
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: