Gli algoritmi clinici sanno rispettare i diritti dei pazienti?
giovedì 20 febbraio 2025
Una recente ricerca del Max Planck-Institut (Artificial Intelligence, Patient Autonomy and Informed Consent) guidata da Christian Günther ha utilizzato casi di studio provenienti da Regno Unito e California per analizzare se e come la legge può contrastare la minaccia che l’uso di intelligenze artificiali (IA) in medicina fa all'autonomia del paziente. Il giurista conclude che la legge ha una dinamica proattiva che le permette di reagire molto bene alle innovazioni, e persino meglio degli approcci normativi extra-legali. «Contrariamente a quanto si pensa, la legge non è un ostacolo che si limita a impedire lo sviluppo e l'uso di tecnologie innovative – spiega Günther –. Al contrario, plasma attivamente questo sviluppo e svolge un ruolo centrale nella governance delle nuove tecnologie». Abbiamo più volte analizzato come l’IA stia trasformando la prassi clinica, offrendo strumenti avanzati per migliorare la diagnosi, il trattamento e la gestione dei pazienti. Tuttavia, la sua integrazione solleva anche questioni etiche, antropologiche e pratiche che richiedono un’attenta riflessione. Attualmente una moltitudine di sistemi di IA clinica è in fase di approvazione per l'uso nei sistemi sanitari di tutto il mondo. Soprattutto l'apprendimento automatico (machine learning) è stato un fattore chiave nello sviluppo dell'IA clinica con tali capacità. Tuttavia, nonostante tutti i vantaggi, i sistemi di IA possono rappresentare una minaccia per il consenso informato dei pazienti richiesto dalla legge. Da un punto di vista bioetico e giuridico, quest'obbligo richiede la comunicazione al paziente di informazioni da parte del medico, al fine di colmare lo squilibrio di competenze e ridare al paziente la capacità di partecipare alla decisione nell’alleanza terapeutica. Nella sua ricerca Christian Günther identifica quattro problemi specifici che possono verificarsi. In primo luogo, l'uso dell'IA clinica crea un grado di incertezza connessa alla natura della conoscenza generata dall'IA e sulle difficoltà di verificare scientificamente tale conoscenza. Bisogna considerare poi il fatto che lo scopo di investire in queste forme di tecnologia è la loro capacità di automazione, cioè di poter compiere azioni senza la supervisione o con una minima supervisione umana. Questo significa che alcune decisioni eticamente significative potrebbero essere prese in modo relativamente indipendente dal rapporto medico paziente e dalla struttura del consenso informato, cioè senza un significativo coinvolgimento del paziente. Un ulteriore elemento messo in luce dallo studio di Günther è che l’utilizzo di questi sistemi può avere un significato cognitivamente rilevante sulla capacità dei pazienti di prendere decisioni razionali nel processo decisionale medico. Da ultimo, lo studio mostra come sia tutto da approfondire il carico emotivo indotto nei pazienti da questa trasformazione: i pazienti potrebbero non essere in grado di rispondere in modo appropriato a sostituzioni non ovvie delle competenze umane da parte dell'IA. Per affrontare questi problemi Günther, da giurista, ha esaminato le norme alla base del principio del consenso informato nel Regno Unito e in California e, utilizzando una proposta normativa specifica, dimostra come le norme giuridiche possano essere sviluppate in modo mirato per promuovere il progresso tecnologico e proteggere i diritti dei pazienti. Sono convinto che la questione oltre che giuridica deve essere affrontata eticamente: solo un opportuno design etico degli strumenti algoritmici consentirà una corretta comunicazione tra medico e paziente e un adeguato spazio di autonomia per i pazienti di questa nuova stagione della medicina. Anche questi sono elementi che compongono i confini dell’algoretica. © riproduzione riservata
© Riproduzione riservata
COMMENTA E CONDIVIDI

ARGOMENTI: