Secondo i dati Ocse, ben il 30% delle attività in ambito sanitario e sociale potrebbero essere automatizzate con l’uso dell’Intelligenza Artificiale, determinando un aumento di produttività capace di ridurre il disavanzo previsto di 3,5 milioni di operatori sanitari entro il 2030 in tutta l’area della stessa Ocse. Un impatto fortissimo dunque, ma non privo di rischi. Pericoli e opportunità dell'IA saranno al centro del Laboratorio Sanità 20/30 in programma a Villa Manin di Codroipo (Udine) il 27 e 28 giugno prossimo. L'appuntamento è promosso da Forum risk in collaborazione con la Regione Friuli Venezia Giulia e ha l’obiettivo di diventare un appuntamento annuale sul tema dell’intelligenza artificiale, per condividere e valutare con esperti nazionali ed europei, manager pubblici e privati, istituzioni, professionisti della sanità e partner tecnologici le opportunità ed i rischi nella applicazione dell’Intelligenza Artificiale alla sanità nella sua potenzialità predittiva e generativa.
Vasco Giannotti, presidente di Forum Risk e Laboratorio Sanità, presentando l’evento alla stampa, ha sottolineato quanto sia importante in tema di intelligenza artificiale, «garantire trasparenza, equità e responsabilità nell’uso delle tecnologie al fine di evitare possibili impatti negativi sulla società». L’Organizzazione Mondiale della Sanità (OMS) evidenzia infatti che l’intelligenza artificiale in ambito sanitario potrà rendere più efficienti e accurate le attività di prevenzione e diagnosi, ottimizzare i trattamenti e il monitoraggio delle malattie oltre a favorire l’erogazione dei servizi sanitari alle popolazioni meno servite, migliorare la sorveglianza della salute pubblica e far progredire la ricerca sanitaria. Con la crescente disponibilità di dati sanitari – ricorda Giannotti- e il rapido progresso nelle tecniche di analisi, l’intelligenza artificiale potrà trasformare il settore sanitario, che è uno dei settori più importanti e complessi che coinvolgono i cittadini, le società e le economie di tutto il mondo. Ma naturalmente deve restare sempre sotto il controllo dell’intelligenza umana. «È il tempo di un Nuovo Umanesimo Tecnologico – afferma Giannotti - inteso come il non abdicare alla nostra coscienza, alla nostra capacità di pensiero critico e del chiedersi il senso delle cose che facciamo».
Per questo iI governo delle tecnologie avanzate ed in particolare della Intelligenza Artificiale necessita di una regolamentazione degli Stati capace di contenere i rischi. «È essenziale - conclude Giannotti - considerare un approccio di gestione del rischio associato ai sistemi di intelligenza artificiale, come ad esempio minacce e vulnerabilità alla sicurezza informatica, bias algoritmici, e altro. Va garantito sia che i sistemi di intelligenza artificiale siano sicuri e efficaci per l’uso previsto, ma anche che possano raggiungere coloro che ne hanno bisogno il più velocemente possibile».