I medici curano quotidianamente una moltitudine di pazienti, con esigenze che vanno dal semplice al molto complesso. Per fornire un'assistenza efficace devono conoscere la cartella clinica di ciascuno e tenersi aggiornati sulle procedure e i trattamenti più recenti. In questo contesto clinico si inserisce poi l'importantissimo rapporto medico-paziente, costruito su empatia, fiducia e comunicazione.
La spinta che conosce oggi la medicina da parte delle intelligenze artificiali si scontra con tutto questo: perché si avvicini all'emulazione di un medico reale deve essere in grado di acquisire queste competenze. Come abbiamo visto più volte in questa rubrica, l'intersezione tra IA e medicina è davvero accelerata e spesso ha risultati deludenti. Tuttavia, secondo uno studio in fase di pre-pubblicazione di Google apparso la scorsa settimana, il loro Med-Gemini sarebbe riuscito a fare qualcosa di diverso. I modelli Gemini di Google sono una nuova generazione di modelli di Intelligenza artificiale multimodale, cioè in grado di elaborare informazioni provenienti da diverse modalità, tra cui testo, immagini, video e audio. I modelli sono abili nel linguaggio e nella conversazione, nella comprensione delle diverse informazioni su cui vengono addestrati e nel “ragionamento a lungo contesto”, ovvero su grandi quantità di dati, come ore di video o di audio. Med-Gemini presenta tutti i vantaggi dei modelli Gemini, ma li ha perfezionati. I ricercatori hanno testato queste modifiche centrate sui farmaci e hanno incluso i loro risultati nello studio. Ammettono che c'è ancora molto lavoro da fare, ma le capacità iniziali del modello sono promettenti.
Med-Gemini è stato testato su 14 benchmark medici e ha stabilito un nuovo stato dell'arte su 10 di questi. Nel benchmark MedQA (Usmle) Med-Gemini ha ottenuto un'accuratezza del 91,1%. Su 7 benchmark multimodali, tra cui la sfida delle immagini del New England Journal of Medicine (Nejm), Med-Gemini ha ottenuto risultati migliori di Gpt-4, con un margine relativo medio del 44,5%. Dagli ingegneri sembra di capire che il modello debba ancora incorporare i princìpi dell'IA responsabile, tra cui la privacy e l'equità, in tutto il processo di sviluppo del modello. Dallo studio emerge che «le considerazioni sulla privacy in particolare, devono essere radicate nelle politiche e nei regolamenti sanitari esistenti che disciplinano e salvaguardano le informazioni sui pazienti – riportano i ricercatori –. L’equità è un'altra area che potrebbe richiedere attenzione, poiché c'è il rischio che i sistemi di IA nell’assistenza sanitaria possano involontariamente riflettere o amplificare pregiudizi e disuguaglianze storiche, portando potenzialmente a prestazioni disparate del modello e a risultati dannosi per i gruppi emarginati».
Dallo studio sembra che Med-Gemini sia visto come uno strumento per il bene: «I grandi modelli linguistici multimodali stanno inaugurando una nuova era di possibilità per la salute e la medicina – hanno scritto i ricercatori –. Le capacità dimostrate da Gemini e Med-Gemini suggeriscono un significativo balzo in avanti nella profondità e nell'ampiezza delle opportunità di accelerare le scoperte biomediche e di assistere la fornitura e le esperienze di assistenza sanitaria». Tuttavia l’algoretica ci chiede che i progressi nelle capacità dei modelli siano accompagnati da un'attenzione meticolosa all'affidabilità e alla sicurezza di questi sistemi. Dando priorità a entrambi gli aspetti, possiamo concordare con i ricercatori di Google nell’immaginare un futuro «in cui le capacità dei sistemi di IA siano acceleratori significativi e sicuri sia del progresso scientifico che dell'assistenza in medicina».
© riproduzione riservata