Elsevier Health, leader globale nell'informazione medica e nell'analisi dei dati, ha lanciato negli Stati Uniti il 29 febbraio “ClinicalKey AI”, uno strumento di supporto alle decisioni cliniche che combina i contenuti medici più recenti e affidabili con una Intelligenza artificiale generativa (AI) per aiutare i medici nel decidere le cure. L'accesso a informazioni mediche affidabili e basate sull'evidenza è fondamentale, soprattutto se si considera l'enorme volume di casi complessi che i medici devono gestire quotidianamente. Inoltre, le sfide legate al personale impongono una crescente richiesta di tempo ai medici, amplificando ulteriormente la necessità di un accesso rapido e sicuro a informazioni accurate e affidabili presso il punto di cura.
ClinicalKey AI si pone come strumento in questa complessa dinamica operativa offrendo un'interfaccia di ricerca conversazionale sviluppata in una maniera personalizzata per aiutare i medici a trovare informazioni cliniche accurate e sintetiche attingendo dai dati di Elsevier, uno dei più vasti e affidabili archivi di informazioni mediche al mondo. Saranno forniti contenuti di alta qualità e ricerche costantemente aggiornate per aiutare i medici a offrire esperienze ottimali ai pazienti, sia in piccole realtà cliniche che in un grande ospedale. Secondo Jan Herzhoff, presidente di Elsevier Health, ClinicalKey AI consente di rispondere in modo più rapido e preciso a un'ampia gamma di domande cliniche, da quelle più semplici e frequenti a quelle più complesse che richiedono l'accesso alle ultime ricerche scientifiche.
I medici che useranno il sistema si troveranno davanti una interfaccia di ricerca ottimizzata per le interrogazioni in linguaggio naturale, che fornirà informazioni accurate provenienti da fonti validate e in grado di generare una risposta sintetica con riferimenti alle fonti. Il sistema sarebbe in grado di considerare – se richiesto dal medico – il contesto del paziente, come le comorbidità e i farmaci in uso, e sarebbe capace di generare risposte personalizzate in base al profilo del medico. Inoltre garantirebbe una sorta di “memoria” conversazionale, offrendo la possibilità di porre domande di follow-up e di accedere a domande e risposte precedenti.
Elsevier Health ha collaborato con OpenEvidence, azienda specializzata nella produzione di intelligenze artificiali per la medicina, e con Cone Health e l'Università del New Mexico. Secondo gli sviluppatori, il sistema disporrebbe di guardrail etici, che consentirebbero di generare solo contenuti autorizzati in modo che i medici e le istituzioni si sentano sicuri delle informazioni che stanno utilizzando. Di fatto il sistema non vuole sostituire la formazione, l'intuizione o la competenza di un medico, ma le vorrebbe amplificare offrendo una biblioteca medica mondiale a portata di mano, riassumendo istantaneamente enormi quantità di ricerche e di letteratura nella prassi clinica al letto del paziente.
L’idea di un sistema che amplifichi le capacità umane e non le voglia surrogare è molto interessante e sembra essere una buona forma di progettazione; tuttavia, quello che l’algoretica ci chiede di domandarci è se i guardrail messi dai progettisti siano sufficientemente solidi. Le intelligenze artificiali generative spesso dimostrano di poter superare, se interrogate in maniera impropria, i limiti di progetto e le sicurezze etiche. Non vorremmo che insistere sul ruolo del medico sia solo un modo per attribuire una responsabilità legale in caso di errore e non un vero e proprio pilastro del sistema.
© riproduzione riservata