Il 27 novembre su npj Digital Medicine, pubblicazione del gruppo Nature sulla medicina digitale, è stata pubblicata una revisione sistematica dell’uso dell’Intelligenza artificiale (IA) nelle unità di Terapia intensiva neonatale. Gli effetti del deep learning in medicina stanno cambiando le convenzionali modalità della clinica. Il pregio di questo studio è offrire una revisione sistematica delle soluzioni più recenti basate sul machine learning e sul deep learning per le applicazioni neonatologiche. Allo stato attuale le principali aree di interesse in neonatologia per le applicazioni dell'IA includono l'analisi della sopravvivenza, il neuroimaging, l'analisi dei parametri vitali e dei biosegnali e la diagnosi della retinopatia della prematurità. I ricercatori hanno riassunto 106 articoli di ricerca dal 1996 al 2022 e ne hanno discusso con rigore e metodo i pro e contro. Interessante è che per la neonatologia è molto più presente il tradizionale machine learning che non il deep learning. Di estremo interesse sono le limitazioni che emergono, così riassumibili: la mancanza di un progetto prospettico, l'assenza di integrazione clinica, le dimensioni ridotte del campione e le valutazioni in un unico centro. Il deep learning si dimostra promettente nel campo delle bioscienze e dei biosegnali, nell'estrazione di informazioni dalle immagini cliniche e nella combinazione di dati, strutturati e non. Tuttavia ci sono alcuni problemi che limitano il successo di queste tecniche in medicina, raggruppate in sei categorie: la difficoltà di integrazione clinica, compresa la selezione e la validazione dei modelli; la necessità di competenze nei meccanismi decisionali, compreso il requisito del coinvolgimento umano; la mancanza di dati e annotazioni, tra cui la qualità e la natura dei dati medici, la distribuzione dei dati nel database e la mancanza di algoritmi open source e la riproducibilità; la carenza di spiegazioni e ragionamenti, compresa la mancanza di un’intelligenza artificiale spiegabile per affrontare il problema della “scatola nera”; la mancanza di collaborazione tra più istituzioni, e tutta una serie di preoccupazioni etiche. L’ultimo punto è al centro del pensiero di chi scrive e della riflessione algoretica. Malgrado l'accuratezza raggiunta dall'IA nell'assistenza sanitaria, ci sono limitazioni che ne rendono difficile la traduzione in percorsi di cura, specie per la diffidenza dei medici verso i sistemi basati sull'IA a causa della mancanza di studi clinici qualificati che dimostrino l'affidabilità o la migliore efficacia dei sistemi di IA nel diagnosticare malattie e suggerire terapie appropriate.
C’è da chiedersi se questo modello legato a imprese che da sole tentano di trovare innovazioni mediche da vendere alla medicina intesa come mercato da aggredire siano in grado di portare forme di progresso qualificabili come sviluppo medico. E se a questo modello imprenditoriale non se ne debba affiancare o sostituire un altro che vede nel sistema della ricerca pubblica, finalizzata a un bene comune, un mitigatore di alcuni difetti e un moltiplicatore di fiducia. Anche questa è algoretica.
© riproduzione riservata