L’Istituto di fisica applicata “Nello Carrara” (Cnr) e l’università di Pisa hanno pubblicato uno studio sulla rivista European Journal of Nuclear Medicine and Molecular Imaging del gruppo Springer Nature in cui si dimostra il modo con cui, attraverso lo strumento del machine learning ci sia la possibilità di modificare le immagini radiologiche, pilotando l’esito di una diagnosi. Un rischio che solo lo studio dell’Intelligenza artificiale (Ai) può consentire di fronteggiare, sventando errori o azioni compiute in malafede.
Lo studio, condotto da Andrea Barucci dell’Istituto di fisica applicata e dal radiologo dell’università di Pisa Emanuele Neri, definisce questo fenomeno in ambito di imaging radiologico come “adversarial radiomics”: “Un’analogia – dice Neri – con il più ampio campo di ricerca dell’adversarial machine learning, in cui il fenomeno è studiato da anni, per esempio, nella cybersecurity e nella guida autonoma».
In pratica, lo studio analizza il modo con il quale i nuovi sistemi che si basano sull’intelligenza artificiale possano essere volontariamente ingannati con attacchi di “adversarial radiomics” e portare a diagnosi sbagliate. L’uso dell’Ai può tuttavia permette di individuare questo tipo di attacchi.
Spiega nel dettaglio Barucci quale sia il problema: “Nel mondo digitale, la sanità 4.0 si muove veloce verso una nuova visione, fondata su dati e integrazione di informazioni. Le analisi basate sull’Ai costituiscono uno strumento sempre più diffuso in tutti gli ambiti clinici, suscitando grandi aspettative. Un esempio è la radiomica, ossia l’estrazione di parametri quantitativi dalle immagini radiologiche, con cui creare modelli diagnostici e predittivi: uno strumento ormai ampiamente utilizzato e, negli ultimi anni, rafforzato dall’introduzione delle reti neurali, dando origine alla deep-radiomics».
Il problema di un attacco che possa sviare le analisi radiologiche è per adesso solo teorico, ma la sua stessa dimostrazione scientifica lo trasforma in una ipotesi concreta che i responsabili delle aziende sanitarie dovrebbero tenere di conto. “Il machine learning – dice infatti Barucci – su cui principalmente si fonda la potenza di queste analisi informatiche delle immagini, può infatti essere usato anche in modo negativo, per creare attacchi avversi ai sistemi di analisi delle immagini, cioè modifiche ad hoc delle immagini, impercettibili anche all’occhio umano esperto, studiate per ingannare gli stessi algoritmi e pilotare l’esito di una diagnosi».
Quel che potrebbe succedere è ancora nel campo delle ipotesi. Però ci sono scenari già chiari per gli studiosi: “Gli esempi avversi – dice Barucci – sono un problema relativamente recente nello studio del machine learning, ma la loro applicazione all’imaging clinico è un ambito ancor più nuovo e con risvolti sociali importanti, ad esempio nelle frodi assicurative. D’altronde proprio lo studio di questi esempi avversi è estremamente utile per approfondire la comprensione di algoritmi complessi come le reti neurali e migliorare lo sfruttamento degli strumenti informatici a disposizione”.
In conclusione, secondo i ricercatori, il ruolo degli operatori umani, cioè del tecnico radiologico, è fondamentale: “L’intuizione del radiologo – dice Neri – è ancora essenziale nel controllo e nell’integrazione delle complesse analisi fornite dagli algoritmi di intelligenza artificiale e il futuro impone una sempre maggiore armonizzazione fra l’analisi informatica e quella umana. Il nostro studio vuole mettere in luce come i nuovi strumenti di analisi digitale basati sull’Ai dovranno essere sempre più volti proprio a migliorare quest’interazione del tipo “human in the loop”».