×

Intelligenza artificiale e salute? Meglio parlare di “medicina aumentata”


Le rivoluzioni tecnologiche sono inevitabili, il loro impatto in un determinato contesto, tuttavia, dipende spesso dall’atteggiamento con cui sono accolte: se sono subite o se sono cavalcate. Questo è ancora più vero quando parliamo di intelligenza artificiale (IA) nell’ambito della medicina e dell’assistenza sanitaria, dove moltissime di queste tecnologie sono già presenti dalla ricerca biomedica alla diagnostica, dall’epidemiologia alla chirurgia.

Ogni giorno nuove potenziali applicazioni vengono messe a punto e nuove visioni di come queste possano trasformare l’assistenza sanitaria globale prendono vita. Alcune di queste visioni possono fare paura e rendere ostili a questa rivoluzione. Sono quelle che perpetuano lo stereotipo di uomo vs macchina tipico del secolo scorso; quelle che vedono le macchine sostituire medici, operatori sanitari, amministrativi; quelle che vedono poveri pazienti alle prese con poco empatici robot e software; o peggio ancora quelle che vedono l’impiego di queste tecnologie per aumentare ineguaglianze, discriminazioni, povertà.

C’è però un’altra visione. Quella in cui le tecnologie restano quello che sono: strumenti messi a punto dall’essere umano per l’essere umano. In questa visione i sistemi di IA migliorano le performance del medico, velocizzano e automatizzano quei processi che possono essere automatizzati e velocizzati e che beneficiano da questo tipo di intervento. Quelli ripetitivi, per esempio, quelli in cui stanchezza, carico di lavoro eccessivo, mancanza di tempo, emozioni possono influire negativamente la performance e portare a un errore. E soprattutto quelli in cui risultati migliori si ottengono analizzando una quantità enorme di dati di partenza – troppi per il cervello umano – , eterogenei tra loro e riguardanti diversi parametri allo stesso tempo.

È la visione che in parte racconta racconta anche Eric Topol nella Topol Review del 2019 come anche nel suo libro “Deep Medicine” (Basic Books, 2019): una medicina in cui uomo e macchina, uomo e algoritmi di IA, collaborano e in cui la tecnologia integra e migliora la performance umana invece che sostituirla. “La più grande opportunità offerta dall’intelligenza artificiale non è ridurre il numero degli errori o il carico di lavoro, né persino curare il cancro: è l’opportunità di ripristinare il prezioso e antico rapporto di connessione e fiducia – il tocco umano – tra pazienti e medici”, scrive Topol. Le macchine dunque sono strumenti che permettono ai medici di essere medici migliori e di avere più tempo da dedicare ai pazienti, di poter curare più pazienti e farlo meglio.

La più grande opportunità offerta dall’intelligenza artificiale (…) è l’opportunità di ripristinare il prezioso e antico rapporto di connessione e fiducia – il tocco umano – tra pazienti e medici.

Quale di queste due visioni si avvererà, o meglio quale realtà compresa nello spettro di cui queste due visioni sono gli estremi vivremo, dipende da come oggi governi e comunità si porranno rispetto a queste tecnologie e come lavoreranno per cavalcare anziché subire questa inevitabile rivoluzione tecnologica. Per far questo tuttavia sono necessarie trasformazioni culturali e tecnologiche non indifferenti.

IA nell’assistenza sanitaria

Descrivere lo stato dell’arte delle tecnologie di intelligenza artificiale equivale a voler raccontare l’acqua che scorre. Non si fa in tempo a scrivere che già è diversa da quella del momento precedente. Ogni giorno vengono proposte nuove applicazioni e quasi continuamente le tecnologie a disposizione sono migliorate, raffinate o superate. Vale però la pena provare a dare una fotografia che illustri i tempi più recenti, se non altro per provare a trasmettere la pervasività e l’ampiezza di applicabilità queste tecnologie.

Al momento come in molti altri ambiti le applicazioni di intelligenza artificiale che sono più promettenti nell’ambito della ricerca, della clinica e dell’assistenza sanitaria sono quelle che vengono definite di Narrow Artificial Intelligence, dove narrow viene tradotto con “specifico”. “Le tecnologie dell’IA hanno chiaramente negli ultimi anni fatto un passo avanti notevole per cui si cominciano a vedere diversi esempi dove l’algoritmo specifico si comporta meglio o performa meglio dell’essere umano nella stessa situazione”, racconta a Senti chi parla Giorgio Metta, Direttore Scientifico dell’Istituto italiano di tecnologia (IIT). “I campi dove le cose funzionano piuttosto bene direi che sono tutti quelli dell’elaborazione del dato e il dato può essere sia immagini, come radiografie o Tac, su cui è stato fatto tanto lavoro, ma anche testo e quindi algoritmi per la comprensione del linguaggio naturale come quelli per l’interpretazione delle cartelle cliniche – che tipicamente sono state scritte per l’uomo – sia per l’analisi dei testi degli studi clinici”.

Sicuramente poi, prosegue Metta,  performance molto elevate si vedono nelle applicazioni in biologia (nel 2020, secondo il rapporto annuale State of AI, ci sono già state oltre 21mila pubblicazioni riguardanti applicazioni di metodi di intelligenza artificiale in biologia). “Per esempio ci sono stati passi avanti molto importanti su quello che si chiama il problema del folding delle proteine quindi capire la struttura tridimensionale finale di una proteina partendo dalla sequenza di aminoacidi”. Ci sono poi, come ben racconta sempre Eric Topol, applicazioni nell’ambito della cardiologia e persino della salute mentale.

Tuttavia, forse, un modo per illustrare bene lo stato dell’arte dell’intelligenza artificiale è legarla alla corrente pandemia di covid-19 dando qualche esempio di come è stata utilizzata o come alcune tecnologie potrebbero essere adoperate in caso di una pandemia simile (alcune sono applicazioni magari possibili, ma non ancora implementabili tanto meno nel contesto italiano).

IA vuol dire tecnologie basate su grandi quantità di dati e questi possono essere, per esempio, i dati epidemiologici di cui sentiamo tanto parlare, dati sanitari, dati molecolari o genetici. I dati epidemiologici – tra cui, per capirci, numero di malati nel tempo e nello spazio, dati demografici dei pazienti, tassi di incidenza e prevalenza – possono essere (e in parte lo sono) usati da sistemi che aiutano a capire come si diffonde l’epidemia  e prevedere come potrebbe diffondersi in futuro, per capire se le misure prese per fronteggiare il virus sono utili, per stabilire quali ulteriori sono necessarie.

I dati sanitari raccolti quando si visitano i pazienti in ospedale potrebbero essere usati da sistemi che aiutano il medico e gli operatori sanitari a formulare una prognosi e magari a prendere delle decisioni riguardo a terapie e trattamenti. Oppure l’analisi di dati ospedalieri, magari su scala regionale o interregionale, potrebbero permettere l’ottimizzazione di letti di terapia intensiva, ventilatori, Cpap e una migliore e rapida distribuzione dei pazienti tra i vari centri di cura. Tutto questo avviene anche adesso, ma molto spesso viene fatto manualmente da medici che potrebbero impiegare il proprio tempo con i pazienti o che potrebbero risparmiarselo ed evitare il burn out completo.

Grazie al lavoro di sequenziamento del virus, infine, alcune tecnologie di intelligenza artificiale possono individuare molto più velocemente molecole che potrebbero essere utili contro il virus per cominciare il prima possibile le sperimentazioni. Oppure per capire se tra i farmaci a disposizione ce ne sono alcuni che potrebbero funzionare e quindi far partire sperimentazioni che già hanno superato i test di sicurezza sull’uomo. Molto probabilmente tecnologie di questo tipo sono state utilizzate per mettere a punto i vaccini al momento in studio.

Ostacoli e rischi

A prescindere da covid-19, per riassumere, come ha spiegato Anthony Chang, cardiologo del Children Hospital Orange County e fondatore di AI MED alla 2020 Health Care Forecast Conference lo scorso marzo, queste tecnologie trovano applicazione in tre i principali ambiti: aiuto nelle decisioni cliniche e monitoraggio ospedaliero, imaging e diagnostica, medicina di precisione e sviluppo di nuovi farmaci.

In ognuno di questi campi, come sottolinea invece il direttore scientifico dell’IIT Metta, “si tratta di applicazioni molto focalizzate con cui si risolve un problema specifico, non bisogna dare loro un significato più ampio del problema che si sta tentando di risolvere. Per esempio, se l’algoritmo ha buone performance nell’identificazione di un particolare problema su immagini mediche poi non bisogna aspettarsi che dallo stesso sistema esca fuori una diagnosi, che è qualcosa di più complicato che ha magari bisogno di dati da più fonti. Fare inferenza che quel sistema sia intelligente e allora mi dia direttamente la diagnosi è un presupposto sbagliato”.

Da queste parole emerge uno dei problemi principali che si presenta nell’applicazione dell’intelligenza artificiale in medicina, quello della non scalabilità (o della difficile scalabilità) dell’algoritmo. Pensare di poter adoperare un algoritmo per analizzare dati che sono troppo lontani da quelli adoperati nel training o per portare a termine compiti diversi da quelli originariamente pensati è un errore. Per esempio, un sistema in grado di individuare una retinopatia diabetica in un set di pazienti non è detto che sia altrettanto efficiente con un altro problema o che sia applicabile a un set di pazienti troppo distante da quello descritto dai dati inseriti nel sistema al momento del training.

Un secondo problema, forse ancora più basilare, è quello della qualità dei dati con cui oggi si lavora. In un mondo ideale i dati forniti ai sistemi di intelligenza artificiale in ambito sanitario sono tutti raccolti e selezionati oggettivamente, correttamente stratificati, ben strutturati ed etichettati nella maniera più chiara, pulita e inequivoca possibile, in modo che il sistema possa analizzarli e sputare l’informazione per ottenere la quale è stato messo a punto.

Tuttavia oggi sia i dati su cui si allenano gli algoritmi sia quelli che devono essere analizzati non sempre di grande qualità. “I dati necessari all’addestramento degli algoritmi di ML (machine learning, ndr) per elaborare processi diagnostici nei modelli predittivi sono spesso di qualità non ottimale, perché non sottoposti a quel processo di ‘ripulitura’ e di rielaborazione (stratificazione per coorti, filtrazione per livello di qualità, ecc.) che sarebbe insostenibile nella pratica clinica quotidiana e quindi potrebbero non essere in grado di fornire risposte implementabili per decisioni e trattamenti clinici, anche perché, talvolta, potrebbero ‘imparare’ gli errori delle intelligenze ‘naturali’, cioè dei professionisti che forniscono i ‘materiali da allenamento’ per gli algoritmi, i training data”, spiegano Giampaolo Collecchia e Riccardo De Gobbi nel volume Intelligenza artificiale e medicina in uscita in questi giorni per il Pensiero Scientifico Editore.

Il medico ci serve, perché è l’unico poi che può interpretare effettivamente cosa sta dicendo l’algoritmo.

Questi sono gli errori più preoccupanti, perché possono portare al perpetuarsi di bias, razziali e di genere. Per esempio, è noto che la maggior parte dei database adoperati per trial clinici non contengono un campione sufficientemente rappresentativo di individui che non siano maschi bianchi. Ed è molto probabile che siano gli stessi dati quelli dati in pasto ai sistemi messi a punto finora, salvo qualche eccezione. Se poi è vero che nei sistemi più avanzati (deep learning) gli algoritmi imparano da soli, in molti casi la quantità di dati necessaria perché questo avvenga è troppo grande rispetto a quella realmente disponibile.

L’importanza dell’uomo nella raccolta e interpretazione dei dati rende evidente che non si può ancora fare a meno di questa componente, almeno nelle decisioni complesse. “Dove noi abbiamo conoscenza l’algoritmo è allenato bene e fa la cosa giusta con un’alta probabilità dove noi questa conoscenza non ce l’abbiamo oppure quando tentiamo di spostare l’algoritmo da un’applicazione a un’altra le cose non funzionano tanto bene. Quindi la capacità di generalizzare umana bisognerà tenercela sempre lì. Il medico ci serve, perché è l’unico poi che può interpretare effettivamente cosa sta dicendo l’algoritmo e questo è importante perché vuol dire che devo fare anche formazione in ambito di IA  verso il settore medico”, spiega sempre Metta.

La direzione dunque deve essere sempre più quello della collaborazione uomo-macchina, soprattutto nel tentativo di sviluppare sistemi di Intelligenza artificiale “generale” e non solo specifica. Queste secondo Anthony Chang, dovrebbero creare dei sistemi che aumentino l’intelligenza umana e quindi portare anche a una medicina “aumentata”, in un certo senso. Del resto, come sottolinea anche Eric Topol, difficilmente si arriverà a un livello in cui i pazienti e le società si sentiranno a proprio agio a delegare l’intera assistenza sanitaria alle macchine. L’uomo continuerà a essere presente, anche se magari in misura diversa in situazioni e ambiti differenti.

Infine, a rendere tutto ancora più complicato è che i processi coinvolti non sono completamente trasparenti né conoscibili – tanto ai non addetti ai lavori quanto alle volte a chi programma questi sistemi. Come si fa a fidarsi di un responso che non si capisce dove arriva? “È complicato”, spiega Metta. “Da un alto si possono avere degli algoritmi che verifichino altri algoritmi, strada lunga e tecnicamente molto complessa però percorribile, dall’altro si potrebbe arrivare a una sorta di certificazione condivisa, come quella elettrodomestici. La cosa migliore sarebbe che la stessa IA potesse spiegarmi come è arrivata a produrre una certa risposta”. Uno strumento importante, secondo Alberto Tozzi, Responsabile dell’Area di Ricerca Malattie Multifattoriali e Malattie Complesse dell’ospedale pediatrico Bambin Gesù di Roma, è il monitoraggio continuo: “Capire quale effetto hanno queste IA, capirlo nel tempo, monitorando quello che succede nel tempo è l’unico modo per evitare che siano perpetuati degli errori. Auspicabilmente l’IA è dinamica e dovrebbe basarsi su dati continuamente forniti all’algoritmo in una sorta di aggiornamento continuo, per questo la verifica puntuale non è sufficiente”. Inoltre anche fornire feedback ai sistemi è importante per poterne migliorare le prestazioni, è quello che permette alla macchina di imparare veramente, per questo sorvegliarne i risultati e aggiustare il tiro è un modo per creare sistemi sempre più affidabili. Del resto come, scrive Cathy O’Neil nel suo Armi di distruzione matematica, “Senza un feedback costante i sistemi invecchiano e perdono di intelligenza”.

Capire quale effetto hanno queste IA, capirlo nel tempo, monitorando quello che succede nel tempo è l’unico modo per evitare che siano perpetuati degli errori.

Alla fiducia è collegato anche il discorso della salvaguardia della privacy dei cittadini: comprometterla è un rischio reale. Il diritto alla privacy è un diritto fondamentale, spesso sottovalutato da noi consumatori di tecnologia che regaliamo dati e informazioni su noi stessi senza pensarci due volte. Su questo tuttavia, in particolare in Europa, si sta lavorando molto. Tuttavia, bisognerebbe in questo ambito fare attezione all’oggetto della regolamentazione: nel senso che presi dalla paura si rischia di regolamentare queste tecnologie in modo da bloccarne lo sviluppo e la sperimentazione, anziché regolamentare l’uso improprio delle tecnologie e i prodotti di queste tecnologie che sono dannosi per i cittadini. Un po’ come è successo con le biotecnologie applicate all’agricoltura.

È l’uso improprio di queste tecnologie infatti che porta alla realizzazione della prima visione, quella peggiore, quella in cui anziché migliorare la vita dell’uomo ne peggiorano le condizioni: male usate possono portare a minore accesso alle cure invece che a uno più diffuso e globale. E algoritmi predittivi messi a punto per il settore sanitario possono essere usati da compagnie assicurative o da datori di lavoro per discriminare cittadini con conseguenze che rischiano di aumentare ancora di più la forbice di ineguaglianze tra chi è privilegiato e chi non lo è.

Passi necessari per il futuro

Dunque visti i rischi, visti gli ostacoli ancora da superare, come si può costruire la strada che porta alla seconda visione? Di soluzioni ai singoli problemi se ne possono individuare diverse.
Per esempio, rispetto alla qualità dei dati si possono mettere protocolli e linee guida condivise per la loro strutturazione. Oppure, regole internazionali o accordi sull’uso dei dati che salvaguardino i diritti dei cittadini (è difficile che si arrivi a una regolamentazioni condivisa da tutti, ma si può arrivare a soluzioni che permettano di lavorare insieme). O, magari, per fornire ai sistemi database sempre più ampi che permettano un processo di deep learning sempre più raffinato e quindi anche risposte sempre più accurate, si possono avviare progetti internazionali per creare reti di sistemi. “Mettere in rete sistemi di machine e deep learning che condividano i dati delle analisi così come quelli delle terapie potrebbe permettere di ottenere performance sempre più precise e puntuali, e anche meno ‘narrow’, ovvero in grado di fornire risposte a domande diverse non solo presenza assenza di una patologia specifica, ma un’analisi più ampia e generalizzata del problema che si vuole esaminare”, spiega Metta. “Lanciare un progetto di ampio respiro di questo tipo a livello europeo potrebbe essere veramente un progetto di valore”.

Non tutti devono diventare sviluppatori di algoritmi però ci vuole una conoscenza del mezzo altrimenti è come usare un martello senza avere idea di a cosa serva.

Tuttavia questa rivoluzione passa prima di tutto da un piano culturale, da una società che investe in tecnologie da tutti i punti di vista. Investire in tecnologie vuol dire ovviamente raggiungere un livello di digitalizzazione – non solo del sistema sanitario, ma del sistema Paese – adeguato e costruire le infrastrutture necessarie (data server, infrastrutture per lo storage e per il calcolo, e via dicendo). Vuol dire capire che si tratta di un ecosistema digitale e non solo del settore dell’IA, (ma anche big data, robotica, informatica). Prima di tutto questo tuttavia ci deve essere un investimento in formazione. Formazione intesa come scuola, università ma anche percorsi di educazione continua. “È dimostrato che io riesco ad utilizzare meglio l’intelligenza artificiale se ho conoscenza di come funziona”, sottolinea Giorgio Metta. “Non tutti devono diventare sviluppatori di algoritmi però ci vuole una conoscenza del mezzo altrimenti è come usare un martello senza avere idea di a cosa serva, ci vuole quest’opera di formazione a priori altrimenti si rischiano di fare degli errori veramente molto molto grossolani”.

“Anche negli ambienti più avanzati”, fa eco Tozzi, “il livello di conoscenza è bassissimo. Ci si scontra spesso contro il timore di fare delle cose che sono difficili e quindi di sbagliare. Inoltre, confrontandosi con queste tecnologie è facile sentirsi inadeguati, obsoleti e aver paura di dover ricominciare da capo. Ma non è una colpa pensare che a un certo punto le cose cambiano e quindi bisogna capire, bisogna studiare bisogna accogliere competenze diverse. Perché IA sia trustworthy bisogna che venga valutata da tecnici (clinici, data scientist e pazienti ), esperti di etica e esperti della parte regolatoria. Parola magica multidisciplinarietà”.

“Dobbiamo sempre ricordare che l’intelligenza artificiale è uno strumento per l’uomo ed è la ragione dell’uomo che fa la differenza. Tuttavia se la ragione dell’uomo non comprende profondamente le opportunità che vengono offerte farà un uso o marginale o addirittura sbagliato dell’intelligenza artificiale”, conclude il medico del Bambino Gesù. “La modestia dell’approccio e la necessità di approfondire sono le cose su cui ci dobbiamo impegnare perché l’intelligenza artificiale sia davvero affidabile e sia uno strumento di cambiamento”.