×

Chat GPT, tra presente e futuro della Medicina


In sanità da sempre si cerca di integrare le nuove tecnologie per migliorare la cura dei pazienti. Negli ultimi anni, un periodo di galoppante rivoluzione tecnologica in molti ambiti della medicina, l’intelligenza artificiale ha però trasformato radicalmente l’interazione uomo-computer, evolvendo da “semplice interfaccia” a generatore di contenuti e immagini con potenzialità virtualmente illimitate. “Cosa ci fa qui un anestesista? Faccio il mio spot!” scherza Jonathan Montomoli (UO Anestesia e rianimazione, Ospedale Infermi di Rimini) aprendo il suo intervento a 4words 2024. “In realtà ho un dottorato in epidemiologia clinica. Non ho scritto libri, ma cercherò di portarvi nella mia libreria”. E in quella libreria Montomoli di libri ne ha davvero parecchi. Slide dopo slide fa scorrere davanti al suo pubblico un’affascinante bibliografia commentata sulle complesse implicazioni dell’uso dell’intelligenza artificiale nel settore della medicina
“Il mio sogno” spiega Montomoli, “è che i medici possano gestire il passaggio tecnologico portando beneficio al sistema sanitario pubblico, perché altrimenti la gara è impari”.

“Il mio sogno è che i medici possano gestire il passaggio tecnologico portando beneficio al sistema sanitario pubblico, perché altrimenti la gara è impari”

“I GPT sono large model, una sorta di interfaccia,” sottolinea Montomoli. “Tutto il resto esisteva già. Ma cosa è successo? È stata lanciata Med-Gemini, il language model di Google specificamente addestrato in ambito medico, con performance straordinarie. Ieri sera hanno lanciato GPT-4o. Prima c’era la tastiera, poi il mouse, il touchpad, il riconoscimento vocale, lo smartphone e ora ChatGPT, che ha rivoluzionato tutto grazie al linguaggio”. Non è una sorpresa che ChatGPT abbia raggiunto 100 milioni di utenti in soli 2 mesi (Instagram, per avere un parametro di confronto, ci ha impiegato 2 anni e 6 mesi). E non c’è solo GPT. Esistono anche altri chatbot come Claude o Consensus. Devin AI, sviluppato per la creazione di algoritmi, è stato soprannominato “il primo ingegnere software AI”. Strumenti come questi hanno ridotto drasticamente il tempo necessario per affrontare problemi complessi, ma Montomoli avverte sulle controindicazioni di una tecnologia così rivoluzionaria: “Non abbiamo più tempo di pensare se non ci obblighiamo a farlo. È facile: ce l’ho, lo uso. Siamo in una corsa per adattarci alla crescita esponenziale della tecnologia, ma non sappiamo prevedere cosa succederà tra 3-6 mesi. Siamo nel caos”. La società arriva dopo e non sta al passo del progresso impetuoso dell’intelligenza artificiale generativa. C’è da colmare un gap costante, rincorrendo un confine che si sposta sempre più avanti. Montomoli cita lo psicologo premio Nobel Daniel Kahneman di “Thinking, Fast and Slow” e del budget di attenzione limitato (ne parla in questa suggestiva Talk at Google). Se lo superiamo, siamo destinati a fallire: potremmo non vedere l’ovvio e rimanere inconsapevoli della nostra cecità. “Siamo performanti ma dobbiamo essere consapevoli di come l’AI influenza le nostre scelte, anche quando non ce ne rendiamo conto,” ammonisce Montomoli. “Dobbiamo prestare particolare attenzione alla triade letale: i dati forniti all’AI, la carenza di certificazioni e le regolamentazioni etiche e legali”.

“Prima c’era la tastiera, poi il mouse, il touchpad, il riconoscimento vocale, lo smartphone e ora ChatGPT”

I dati nudi infatti non sono neutri e, soprattutto, sono tutt’altro che innocui. La dipendenza dai dati comporta rischi di un certo peso in termini di privacy e sicurezza. E maggiore è la mole a disposizione per addestrare i sistemi, maggiore è il rischio di bias, con algoritmi che sviluppano pregiudizi non intenzionali basati sulle informazioni ricevute. L’altro spauracchio è l’eccesso di automazione. La tecnologia promette di semplificare la pratica medica, ma il rischio sempre dietro l’angolo è quello di ridurre al minimo il valore dell’esperienza umana e dell’intuizione clinica. “Qual è la priorità? Pubblicare il prototipo. Tutto ciò che riguarda il difficile percorso di validazione esterna, controvalidazione e aggiustamento potrebbe passare in secondo piano. Molti modelli si concentrano su outcome che riducono i costi, ma non considerano l’outcome del paziente.” L’esempio di cui parla Montomoli è un dispositivo medico basato sull’IA che predice l’ipotensione intraoperatoria 15 minuti prima che si verifichi. Simon Tilma Vistisen, un post-doc che lavora alla validazione dei dati, scopre che i parametri del dispositivo sono stati validati sulla popolazione senza considerare i falsi positivi. Dopo aver segnalato il problema e aver ricevuto minacce, arriva una stringata errata corrige del paper, ma l’articolo resta al suo posto e il povero Simon viene bannato dai congressi per un paio d’anni. Insomma, il rischio che gli esiti non siano la priorità è concreto. Montomoli comunque si allinea sul versante “responsabile” degli entusiasti dell’IA. Non correre dietro i nuovi sviluppi, prendersi il tempo per riflettere sulla complessità del sistema, per decidere quale evoluzione vogliamo dare alla nostra specie con l’IA, bilanciare l’entusiasmo con una gestione responsabile ed etica sono i suoi mantra. Regolamentazioni chiare, protocolli di sicurezza rigorosi e un dialogo aperto tra scienziati, medici, pazienti e decisori politici rappresentano i tasselli che servono a garantire che l’IA in medicina serva il bene comune, rispettando sempre la dignità e i diritti dei pazienti.

“In futuro l’intelligenza artificiale farà da co-pilota, siederà accanto agli studenti, ai professori, guidandoli nel corso di studi, occupandosi dei curricula e degli assessment”

Di un aspetto che Montomoli affronta soltanto tangenzialmente, l’intelligenza generativa nella formazione dei medici, si parla in un’intervista targata American Medical Association che fa parte di una serie tematica sugli sviluppi tecnologici della medicina. Marc Triola (direttore dell’Institute for Innovations in Medical Education, NYU Grossman School of Medicine) illustra i progetti per gli studenti e gli specializzandi della sua scuola di medicina che già oggi sfruttano le potenzialità dell’IA generativa, e lo fa con l’entusiasmo di chi si accosta a una nuova tecnologia che promette rivoluzioni. “In futuro”, spiega Triola, “ci confronteremo con modelli di formazione medica in cui l’intelligenza artificiale farà da co-pilota, siederà accanto agli studenti, ai professori, guidandoli nel corso di studi, occupandosi dei curricula e degli assessment e cucendo letteralmente addosso al singolo allievo cosa imparare e come farlo”. L’altro punto critico, sottolinea Triola, è che agli studenti, in un futuro vicinissimo, bisognerà insegnare come usare l’IA a livello clinico. Se e quando usare l’IA per fare le diagnosi e comunicare con il paziente. Che ruolo assegnarli rispetto al disbrigo delle faccende più amministrative. Capire limiti e potenzialità dell’IA, perché questo diventerà un aspetto centrale della pratica medica”.

Insomma, nella nuova era che si preannuncia, il settore sanitario avrà opportunità senza precedenti per migliorare la cura dei pazienti. Ma da grandi poteri derivano grandi responsabilità. Trasparenza, democratizzazione della ricerca, partecipazione attiva e vigilanza dovranno diventare i pilastri per costruire un futuro in cui tecnologia e umanità possano avanzare insieme per il beneficio di tutti.