×

ChatGPT: ecco perché ci fa paura


Jorge Luis Borges scrisse una volta che vivere in un’epoca di grandi pericoli e promesse significa vivere sia la tragedia sia la commedia, con «l’imminenza di una rivelazione» nella comprensione di noi stessi e del mondo. Oggi i nostri presunti progressi rivoluzionari nell’intelligenza artificiale sono in effetti motivo di preoccupazione e di ottimismo. Ottimismo perché l’intelligenza è il mezzo con cui risolviamo i problemi. Preoccupazione perché temiamo che il filone più popolare e alla moda dell’intelligenza artificiale – l’apprendimento automatico – degradi la nostra scienza e svilisca la nostra etica incorporando nella nostra tecnologia una concezione fondamentalmente errata del linguaggio e della conoscenza”. È l’apertura di un OpEd di Noam Chomsky sul New York Times dell’8 marzo (The false promise of ChatGPT) ma potrebbe essere una sintesi delle due ore di discussione avvenuta il giorno dopo al Dipartimento di epidemiologia del servizio sanitario della Regione Lazio. L’alba del giorno in cui l’intelligenza artificiale avrà reso superflua quella umana, ci rassicura Chomsky, non è ancora spuntata. Ma andiamo per gradi, anche perché al Deplazio – è stato detto di più di quanto è scritto nel commento del grande intellettuale statunitense.

Possiamo fidarci di ChatGPT?
È una domanda che più di una persona ha rivolto ad Alberto Tozzi (epidemiologo e clinico dell’Irccs Bambino Gesù di Roma) e Raffaele Giusti (oncologo medico della Azienda ospedaliera universitaria S. Andrea di Roma). Domanda che rimbalza in tantissimi spazi sul web e le risposte spesso cambiano da un giorno all’altro, anche perché questo strumento (anche se non tutti lo definirebbero così) evolve continuamente. Questo però lo dicono in pochi e la convinzione quasi generalizzata sembra essere ancora quella riportata da Cade Metz ugualmente sul New York Times prima del Natale scorso: “Non sempre [questi chatbot, ndr] dicono la verità. A volte, sbagliano persino a fare semplici conti di aritmetica. Mischiano la realtà con la finzione. E mentre continuano a migliorare, qualcuno potrebbe usarli per generare e diffondere falsità”. C’è poco da fare: passare dal legittimo sospetto al complottismo è davvero questione di un attimo. Un’attività di controllo sui contenuti elaborati da ChatGPT è impossibile, sussurra Tozzi ascoltando le domande dei partecipanti all’incontro al Dep, com’è del resto impossibile qualsiasi “controllo” delle informazioni che circolano nel mondo reale.

Per poter avere la nostra fiducia, ChatGPT dovrebbe essere in grado di assumersi la responsabilità di ciò che afferma: essere affidabile non è sufficiente, sostiene Mackenzie Graham su The Conversation. Un conto è attribuire a strumenti di intelligenza artificiale la capacità di svolgere i compiti che pensiamo siano alla loro portata, dall’altro è ritenere un’IA un agente moralmente responsabile. “ChatGPT non è un agente morale” precisa Graham, “perché non può assumersi la responsabilità di ciò che dice. Quando ci dice qualcosa, non ci offre alcuna garanzia sulla sua veridicità. Per questo motivo può fornire dichiarazioni false, ma non mentire. Sul suo sito web, OpenAI – la società che ha sviluppato ChatGPT – leggiamo che, poiché l’intelligenza artificiale è stata addestrata su dati provenienti da Internet, «a volte può essere imprecisa, non veritiera e comunque fuorviante». Nella migliore delle ipotesi, si tratta di un truth-o-meter o fact-checker – e, a detta di molti, non particolarmente accurato. Anche se a volte potremmo essere giustificati a fare affidamento su ciò che dice, non dovremmo fidarci”.

“Quando ci dice qualcosa, non ci offre alcuna garanzia sulla sua veridicità. Per questo motivo può fornire dichiarazioni false, ma non mentire”

Il punto di vista di linguisti e filosofi è utile anche per pesare le differenze di significato tra due termini che ricorrono nel dibattito in lingua inglese su ChatGPT: reliable e trusthworty. Giudicare “affidabile” qualcosa o qualcuno significa prevedere che si comporterà a costantemente nel modo che conosciamo; “avere fiducia” in qualcuno, invece, vuol dire essere convinti si possa affidargli la responsabilità di fare o di occuparsi di qualcosa di prezioso, nella certezza che lo farà. In sintesi, sembra di poter dire che questo “trasformatore pre-istruito generatore di conversazioni” è affidabile ma non possiamo riporre fiducia nel suo lavoro.

Ciò detto, c’è chi prova il generatore di conversazioni chiedendogli di simulare improbabili colloqui con personaggi del passato (Aaron Margolis – data scientist statunitense – ha ricostruito un teoricamente possibile ma mai avvenuto incontro tra Mark Twain e Claude Levi Strauss ed Ermanno Cavazzoni su Tuttolibri dell’11 marzo 2023 ha chiesto ChatGPT di scrivere una poesia “come fosse Italo Calvino”…) e chi invece mette alla prova la tecnologia scoprendola più capace di uno specializzando in Medicina statunitense di superare i test di ammissione alla professione. E da questo studio è uscita fuori una cosa da considerare con attenzione: in ambito medico potrebbe convenire istruire i chatbot facendogli memorizzare i contenuti di pochi repertori come UpToDate invece che su insiemi infiniti di dati.

“La vera intelligenza è anche capace di pensare in modo morale”

Perché ci preoccupa così tanto?
Per la sua amoralità, forse. “La vera intelligenza è anche capace di pensare in modo morale”, nota Chomsky. “Ciò significa limitare la creatività altrimenti illimitata delle nostre menti con un insieme di principi etici che determinano ciò che dovrebbe e non dovrebbe essere. […] Per essere accettabile per la maggior parte dei suoi utenti, deve stare alla larga da contenuti moralmente discutibili”. Oppure – ma è solo un’ipotesi – per la sua diversità: “la mente umana è un sistema sorprendentemente efficiente e persino elegante – scrive sempre Chomsky – che opera con piccole quantità di informazioni; non cerca di dedurre correlazioni brutali tra i dati, ma di creare spiegazioni. Questi programmi sono bloccati in una fase preumana o non umana dell’evoluzione cognitiva. Il loro difetto più profondo è l’assenza della capacità più critica di qualsiasi intelligenza: dire non solo ciò che è il caso, ciò che è stato il caso e ciò che sarà il caso – questa è la descrizione e la previsione – ma anche ciò che non è il caso e ciò che potrebbe o non potrebbe essere il caso. Questi sono gli ingredienti della spiegazione, il marchio della vera intelligenza”. Insomma, ChatGPT e programmi simili sono, per loro stessa concezione, illimitati in ciò che possono “imparare” (cioè memorizzare) e sarebbero incapaci di distinguere il possibile dall’impossibile.

Che l’incapacità di distinguere il bene dal male possa essere la ragione della diffidenza nei riguardi di ChatGPT sarebbe – quella sì – una sorpresa. Ci potrebbe essere, però, una risposta più plausibile per capire le nostre paure di fronte a ChatGPT: può mettere a nudo le nostre debolezze, i fallimenti di cui siamo protagonisti, la nostra inadeguatezza insomma. Pensiamo per esempio alle preoccupazioni dei grandi media scientifici e non riguardo questa straordinaria innovazione (ne abbiamo parlato anche qui su Senti chi parla): leggere un articolo prodotto da un chatbot e sorprendersi sostanzialmente incapaci di distinguerlo da uno qualsiasi delle migliaia di contributi autoriali pubblicati quotidianamente da riviste anche indicizzate spinge a riflettere sul possibile fallimento di un sistema di produzione delle conoscenze di cui si discute da anni senza riuscire a trovare soluzioni. Allo stesso modo, sapere che i ricercatori e i clinici di AnsibleHealth – come leggiamo nell’articolo prima citato uscito su Plos Digital Health – non solo hanno provato che il chatbot ottiene ottimi risultati nei test professionalizzanti in Medicina, ma hanno integrato lo strumento nella loro pratica clinica, interroga a fondo le coscienze sulle prospettive dell’integrazione dell’intelligenza artificiale e machine learning nella formazione e nella vita quotidiana dei professionisti sanitari.

“Possiamo ridere o piangere per la popolarità di ChatGPT”

Riprendendo il commento di Chomsky, le domande diventano ancora più scomode: il “punto di vista” di ChatGPT sarebbe caratterizzato dalla tendenza a “eseguire gli ordini” prescindendo da considerazioni di ordine etico. “Possiamo ridere o piangere per la popolarità di ChatGPT” chiude Chomsky. Potremmo però ridere o piangere ancora di più constatando il disorientamento di professionisti incapaci di trovare argomenti convincenti per dimostrare ai cittadini la differenza tra il loro agire e quello di una tecnologia.