×

L’intelligenza artificiale scrive di scienza


Che diamine è un chatbot? Proviamo: un’applicazione software costruita per portare avanti delle conversazioni di tipo testuale o vocale – sempre a partire da testi – che possano simulare e sostituire le normali relazioni interpersonali. Una spiegazione più completa la offre l’Accademia della crusca, che precisa anche che si tratta di un sostantivo maschile e, quindi, il correttore automatico di Google dovrebbe studiare di più. Comunque, la domanda sul chatbot è più che giustificata, perché nelle ultime settimane si parla molto di una roba che si chiama ChatGPT (Chat Generative Pre-trained Transformer), chatbot presentato dalla società OpenAI nel novembre 2022. È stato lanciato come prototipo il 30 novembre 2022 e ha stupito per la capacità di dare risposte dettagliate e articolate in molte materie diverse. Il primo risultato è che l’azienda che lo ha costruito – OpenAI – è stata valutata parecchi miliardi di dollari e Microsoft le ha messo gli occhi sopra.

Manca poco che sarà un chatbot a rispondere alle nostre telefonate di protesta quando il segnale di Dazn ci impedirà definitivamente di vedere la partita (anzi: vuoi vedere che è già così?). Ma non solo: manca poco che anche in ambito scientifico in cima ai risultati dei “most viewed” del New england journal of medicine ci sarà un paper scritto di sana pianta proprio da un chatbot. È una questione solo apparentemente banale: il machine learning che “addestra” un chatbot ricorre a insiemi di dati di straordinaria ricchezza, capaci di costruire sistemi capaci di selezionare e interpretare l’informazione di background fino a sintetizzarla come – forse già oggi, ma certamente in prospettiva – pochi umani sarebbero capaci di fare. Quindi, se volessimo “fare il punto” su una questione scientifica di attualità, potremmo senz’altro affidare la stesura di una breve rassegna all’intelligenza artificiale (Ia), con la ragionevole probabilità di vederci restituire un contenuto interessante.

L’applicazione dell’intelligenza artificiale alla produzione di articoli – o di saggi – scientifici pone domande intriganti e le risposte non sono scontate. Interrogativi che si intrecciano con altre questioni che riguardano la cosiddetta authorship di un paper scientifico (chi fosse interessato può leggere cosa ho scritto qui). Domande dalla risposta non scontata: Todd Carpenter – persona che da anni lavora nel campo della comunicazione scientifica – ha avuto una grande idea e ha chiesto un parere proprio a ChatGPT, che ha risposto così: “L’etica dell’utilizzo dell’Ia da parte di un autore nello sviluppo di un articolo scientifico dipende dal contesto specifico e dalle aspettative della comunità di ricerca in cui l’articolo sarà pubblicato. Non ci sono problemi etici intrinseci nell’uso dell’Ia nella ricerca o nella scrittura, purché l’Ia sia usata in modo appropriato ed etico. Ad esempio, l’Ia può essere utilizzata per analizzare grandi quantità di dati o per generare testi, il che può essere utile per identificare tendenze o modelli che potrebbero non essere evidenti a una persona. Tuttavia, è importante che i ricercatori siano trasparenti sul ruolo dell’Ia nel loro lavoro e che si assicurino che l’uso dell’Ia sia coerente con gli standard e le aspettative della comunità di ricerca. Ad esempio, se viene utilizzato un programma di Ia per generare il testo, gli autori devono indicarlo chiaramente nell’articolo e fornire il giusto riconoscimento al programma di Ia. Inoltre, i ricercatori devono essere consapevoli dei potenziali limiti dell’Ia e considerare i rischi e i benefici del suo utilizzo nel loro lavoro. Ad esempio, l’Ia potrebbe non essere in grado di catturare appieno la complessità del pensiero o del linguaggio umano e potrebbe essere necessario integrare i risultati generati dall’Ia con ulteriori analisi o interpretazioni da parte di ricercatori. In generale, è importante che i ricercatori utilizzino l’Ia in modo etico e trasparente e che considerino le potenziali implicazioni dell’uso dell’IA nel loro lavoro”. In barba ai conflitti di interesse, la risposta di ChatGPT non fa davvero una piega.

“È importante che i ricercatori utilizzino l’IA in modo etico e trasparente e che considerino le potenziali implicazioni dell’uso dell’IA nel loro lavoro”

Peer reviewers, predatory publishers e altre strane creature editoriali
La conversazione tra Carpenter e l’Ia tocca diversi temi importanti. Per esempio, l’attitudine che il processo di peer review – il percorso di revisione critica del contenuto di un articolo – dovrebbe tenere nel rapportarsi a un autore virtuale. O le caratteristiche di novità o di originalità che possono connotare un articolo prodotto da un chatbot, dal momento che qualsiasi informazione elaborata dall’applicazione sarebbe comunque già nota. Ancora, la relazione che può essere ipotizzata tra la produzione di documenti tramite Ia e l’attività dei cosiddetti predatory publisher, quelle case editrici che non solo pubblicano riviste falsamente scientifiche ma producono anche articoli falsi (sempre più spesso attraverso sistemi di Ia) vendendone le firme a ricercatori che hanno bisogno di pubblicare… (sul fenomeno dei paper mill – così si chiamano queste fabbriche di falsa letteratura scientifica – possiamo leggere articoli interessanti che spiegano quanto il problema sia importante, come questo, o seguire un webinar molto curato promosso dal Committee on Publication Ethics).

Alla fine, ChatGPT sembra proprio simpatico, soprattutto per la sua sincerità. “Uno degli attuali limiti tecnologici dei sistemi di Ia – confessa a Carpenter – è la loro incapacità di comprendere e replicare pienamente il ragionamento e il buon senso delle persone. Sebbene i sistemi di Ia possano essere addestrati a svolgere efficacemente molti compiti, spesso non hanno la capacità di comprendere e interpretare situazioni complesse o ricche di sfumature nello stesso modo in cui può farlo una persona”. E l’autocritica continua… “Un altro limite dei sistemi di Ia è la loro dipendenza da grandi quantità di dati per l’addestramento e la valutazione. Se da un lato i sistemi di Ia possono essere molto efficaci nell’apprendere da grandi insiemi di dati, dall’altro possono faticare a generalizzare le loro conoscenze a nuove situazioni o ad apprendere da piccole quantità di dati. Altri limiti tecnologici dei sistemi di Ia sono la loro suscettibilità ai pregiudizi, l’incapacità di replicare completamente la creatività o l’intuizione umana e la dipendenza da ambienti hardware e software specifici”. L’ironia è davvero una qualità umana (e beato chi ne dispone e sa utilizzarla) e – ma lo stesso ChatGPT lo confessa – l’Ia la maneggia con difficoltà, come si vede quando in un altro colloquio con Carpenter confessa di aver completamente inventato un riferimento bibliografico a supporto di una propria tesi…

In conclusione, di sicuro ne vedremo delle belle. E – per quanto l’Ia possa essere usata per imbrogliare le carte o falsificare la ricerca – è del tutto probabile che proprio lei possa essere la migliore alleata dei cacciatori di frodi e della cattiva condotta dei ricercatori. Dio sa quanto ne abbiamo bisogno.