×

Quale etica dell’intelligenza artificiale dopo la pandemia?


Mondi apocalittici dominati dall’intelligenza artificiale, una tematica piuttosto comune che dagli anni ’50 in poi ha preso sempre più piede nella nostra cultura. Lasciarsi sedurre e allo stesso tempo spaventare da un mondo dominato dalle “macchine” è ormai all’ordine dei nostri sabato sera, insieme a popcorn e patatine. Non solo su Netflix, Prime o piattaforme simili: negli anni l’intelligenza artificiale si è realmente insinuata nelle nostre vite, ma non come ce lo eravamo immaginati.

Abbiamo caregiver robotici e automobili che si guidano da sole e mini intelligenze artificiali in tasca ogni giorno, tutti dispositivi che rendono la nostra vita più semplice, ma non abbiamo bisogno delle quattro leggi della robotica di Isaac Asimov. Non c’è (ancora) pericolo che le macchine prendano il sopravvento, non ci preoccupano le responsabilità etiche dirette dei dispositivi, in quanto non dotati di libero arbitrio.

C’è però un rischio forse ancora più preoccupante, di cui proprio in questi ultimi giorni si comincia a prendere conoscenza: le responsabilità etiche e le possibilità di controllo di chi c’è dietro la macchina.
La “minaccia” più grande dunque rimane sempre l’essere umano. Una questione questa che lo storico Yuval Noah Harari ha sempre sottolineato e che diventa ancor più pressante in questi mesi dominati dalle misure di isolamento e di distanziamento sociale messe in atto per limitare la diffusione della Covid-19.

L’isolamento sociale per quando efficiente ha un notevole impatto sull’economia mondiale, pertanto molte nazioni sono ricorse o stanno pensando di ricorrere a dispositivi dotati di intelligenza artificiale a diversi livelli, come mezzo per controllare la situazione evitando il blocco dell’economia. Tuttavia, in questa situazione è difficile discernere tra controllo sul diffondersi del virus e sulla singola persona in quanto quest’ultimi ne sono i possibili portatori. La preoccupazione di Harari è che le misure aggiuntive che si sono prese o si potranno prendere per far fronte alla pandemia possano rimanere in vigore anche dopo il cessato pericolo.

L’AI agli occhi dei governi non rappresenta alcun pericolo e addirittura tutti sono convinti di poter vincere grazie al dominio dei dati.

In paesi come la Cina, in cui il monitoraggio dei cittadini era già all’ordine del giorno, le persone devono avere un’applicazione sui propri smartphone che attesti il proprio stato di salute. Al documento di identità della persona registrata alla app sono però associati, oltre allo stato di salute, anche dati personali e i movimenti per monitorare l’eventuale contatto con soggetti a rischio. Sembrerebbe perciò che il governo cinese abbia il dominio totale della privacy delle persone. Questa potrebbe essere forse l’arma più pericolosa in loro possesso.

Differente è la situazione in Singapore in cui il governo tramite l’app OpenTrace è riuscito ad adottare una soluzione tecnologica di contact tracing senza però invadere la privacy dei cittadini grazie all’accortezza di mantenere le informazioni registrate nel telefono e non acquisirle in un database centralizzato. Mentre in Europa si sta portando a termine in questi giorni un piano unitario che possa regolare la creazione di app di monitoraggio in tutti i Paesi membri così da permettere la tutela dei dati personali.

Le preoccupazioni di Harari tuttavia non riguardano solo quello che le singole Nazioni possono attuare verso i propri cittadini. La pandemia ha purtroppo solo accentuato un problema già esistente, quello di una corsa agli armamenti il cui scopo non è acquisire terreno ma dati. La violazione della privacy tramite l’adozione di big data sembrerebbe essere l’arma perfetta per sconfiggere il proprio avversario. Tuttavia, possiamo solo immaginare gli esiti di una tale strategia. Questa tematica è stata il fulcro di un dibattito tra Harari e Ren Zhengfei, presidente della multinazionale cinese Huawei in occasione del World Economic Forum 2020 lo scorso gennaio.

Secondo Zhengfei, la paura che si ha dell’intelligenza artificiale è paragonabile alla paura che a sua volta l’essere umano ha avuto della bomba atomica, la cui invenzione però ha portato agli studi sulle applicazioni delle radiazioni in diversi ambiti come nel campo della biomedicina. Il presidente sottolinea come l’impiego di queste nuove tecnologie possa aiutare a migliorare la qualità di vita di molti individui e addirittura ridurre il gap tra la fascia sociale ricca e quella povera.

Harari però ribatte: “La differenza con la bomba atomica è che al tempo della guerra fredda tutti erano coscienti della pericolosità di una tale arma, e per questo è stato deciso di non adoperarla. L’intelligenza artificiale invece agli occhi dei governi non rappresenta alcun pericolo e addirittura tutti sono convinti di poter vincere grazie al dominio dei dati”.

Io penso”, aggiunge lo storico, “che questo andrà a incidere sul futuro dell’umanità perché le nuove tecnologie permetteranno a certe corporazioni e governi di hackerare l’essere umano stesso grazie alle numerose informazioni biologiche raccolte”. Per questo motivo servirà stabilire il prima possibile politiche di governance e regolamentazione delle tecnologie di intelligenza artificiale condivise a livello globale, basate su principi universali e su un dialogo trasparente tra governi, aziende, scienziati e cittadini.