La fantascienza è un genere letterario defunto. O forse è semplicemente il 2023.

Sessant’anni fa, chiunque si fosse arrischiato a dire che un giorno il Presidente degli Stati Uniti d’America e il suo omologo cinese avrebbero dovuto collaborare per mettere un freno alle applicazioni militari dell’Intelligenza Artificiale (AI) sarebbe stato preso per un emulatore di Asimov, Orwell o Huxley. Eppure, due settimane fa è successo.

Nel corso dell’ Asia-Pacific Economic Cooperation Summit di San Francisco, Joe Biden e Xi Jinping hanno discusso di se e come vietare l’uso di tecnologie di AI negli armamenti autonomi (come i droni) e nel controllo e dispiegamento di testate nucleari. Sia Washington che Pechino, infatti, nutrono preoccupazioni per le potenziali conseguenze dannose di un uso non regolamentato di questa tecnologia. Le quali, neanche a dirlo, potrebbero essere devastanti.

In realtà, già dallo scorso febbraio gli Stati Uniti stanno lavorando ad una soluzione politica per un uso militare responsabile dell’AI, cercando di ottenere un consenso globale sul punto. E sembra che la Cina e diversi altri Paesi siano intenzionati a seguirli.

Non dimentichiamo, d’altro canto, che, al di là degli aspetti militari, la discussione sulla regolazione dell’AI è al centro dell’agenda politica delle principali Potenze mondiali.

Neanche un mese fa, sempre il Presidente Biden ha emanato un ordine esecutivo con cui ha cercato di mettere un “guardrail” per evitare le conseguenze nefaste del progresso dell’AI. Alle aziende è stato, così, imposto di riferire al governo federale su una serie di aspetti patologici, come il rischio che le soluzioni di AI da esse sviluppate possano essere riutilizzate da terroristi o Stati ostili per produrre armi di distruzione di massa. Inoltre, l’ordine di Biden ha cercato di mettere un argine anche ai c.d. “deep fake”, che potrebbero essere un mezzo per influenzare le elezioni o truffare i consumatori.

Anche la Cina, dal canto suo, ha iniziato a muoversi in tal senso. Nel corso del XX congresso nazionale del Partito comunista cinese, celebratosi l’anno scorso, Xi Jinping si è impegnato a “promuovere la crescita unificata e mirata delle industrie emergenti strategiche”, attribuendo una particolare attenzione all’AI.

Ad ogni buon conto, con un pizzico d’orgoglio, possiamo dire che su questo l’Unione Europea è ancora più avanti dei cugini americani e del colosso cinese. Già a giugno, infatti, la sessione plenaria del Parlamento europeo ha dato luce verde alla proposta di Regolamento sull’Intelligenza artificiale (c.d. AI Act), approvata a larghissima maggioranza. Se il testo resterà immutato anche a seguito dei successivi step dell’iter legislativo, ci sarà una significativa stretta regolatoria sull’AI. Saranno fuori legge il social credit, la biometria, la polizia predittiva e lo scraping non mirato. Inoltre, i sistemi di AI generativi (come ChatGPT) saranno tenuti a garantire la trasparenza dei loro processi, rendendo noto come vengono creati i contenuti, e a permettere di distinguere le cosiddette immagini “deep-fake” da quelle reali.

Insomma, sembra proprio che il mondo stia andando nella direzione di voler prendere sul serio queste nuove tecnologie e di regolarne l’impiego.

Le stesse Nazioni Unite si sono dotate di un Organismo consultivo per garantire che l’AI sia usata per il bene comune. E, non si può non sottolinearlo con una certa letizia, l’Italia ha l’onore di essere rappresentata in questo prestigioso Advisory Body dal frate francescano e professore presso la Pontificia Università Gregoriana Paolo Benanti, docente di teologia morale e noto esperto di etica.

Del resto, la Chiesa non è certo rimasta indietro su tutta la questione. La Giornata Mondiale delle Comunicazioni sociali del 2024 sarà dedicata, per l’appunto, a “Intelligenza artificiale e sapienza del cuore”, ponendo la sfida di perseguire “una comunicazione pienamente umana” in questo contesto.

Inoltre, lo stesso Papa Francesco aveva avuto modo di esprimersi in termini chiarissimi sui rischi di uno sviluppo incontrollato dell’AI nell’esortazione apostolica Laudate Deum. “L’intelligenza artificiale e i recenti sviluppi tecnologici si basano sull’idea di un essere umano senza limiti, le cui capacità e possibilità si potrebbero estendere all’infinito grazie alla tecnologia”, ha scritto il Pontefice. “Così, il paradigma tecnocratico si nutre mostruosamente di sé stesso”. I timori del Papa si traducono nel fatto che “un potere così grande in simili mani sia capace di distruggere la vita, mentre la matrice di pensiero del paradigma tecnocratico ci acceca e non ci permette di vedere questo gravissimo problema dell’umanità di oggi”.

D’altronde, la letteratura e la cinematografia fantascientifica del Novecento ci hanno mostrato che dietro le nuove tecnologie può celarsi il fantasma di un futuro distopico. Nel 2023 camminando per le strade non si incontrano robot antropomorfi o autovetture volanti, ma ci sono sviluppi che neanche la fantascienza del secolo scorso aveva potuto prevedere. Anche se, è bene ricordarlo, già nel 1950 Alan Turing, il celebre inventore del computer, pubblicava un articolo scientifico intitolato Computing Machinery and Intelligence.

Eppure, gli scrittori di fantascienza ci hanno quanto meno preparato culturalmente a rifuggire ogni sviluppo tecnologico che non metta al centro l’uomo, la sua dignità e i suoi diritti. Perché il potere tecnologico, così come ogni altro potere, se è fine a se stesso e non è al servizio dell’uomo è abusivo e potenzialmente dispotico. Del resto, lo stesso Papa Francesco ha evidenziato con grande acume che: “non ogni aumento di potere è un progresso per l’umanità”.