Intelligenza artificiale, rapporti politici e diritti: servono regole comuni

di Francesco Laviola, Dottorando di ricerca in Diritto Pubblico, presso l’Università degli Studi Roma Tre

 

La trasformazione digitale sarà, insieme alla Green Economy, il volano della “Ricostruzione” post-pandemia. Big data e Intelligenza artificiale in testa a tutte, le nuove tecnologie attrarranno miliardi di investimenti da parte dei governi europei, accelerando la Quarta Rivoluzione industriale. Ma le persone, le società, gli Stati sono pronti a questi vertiginosi cambiamenti che si prospettano all’orizzonte?

 

È stato calcolato che negli ultimi anni l’umanità ha creato più dati di quanti ne abbia prodotti complessivamente dall’invenzione della scrittura e il trend è in crescita esponenziale. Nel 2018 la quantità complessiva di dati in circolazione nel mondo era stimata in 33 Zettabyte (unità di misura equivalente a mille miliardi di Gigabyte, vale a dire circa 36.000 anni di video in HD) e tale volume dovrebbe crescere fino a 175 Zettabyte entro il 2025. Non si può, quindi, prescindere dallo sviluppare metodi e tecnologie per trattare efficacemente questi dati e, in questo contesto, l’Intelligenza artificiale assume un ruolo chiave.

 

Secondo l’High-level expert group della Commissione Europea, per Intelligenza artificiale si intende un sistema dal comportamento intelligente, in grado di analizzare l’ambiente e di intraprendere azioni per raggiungere obiettivi specifici. Tali sistemi possono agire sia nel mondo virtuale, come gli assistenti vocali o i software di analisi delle immagini o i motori di ricerca, che nel mondo reale, come i robot avanzati, i droni o le applicazioni Internet of Things.

 

Le applicazioni dell’Intelligenza artificiale nella società e nell’economia possono essere molteplici, dal campo sanitario a quello commerciale, dai trasporti all’istruzione, con benefici non trascurabili. Al riguardo, l’emergenza COVID-19 ha fornito un’abbondante testimonianza, essendo le nuove tecnologie pressoché indispensabili per affrontare la crisi in corso. Tuttavia, ai benefici fanno da contraltare anche dei rischi.

 

Specialmente per quanto attiene agli effetti di queste tecnologie sulla politica e sulla democrazia, sussistono delle criticità da non sottovalutare. Ad oggi, infatti, l’Intelligenza artificiale si dimostra essere uno strumento insufficiente all’analisi o alla soluzione di questioni sociali complesse. Del resto, i suoi processi sono fortemente influenzati dalla progettazione degli algoritmi e dai dati immessi nel sistema, portando già di per sé a distorsioni dei risultati, le quali possono provocare effetti significativi in ambito sociopolitico, per di più se ammantati dal math washing: quel fenomeno per cui l’Intelligenza Artificiale appare rappresentare la realtà in modo oggettivo, preciso e indipendente, attraverso dati e numeri, anche quando non è così.

 

Perciò, se ai suoi tempi Nietzsche invitava l’uomo a dubitare di ciò che è “umano, troppo umano”, oggi si deve invitare il cittadino a dubitare di ciò che è “algoritmico, troppo algoritmico”, atteso che perfino video e audio possono essere falsati in maniera assolutamente realistica i c.d. deepfake. Inoltre, un altro fenomeno potenzialmente pericoloso per la democrazia è quello che viene chiamato filter bubble, cioè la creazione di spazi online personalizzati, soprattutto sui social network, in cui i contenuti sono conformi alle preferenze dell’utente, scoraggiando così il dialogo plurale e una sana dialettica politica. È bene, quindi, tenere presenti eventuali effetti collaterali sulla libertà e sulla dignità della persona.

 

Proprio il rapporto tra Intelligenza artificiale e diritti fondamentali è stato oggetto di un sostanzioso report pubblicato dalla Agenzia per i Diritti Fondamentali (FRA) dell’Unione Europea, presentato il 14 dicembre scorso insieme alla Presidenza tedesca del Consiglio dell’UE. In tale occasione, l’Agenzia europea ha avuto modo di esprimere alcune perplessità in merito all’approccio dei governi europei all’Intelligenza artificiale, troppo incentrato sull’economia e sugli effetti in termini di capacità industriale e molto meno sull’impatto sulla vita degli uomini e dei cittadini. Sebbene, gli aspetti relativi alla produttività o all’efficienza dell’amministrazione siano cruciali, specialmente in tempi come questi, i diritti fondamentali non possono essere certo accantonati o minimizzati nelle analisi alla base delle decisioni politiche. Difatti, un approccio sbagliato o superficiale può provocare non solo minacce per la privacy, ma anche discriminazioni di vario tipo (sessuali, razziali, ideologiche), nonché possibili vulnera per la trasparenza e la comprensibilità delle decisioni pubbliche e per la buona amministrazione.

 

Sul punto però, le istituzioni europee non sono inerti. Già a febbraio 2020, nel corso del convegno sugli algoritmi organizzato dalla Pontificia Accademia della Vita, il Presidente del Parlamento Europeo David Sassoli auspicava regole certe e trasparenza degli algoritmi. Lo scorso 8 ottobre, inoltre, il Parlamento Europeo ha rivolto alla Commissione delle raccomandazioni concernenti il quadro relativo agli aspetti etici dell’Intelligenza artificiale, della robotica e delle tecnologie correlate, al fine di mettere a punto una legislazione antropocentrica sull’Intelligenza artificiale. Questo atto segue, tra l’altro, una serie di documenti – tra i tanti, basti ricordare il Libro bianco sull’Intelligenza Artificiale della Commissione Europea – attraverso i quali l’UE sta cercando di gestire le esigenze regolatorie che scaturiscono dallo sviluppo delle nuove tecnologie.

 

Pertanto, si deve concludere che, da una parte, non è possibile fare a meno dell’Intelligenza artificiale, asset strategico nella competizione globale senza cui non sarebbe possibile realizzare programmi di importanza cruciale, tra cui lo stesso Green deal europeo; dall’altra, è necessario un approccio consapevole a questo tipo di tecnologia, ragion per cui l’intervento delle istituzioni volto a sensibilizzare e formare i cittadini è indispensabile. Un’interessante iniziativa a livello europeo è il progetto educativo di base Elements of AI, lanciato nella prima metà del 2020 – la versione italiana ha visto la luce in dicembre 2020, ndr-, con l’ambizioso intento di formare l’1% degli Europei. Ma la strada da percorrere è ancora lunga.

 

L’unica certezza, in questo quadro complesso, è che le soluzioni normative vanno adottate a livello europeo. Non si può, infatti, prescindere da un mercato tanto grande e ricco quanto il mercato unico europeo. A tal riguardo, sarà interessante analizzare le nuove discipline del DSA (Digital Service Act) e del DMA (Digital Market Act), relative alla regolazione dei servizi e del mercato unico digitale, al momento in fase di proposta da parte della Commissione Europea.

 

Tuttavia, l’azione europea non può esaurirsi nella mera regolazione del mercato, ma deve completarsi nella garanzia dei diritti fondamentali di tutti i suoi cittadini. È, quindi, necessario che il legislatore europeo faccia al più presto chiarezza sui principali nodi regolativi relativi all’Intelligenza artificiale e che i legislatori nazionali siano solerti e collaborativi nel disegnare insieme il nuovo quadro necessario per garantire libertà e dignità a chi vivrà nell’Europa del futuro.

Tags: