ALL'INTERNO DEL

Menabò n. 188/2023

26 Febbraio 2023

La corsa globale all’intelligenza Artificiale: è ora di rallentare*

German Bender di fronte alle tendenze verso una diffusione esplosiva dell’Intelligenza Artificiale si chiede quale sia il modo migliore per evitare che a tale diffusione si accompagnino numerosi e seri rischi di varia natura. Bender ritiene che il modo oggi prevalente, quello che lascia campo libero alle grandi imprese globali e alla competizione tra di esse, non mette al riparo da quei rischi e guarda con interesse ai tentativi di regolazione dell’Unione Europea, di cui è espressione iniziale l’AI Act.

Qual è il modo migliore per sviluppare l’Intelligenza Artificiale? Questa domanda, a lungo teorica, sta rapidamente diventando una preoccupazione concreta, che presto richiederà di effettuare importanti scelte strategiche. Stiamo assistendo a due approcci completamente diversi.

Il primo è la gara tra i giganti della tecnologia globale, iniziata con il recente lancio del ChatGPT finanziato da Microsoft, che ha già sollecitato Google e la società cinese Baidu a promettere sistemi simili. In questi casi, il mercato (o, piuttosto, il movente del profitto) rappresenta il meccanismo che spinge le imprese a prendere decisioni che probabilmente dovrebbero – e forse preferirebbero – rimandare.

Il secondo è il processo avviato dall’Unione Europea per regolamentare l’intelligenza artificiale, in particolare attraverso il pacchetto legislativo “AI Act” e i relativi standard. L’obiettivo è classificare i sistemi in base a quattro livelli di rischio: inaccettabile, elevato, limitato e minimo/zero. In questo caso, il modus operandi è democratico e politico, si concretizza in atti legislativi e altre forme di regolamentazione.

Finora il mercato è stato dominante, sebbene sia stato spesso sostenuto da prestiti governativi e investimenti pubblici nell’attività di ricerca e imprenditoriale. Ciò è in parte dovuto al rapido ritmo del cambiamento tecnologico, che rende difficile per le istituzioni democratiche e gli Stati nazionali tenere il passo. Dal punto di vista legale e tecnico, la regolamentazione dell’Intelligenza artificiale si è rivelata estremamente difficile.

Sforzi internazionali. ChatGPT illustra alcune delle difficoltà e dei rischi da affrontare. Il sistema è accessibile in tutto il mondo e probabilmente si diffonderà rapidamente quando Microsoft lo incorporerà nei suoi numerosi prodotti e permetterà ad altre imprese di fare lo stesso. È probabile che i sistemi di Intelligenza Artificiale di Google e Baidu producano effetti di diffusione simili.

Non è evidente come regolamentare efficacemente questa tecnologia intrinsecamente globale e amorfa, e l’influenza dei singoli Paesi potrebbe essere molto limitata. Per questo motivo, sono in corso sforzi internazionali. L’Organizzazione delle Nazioni Unite per l’Educazione, la Scienza e la Cultura ha lanciato il primo accordo globale sull’etica dell’Intelligenza Artificiale nel 2021 e ora sono in corso iniziative in tutto il mondo – anche negli Stati Uniti – per regolamentare l’Intelligenza Artificiale in vari modi.

L’iniziativa dell’UE di creare norme e standard in grado di garantire che l’Intelligenza Artificiale sia etica e sostenibile è stata un catalizzatore. Infatti, la rilevanza dell’Unione non deve essere sottovalutata: un mercato di 500 milioni di persone con redditi elevati a livello globale non è insignificante. La speranza è che la regolazione dell’UE evolva rapidamente e abbia effetti di normalizzazione del mercato mondiale; ma questa è una prospettiva molto incerta.

Un ostacolo è rappresentato dal coinvolgimento di Baidu nella gara: i governi autoritari intendono utilizzare la tecnologia dell’Intelligenza Artificiale per la sorveglianza e la repressione e non è molto plausibile che tali Stati si conformino volontariamente alle normative dell’UE. Nel caso della Cina non è nemmeno necessario, in quanto il mercato interno è abbastanza grande da consentire lo sviluppo della tecnologia AI in tempi rapidi e secondo regole e norme completamente diverse da quelle degli Stati Uniti o dell’Europa.

Diffusione esplosiva. A distanza di due mesi dal lancio, ChatGPT aveva accumulato 100 milioni di utenti. Le forze del mercato possono portare alla diffusione esplosiva di tecnologie di Intelligenza Artificiale non pienamente comprese dalle aziende che le sviluppano e che comunque sono riluttanti a spiegare a soggetti esterni. Diversi utenti sono riusciti a “ingannare” ChatGPT e a farsi dare risposte di cui non dovrebbe essere capace: fornire ricette per droghe o esplosivi ed esprimere opinioni razziste.

Perché ChatGPT mostra questo comportamento inaspettato e contraddittorio? Nessuno lo sa veramente e l’azienda che sta dietro a questa tecnologia, OpenAI, non è certo aperta quando si tratta di fornire informazioni. Così ho interrogato direttamente ChatGPT. In modo criptico, ChatGPT ha risposto: “Essendo un modello AI addestrato da OpenAI, sono costantemente in fase di sviluppo e miglioramento”.

Sembra molto difficile, anche per i creatori del sistema, regolamentarne l’uso e la funzionalità. Una cautela perfino maggiore dovrebbe guidare l’uso e la diffusione di sistemi più complessi, che potrebbero avere conseguenze ancora più gravi che non possiamo prevedere e prevenire. I rischi di lasciare che il mercato diffonda la tecnologia dell’Intelligenza Artificiale scatenando una corsa agli armamenti tra i concorrenti dovrebbero essere evidenti.

Potenziali danni. Molti studiosi hanno evidenziato i pericoli sociali di uno sviluppo rapido e incontrollato dell’Intelligenza Artificiale. Daron Acemoglu, professore di economia al Massachusetts Institute of Technology, ha avvertito che il rapido cambiamento tecnologico deve essere abbinato a riforme del welfare e del mercato del lavoro per prevenire la crescente disuguaglianza, l’indebolimento della democrazia e l’aumento della polarizzazione. Un approccio simile è stato proposto dall’economista di Harvard Dani Rodrik: “Le politiche governative possono aiutare a orientare l’automazione e le tecnologie di Intelligenza Artificiale su un percorso più favorevole al lavoro, che integri le competenze dei lavoratori invece di sostituirle”.

Il matematico svedese Olle Häggström, esperto dei rischi esistenziali dell’Intelligenza Artificiale, ha da tempo messo in guardia contro vari potenziali pericoli, che vanno dalla sorveglianza e dalla disoccupazione ai sistemi autonomi di armamento e a un futuro in cui le macchine prenderanno semplicemente il controllo del mondo. Häggström è preoccupato per il lancio di ChatGPT. Lo considera un’indicazione di quanto sarà difficile risolvere il cosiddetto problema dell’allineamento dell’Intelligenza Artificiale, ossia progettare sistemi di Intelligenza Artificiale più potenti e, di conseguenza, più pericolosi dotati di tutte le protezioni necessarie per evitare deragliamenti.

È opportuno bloccare o limitare fortemente alcuni tipi di sistemi fino a quando non li avremo compresi meglio. Ciò richiederebbe un ampio dibattito democratico e adeguate educazione e comunicazione. Diversamente, è probabile che si verifichi una reazione da parte dei cittadini che non possono accedere a queste tecnologie (soprattutto se in altri Paesi esse possono essere liberamente utilizzate). Questo è già successo con il Regolamento generale sulla protezione dei dati: pur avendo molti aspetti positivi, il GDPR è ampiamente disprezzato e ridicolizzato, in quanto l’UE è riuscita a dipingere se stessa come un colosso burocratico intenzionato a rendere più difficile l’uso di Internet per le persone normali.

Di più e meglio. Alcuni considerano la regolamentazione dell’Intelligenza Artificiale come un ostacolo all’innovazione e avvertono che l’approccio europeo potrebbe ridurre l’Unione europea a un’isola sperduta dell’Intelligenza Artificiale. Nel frattempo, gli Stati Uniti e la Cina farebbero un balzo in avanti, essendo meno interessati alle norme, agli standard industriali e alle linee guida etiche.

Naturalmente, la regolamentazione non è perfetta e gli Stati non sono sempre benevoli o saggi. È chiaro che abbiamo bisogno di una combinazione di mercato e regolamentazione. Ma, considerando i rischi potenziali e il ritmo veloce dello sviluppo e della diffusione della tecnologia, si può affermare che abbiamo avuto troppo del primo e troppo poco della seconda.

I mercati non contrastano in modo sufficiente le “esternalità negative” (effetti collaterali indesiderati). Non distribuiscono il valore economico creato dalla tecnologia in modo sostenibile ed equo. Non incorporano considerazioni sociali o politiche. E raramente contribuiscono a soluzioni tecnologiche che vanno a vantaggio della società nel suo complesso.

La maggior parte di noi vuole un’Intelligenza Artificiale più ampia e migliore. Ma per raggiungere questo scopo è necessaria una maggiore e migliore regolamentazione.


* Questo articolo è stato originariamente pubblicato inglese su Social Europe (www.socialeruope.eu) il 15 febbraio 2023.

Schede e storico autori