ALL'INTERNO DEL

Menabò n. 192/2023

1 Maggio 2023

Con l’IA generativa non basta un tocco leggero

Antonio Aloisi e Valerio De Stefano intervengono sulla controversa questione dei rapporti tra i chatbot basati sull’intelligenza artificiale prendendo spunto dalla recente ordinanza cautelare adottata l’Autorità Garante per la Protezione dei Dati Personali nei confronti di ChatGPT, dopo aver rilevato diverse violazioni della normativa. Aloisi e De Stefano andando anche al di là di questa vicenda ricordano le enormi questioni morali e di protezione dei dati poste dai chatbot che le autorità di regolamentazione devono affrontare.

Gli utenti italiani non possono accedere a ChatGPT. Il chatbot basato sull’intelligenza artificiale, lanciato nel novembre 2022, è ora geo-bloccato nel Paese. Alla fine del mese scorso, a seguito di un’indagine, l’Autorità Garante per la Protezione dei Dati Personali (DPA), nota anche come Garante, ha adottato un’importante ordinanza cautelare per limitare temporaneamente il trattamento locale dei dati degli utenti italiani da parte di OpenAI, la società con sede negli Stati Uniti che sviluppa e gestisce la piattaforma. I media tradizionali e persino ministri molto potenti hanno deplorato la mossa del DPA definendola avventata. Gli esperti di tecnologia e gli start-upper l’hanno accusata di cospirare contro la competitività globale del Paese. La storia è tuttavia più complicata e, con la Spagna e l’organo di controllo dei dati dell’Unione Europea che si aggiungono al controllo, offre lezioni importanti.
“Incubo della privacy”. In tutto il mondo, stanno emergendo ampie preoccupazioni sulle conseguenze nefaste e sui “rischi per la società” posti dai modelli di IA generativa, spingendo esperti e leader aziendali a chiedere una moratoria sugli aggiornamenti, a favorire la ricerca e a adottare protocolli di sicurezza. Sebbene per coloro che sono affascinati dall’ “incanto digitale” questo approccio cauto possa sembrare un complotto neoluddista ideato nei circoli accademici e politici, si tratta di valori fondamentali nelle società democratiche. In effetti, alle imprese tecnologiche viene spesso concessa “una latitudine normativa che non viene concessa ad altri settori”.
Come hanno dimostrato gli esperti, i modelli linguistici di grandi dimensioni (LLM) rappresentano “un incubo per la privacy”. Essi si basano sull’elaborazione di enormi quantità di dati, prelevati da fonti non rivelate. E ciò poggia su un’infrastruttura di dati personali gratuiti, in alcuni casi persino proprietari o protetti da copyright, senza considerare i dati sensibili che possono essere condivisi in piena libertà dagli utenti quando interagiscono con questi sistemi. I professionisti stanno iniziando a utilizzare le applicazioni generative – AI come assistenti a basso costo. Le informazioni che inseriscono – una bozza di contratto di lavoro, un rapporto di bilancio da rivedere o dati top-secret – potrebbero essere l’output per le domande di altri. Questo nichilismo della privacy è preoccupante.
Violazioni dei dati. Il 22 marzo, l’amministratore delegato di OpenAI, Sam Altman, ha twittato che “si è verificato un problema significativo in ChatGPT a causa di un bug in una libreria open source”. In altre parole, alcuni utenti avevano pieno accesso ai titoli delle cronologie delle conversazioni degli altri utenti, dove sono memorizzate le chat. L’azienda ha ammesso di “sentirsi in colpa per questo”. Una violazione dei dati simile è stata segnalata a riguardo delle informazioni sui pagamenti degli abbonati. Entrambi gli inconvenienti ‘sembravano indicare che OpenAI avesse accesso alle chat degli utenti’, ha riferito la BBC da San Francisco. In una realtà parallela, questa violazione dell’autodeterminazione informativa non sarebbe passata inosservata, causando indignazione pubblica e danni alla reputazione. Tuttavia, non è la prima volta che un presunto ‘perturbatore’ aziendale sembra godere di un ampio diritto a “uscire di prigione”.
La DPA italiana ha notificato a ChatGPT una serie di gravi violazioni. In primo luogo, l’azienda non aveva in alcun modo informato gli utenti e gli interessati i cui dati erano stati raccolti da OpenAI (come richiesto dall’articolo 13 del Regolamento generale sulla protezione dei dati). In secondo luogo (e in modo notevole), non aveva identificato alcuna solida base legale per la raccolta e l’elaborazione massiccia di dati personali (articolo 6, GDPR). In terzo luogo, ha mostrato scarsa attenzione per l’accuratezza: il chatbot era propenso a inventare dettagli che si sono rivelati falsi. Infine, l’assenza di un meccanismo di verifica dell’età potrebbe esporre i bambini a risposte inadeguate alla loro età e alla loro consapevolezza, mentre il servizio avrebbe dovuto rivolgersi soltanto a utenti di più di 13 anni, secondo i termini di OpenAI.
Mandato chiaro. La reazione di Altman è stata sprezzante. Tuttavia, le questioni sollevate dal Garante sono chiaramente presenti nel GDPR dell’UE. Utilizzando le sue prerogative ‘per imporre una limitazione temporanea o definitiva, compreso il divieto di trattamento’ (articolo 58(2)(f), GDPR), il Garante ha dato un esempio che altre autorità nazionali potrebbero presto seguire. OpenAI, cui sono state concesse alcune settimane per spiegare come intendeva rientrare nei limiti di guardia europei, ha deciso di interrompere il suo servizio in Italia. La mossa ha suscitato l’incertezza di tutti gli operatori del settore. Tuttavia, dopo un incontro tra l’azienda e la DPA, sono state individuate diverse condizioni da soddisfare entro la fine di aprile, affinché il divieto venga revocato. Se non riuscisse a dimostrare che i criteri di ‘interesse legittimo’ o di ‘consenso’ sono soddisfatti, l’azienda potrebbe incorrere in multe, sanzioni o un divieto definitivo.
La reazione di OpenAI è tipica di alcune aziende tecnologiche quando credono di poter eludere i vincoli universali: ritirarsi selettivamente da un mercato, accusare l’ente regolatore e mobilitare gli utenti (e altri che cadono in questa trappola) per difendere un servizio che opera senza vincoli. Tutto ciò ricorda gli albori dell’era delle piattaforme, quando gli operatori della food-delivery e di altre gig-economy aggiravano la legislazione in base allo strano presupposto che un’innovazione è autentica solo se si chiedeva retroattivamente il perdono retroattivo e non, anticipatamente, il permesso. Resta da vedere quale sarà la risposta, considerando che potrebbero emergere presto controversie analoghe, dopo il lancio da parte dell’European Data Protection Board di una task force dedicata “a promuovere la cooperazione e lo scambio di informazioni su possibili azioni dirette a imporre le norme”.
Approccio leggero. La proposta di regolamento UE sull’IA prevede obblighi minimi di trasparenza per i diversi sistemi, in particolare quando vengono utilizzati chatbot o ‘deep fake’. La bozza di testo è stata presentata nell’aprile 2021 e ora si trova nella fase dell’esame legislativo. L’avvento di modelli complessi e generativi di IA mostra tuttavia la necessità di un’ampia comprensione della stessa IA, la cui applicazione può essere sia malefica che benefica. I rischi includono la disinformazione di massa, la generazione di contenuti pregiudizievoli e stereotipati e la manipolazione su larga scala (vietata nella proposta di regolamento). Questa valutazione dovrebbe spingere i co-legislatori dell’UE a riconsiderare l’approccio light-touch, che prevede obblighi di notifica solo per i sistemi a basso rischio.
Abbiamo sostenuto che, nonostante l’obiettivo fosse quello di fornire un quadro modulare e mirato, le tecnologie di IA sono classificate in modo astratto e neutrale all’interno nel regolamento, non considerando gli usi specifici in ogni caso. In questo modo non si può tenere conto della natura polivalente, versatile e adattiva dei sistemi di IA. Con l’eccezione dei doveri degli sviluppatori, il quadro normativo affronta solo, e a malapena, il progressivo ampliamento dell’uso dei sistemi al di là degli scopi per i quali esso sono stati originariamente pensati e progettati. I co-legislatori dovrebbero prendere in considerazione l’approccio generale del Consiglio dell’UE, aggiungendo disposizioni per le situazioni in cui i sistemi di IA possono essere utilizzati per qualcuno dei molti altri scopi.
C’è un’altra dimensione, spesso trascurata, in tutto questo. Le sociologhe Jenna Burrell e Marion Fourcade hanno scritto che “ciò che sta sotto il feticcio dell’IA è una catena di montaggio digitale globale di uomini e donne silenziosi e invisibili, che spesso lavorano in condizioni precarie, molti di essi nelle post-colonie del Sud globale”. E un’inchiesta di Time ha documentato che OpenAI dipende dallo sfruttamento di lavoratori kenioti, ugandesi e indiani. Per ridurre i contenuti tossici e non sicuri, l’azienda ha esternalizzato l’etichettatura a una società con sede a San Francisco, la Sama, i cui lavoratori a contratto dovevano etichettare come materiale inappropriato situazioni come “abusi sessuali su minori, bestialità, omicidio, suicidio, tortura, autolesionismo e incesto”. Questi compiti di etichettatura, classificazione e filtraggio sono stati retribuiti tra 1,32 e 2 dollari all’ora, a seconda dei ruoli e dell’anzianità.
Enormi preoccupazioni. ChatGPT e le sue sorelle, come DALL-E, Synthesia e MusicLM, fanno sorgere enormi preoccupazioni tecnologiche, etiche, sociali, ambientali e politiche. Il DPA ha semplicemente affrontato la sfida dal punto di vista della protezione dei dati, che al momento è uno dei pochi insiemi di regole operative rivolte alle primissime fasi del ciclo di vita dell’IA. Le aziende tecnologiche extraeuropee che trattano con soggetti residenti nell’UE devono seguire le stesse regole delle aziende europee.
La prima risposta di OpenAI manca di scrupolo morale. Immaginiamo che un’azienda automobilistica non fornisca le cinture di sicurezza obbligatorie nelle sue auto e che riceva una notifica dall’autorità nazionale dei trasporti. Come giudicheremmo la scelta dell’azienda di smettere di vendere auto nel Paese piuttosto che rimediare all’errore? L’etica della violazione delle norme da parte delle aziende tecnologiche deve essere affrontata con risposte meno indulgenti, contrastando la vaga retorica a favore dell’innovazione. Il progresso digitale può migliorare il modo in cui viviamo, lavoriamo, impariamo e interagiamo gli uni con gli altri. Ma le tecnologie emergenti devono essere governate in modo da assicurare la sostenibilità socio-economica.

Schede e storico autori