A che punto è la regolamentazione globale
dell’Intelligenza artificiale
di Gaetano Pellicano
La sfida comune degli anni che verranno sarà identificare un sistema
globale di responsabilità condivise per proteggere le persone, gli
investimenti e la leadership delle nostre società
Il segretario di Stato americano Antony Blinken, intervenuto il 31 maggio all’
del Eu-Us Trade and Technology Council (Ttc), ha riconosciuto un ruolo
fondamentale “agli innovatori e agli investitori che guidano il processo
[dell’innovazione tecnologica]”. I governi devono “facilitare, catalizzare,
qualche volta semplicemente lasciare spazio. Quello che conta è che i governi
proteggano gli standard che scegliamo per noi stessi e che la società vuole e
richiede. Questo presuppone un arduo esercizio di equilibrio.” Gli innovatori
innovano, i governi facilitano e impongono standard etici e di sicurezza.
Due settimane prima il capo di un’azienda che cresce a ritmi vorticosi nel
campo dell’intelligenza artificiale (AI) aveva chiesto al proprio governo di
limitarne le attività. Il 16 maggio Sam Altman, il capo di OpenAI, ha invocato
davanti al Senato Usa una gestione attenta dei rischi derivanti dallo sviluppo
dell’AI. Lo stesso Altman insieme a più di 300 altri esperti ha firmato l’appello,
rilanciato da Center for AI Safety il 30 maggio, che si spinge a paventare “il
rischio estinzione” per la razza umana alla stregua delle pandemie e della
guerra nucleare. In parallelo moniti, previsioni infauste, timori diffusi si sono
moltiplicati sui media di tutto il mondo avendo come primo risultato una
campagna di comunicazione globale che ha acceso le aspettative di
trasformazione epocale. Prima conseguenza: centinaia di milioni di persone in
tutto il mondo hanno già provato e molte usano regolarmente ChatGPT e
tante altre piattaforme che stiamo imparando a conoscere. Scrivono discorsi,
preparano presentazioni, aggiungono funzioni ai browser tradizionali per
rendere più efficiente la navigazione.
Tra i grandi player globali l’Unione europea è stata la prima a prendere
l’iniziativa di una normativa quadro, l’AI Act, approvato dal Parlamento
europeo il 14 giugno e atteso nella sua versione finale entro l’anno. Nessuna
sorpresa, il sistema politico e sociale europeo è per tradizione quello in cui
innovazione e riduzione dei rischi da parte dell’autorità pubblica vengono
considerati un binomio imprescindibile. Dal canto loro, gli Usa hanno acquisito
negli anni un vantaggio competitivo considerevole. Il governo federale
statunitense si è assegnato un ruolo giuda nello sviluppo dell’AI, stimolando
da un lato le aziende a investire nel rispetto dei propri criteri etici e delle
norme in essere e dall’altro la macchina pubblica ad acquistare e sviluppare
servizi innovativi.
Quali sono oggi le forze in campo in un settore in cui la sfida per la leadership
è appena cominciata? Secondo l’AI Index Report 2023 di Stanford University,
nel 2022 il settore privato negli Stati Uniti d’America ha investito in AI più di 47
miliardi di dollari, in netta diminuzione rispetto ai 72 miliardi del 2021, ma ben
al di sopra dei competitor. Infatti, nello stesso anno in Cina i privati hanno
investito circa 13 miliardi, nella Ue 7 miliardi, in Gran Bretagna 4 miliardi e in
Israele 3 miliardi. Sempre nel 2022, negli Usa sono state create 542 nuove
aziende focalizzate su AI, 160 in Cina, 99 in UK, 44 in Francia.
Il divario tra Usa e resto del mondo accumulato nel decennio 2013-22 è stato
ancora più ampio. Negli Usa gli investimenti privati sono stati quasi 249 miliari
di dollari per un totale di 4.643 nuove aziende, in Cina 95 miliardi con 1.337
start up, in UK 18 miliardi e 630 nuove aziende, in Germania e Francia 7
miliardi di investimenti per ciascun Paese con un totale di 583 start up.
Investimenti di entità considerevole e la percezione di un potenziale
dirompente non solo sul mercato del lavoro ma sull’insieme dei sistemi
produttivi hanno enfatizzato una crescente percezione dei rischi. Un
sondaggio condotto da McKinsey nel 2022 ha rivelato che il 59 percento dei
partecipanti considerava la sicurezza cyber a rischio, il 45 percento temeva
che l’AI potesse violare il sistema regolatorio, il 40 percento considerava la
privacy a rischio e il 37 percento temeva per la scarsa trasparenza dei sistemi
decisionali. Questa percezione si riflette anche nella crescita delle cause
giudiziarie motivate dall’utilizzo dell’AI che negli Usa sono state 17 nel 2016 e
110 lo scorso anno di cui il 44 percento in campo finanziario e nei servizi
professionali, il 16 percento nel settore media e culturale e il 13 percento nel
settore pubblico.
Sino ad oggi, la gestione del rischio negli Usa e in Europa è stata fatta con
approcci diversi, pur in presenza di alcuni principi di base condivisi. Con l’AI
Act l’Unione europea introdurrà norme se sulla qualità dei dati, sulla
trasparenza e sulla supervisione umana e alle responsabilità. Al cuore della
normativa vi sarà l’introduzione di un sistema di classificazione dei livelli di
rischio per la salute, la sicurezza e i diritti fondamentali delle persone:
inaccettabile, elevato, limitato e minimo.
I sistemi di AI ad alto rischio, ad esempio i veicoli autonomi, i dispositivi medici
e macchinari per infrastrutture critiche, saranno consentiti a patto che
sviluppatori e gli utenti effettuino test rigorosi, forniscano un’adeguata
documentazione della qualità dei dati e identifichino un quadro di
responsabilità che preveda la supervisione umana.
Oltre Atlantico, l’Amministrazione Biden ha adottato due ordini esecutivi
dedicati all’AI nel 2019 (EO 13859 Maintaining American Leadership in
Artificial Intelligence) e nel 2023 (EO 14091 Further Advancing Racial Equity
and Support for Underserved Communities Through the Federal
Government). Il secondo provvedimento ordina alle agenzie federale di
garantire il rispetto dei diritti civili e del principio di equità nell’adozione di
sistemi di AI. Il primo stabilisce cinque principi a cui deve conformarsi il
governo federale. Primo tra tutti la promozione del progresso tecnologico
stimolando la ricerca scientifica, la competitività economica e la sicurezza
nazionale. Seguono lo sviluppo di standard tecnici per favorire
sperimentazione e impiego sicuro; la formazione dei lavoratori con le
competenze necessarie, la fiducia del pubblico e la protezione delle libertà
civili, della privacy e dei valori americani. Infine, obiettivo del governo è
consolidare mercati internazionali aperti per le aziende americane,
proteggendo il vantaggio tecnologico e impedendo l’acquisizione delle
tecnologie critiche da parte di concorrenti strategici e nazioni avversarie.
Il 23 maggio il governo federale ha, per ultimo, annunciato un’iniziativa per
favorire la ricerca, lo sviluppo e l’implementazione di un’AI “responsabile che
protegga i diritti e la sicurezza delle persone e produca risultati concreti per il
popolo americano.” Si tratta di un piano strategico di ricerca e sviluppo sulla
base di nove linee di intervento, di una consultazione pubblica su come
mitigare i rischi e di un rapporto su opportunità e rischi derivanti dall’utilizzo
dell’AI nel campo dell’istruzione. Non solo regolatore, quindi, lo stato scende
in campo per promuovere investimenti e leadership a livello internazionale,
anche attraverso partnership su ambiente, sanità e manifattura con cui
definire standard e linee guida comuni.
Ue e Usa stanno lavorando a un quadro di partenariato su AI per identificare
approcci comuni nell’ambito del Ttc. I campi su cui si lavora sono standard
volontari per garantire la trasparenza, la valutazione dei rischi e i requisiti
tecnici per le aziende del settore. Si punta, così, a sviluppare i principi globali
adottati dall’Organizzazione per la Cooperazione e lo sviluppo economici
(OCSE) nel 2019 e aggiornarli rispetto alle novità della cosiddetta generative
AI, vale a dire quelli sistemi che consentono di creare automaticamente
contenuti originali di vario genere.
La roadmap adottata a dicembre dal Ttc è centrata sull’adozione di un
approccio comune alla gestione dei rischi. Da parte americana il punto di
partenza è il Risk Management Framework (RMF) approvato dal National
Institutes of Standards and Technology (NIST) a gennaio. Il RMF fornisce a
individui e organizzazioni una metodologia di gestione dei rischi per lo
sviluppo e l’uso responsabile dell’AI. All’interno di ogni organizzazione devono
essere identificate cinque funzioni essenziali per: sviluppare una cultura del
rischio, mappare l’organizzazione e identificare i rischi, monitorare e valutare
e, per finire, prioritarizzare e gestire i rischi sulla base dell’impatto atteso.
A ottobre, il Blueprint for an AI Bill of Rights ha identificato un insieme di diritti
di ciascun cittadino che vanno promossi in ogni circostanza. Un vero e proprio
decalogo a cui informare le regole sull’AI: le persone devo essere protette da
sistemi non sicuri o inefficaci, non devono subire discriminazioni ingiustificate
da parte degli algoritmi, devono essere protetti da pratiche di abuso dei dati
avendo la possibilità di decidere come vengono utilizzati i propri dati, devono
essere consapevoli dell’utilizzo di un sistema automatizzato e delle
metodologie che producono certi risultati, devono essere in grado di rifiutare
l’utilizzo dei dati e , se necessario, devono avere accesso a una persona in
grado di valutare e risolvere rapidamente i problemi si incontrano.
Gestione pragmatica dei rischi, diritti delle persone, e incentivi agli
investimenti pubblici e privati. Un approccio multilivello che ha garantito, come
detto, agli Stati Uniti un significativo vantaggio competitivo. L’avvento dell’AI
generativa ha portato, di recente, alcuni dei protagonisti della sfida dell’AI a
richiedere ulteriori limiti e regole comuni. Un appello che vede l’Europa in
prima linea a formulare un quadro completo che è uno dei punti di partenza
della partnership con gli Stati Uniti. La convergenza su un codice di condotta
comune per i due protagonisti del blocco occidentale è, comunque, la
prospettiva che più interessa a chi sta investendo massicciamente su
un’innovazione rapida e radicale. Aziende e decisori pubblici invocano una
partnership pubblico-privato per declinare gli standard generali in pratiche
aziendali e in una gestione della cosa pubblica rispettosa dei diritti personali.
La sfida comune degli anni che verranno sarà identificare un sistema globale
di responsabilità condivise per proteggere le persone, gli investimenti e la
leadership delle nostre società.
*Le dichiarazioni e le opinioni contenute in questo articolo sono espresse a titolo
personale