Governance globale, la sfidadi

Ettore Greco; Francesca Maremonti

62

Scenari

Governance globale, la sfida

di Ettore Greco; Francesca Maremonti

Le divergenze tra Cina e Paesi occidentali rendono difficile raggiungere accordi significativi sulla regolamentazione dell’intelligenza artificiale. Tuttavia, il lavoro del G7 e delle Nazioni Unite sta gettando le basi per principi comuni. Promuovere un’IA inclusiva per il Sud globale è una priorità crescente

17 min

I

l panorama politico dell’intelligenza artificiale è in rapida evoluzione e presenta due sfide principali. Innanzitutto, i Paesi che vantano uno sviluppo e un’applicazione delle tecnologie legate all’IA più avanzati hanno adottato approcci e modelli diversi per quanto attiene alla regolamentazione dell’intelligenza artificiale. Nonostante gli sforzi intrapresi a vari livelli, in particolare all’interno del Consiglio UE-USA per il commercio e la tecnologia (TTC), al di là dell’Atlantico persistono notevoli divergenze: gli Stati Uniti perseguono un approccio trainato dal mercato, mentre l’UE ne promuove uno antropocentrico basato sul rischio. A sua volta, la Cina si focalizza sulla garanzia di un rigoroso controllo statale dei progressi tecnologici dell’IA – una strategia in netto contrasto con i principi fondamentali del libero mercato propugnati in Occidente.

 

 

Altre potenze tecnologiche emergenti come l’India sono del tutto intenzionate a sviluppare i propri modelli. Una simile frammentazione degli sforzi normativi rappresenta un ostacolo importante all’istituzione di una governance globale dell’intelligenza artificiale basata su principi e strumenti comuni. Le crescenti tensioni geopolitiche e le rivalità tecnologiche tra le grandi potenze contribuiscono ad accentuare le radicate differenze nelle culture normative e nel ruolo economico dello Stato. Secondariamente, l’ascesa dell’intelligenza artificiale sta ampliando il divario digitale a livello globale. In Africa soprattutto, dove la maggior parte delle persone non ha accesso a Internet, l’IA è scarsamente sfruttata in seguito alla carenza di talenti e di infrastrutture digitali, nonché dei quadri istituzionali necessari.  Esperti, stakeholder e decisori politici hanno dato prova di essere sempre più consapevoli dell’urgenza e della rilevanza strategica globale di queste sfide, anche in vista del raggiungimento degli Obiettivi di sviluppo sostenibile (OSS) e dell’attuazione dell’Agenda 2030 delle Nazioni Unite; ciò si è tradotto in nuovi sforzi internazionali volti a raggiungere una comprensione comune delle potenzialità e dell’impatto dell’intelligenza artificiale e ad avviare iniziative congiunte nell’ambito di vari organismi e forum multilaterali. 

 

 

La direzione della regolamentazione dell’IA 

Negli ultimi decenni, i governi di tutto il mondo hanno iniziato a riconoscere l’intelligenza artificiale (IA) come forza trainante sia per la competitività sia per un’innovazione rivoluzionaria.

Regolamentare l’IA è un punto all’ordine del giorno di sempre più Paesi in tutto il mondo

Negli ultimi anni le strategie in materia di intelligenza artificiale sono proliferate fino a toccare il picco: ad oggi sono 71 i Paesi che hanno pubblicato strategie nazionali proprie con l’intento di sfruttare il potenziale delle opportunità offerte dall’IA e limitarne al contempo i rischi.  Tuttavia, tale regolamentazione è stata tutt’altro che un processo lineare e uniforme.  

 

Durante la prima fase intercorsa tra il 2017 e il 2020, i Paesi ad alto reddito si sono affrettati a pubblicare le rispettive strategie in materia di intelligenza artificiale e ad impegnarsi per assumere la leadership nel campo non regolamentato delle tecnologie digitali: entro il 2019, era il 70 percento di essi ad essersi mosso in questa direzione.  Le principali potenze digitali hanno promosso le rispettive strategie in materia per guadagnare popolarità, spesso basandosi su principi e interessi nazionali variegati. Questa fase iniziale di regolamentazione dell’IA ha prodotto due risultati principali: una grave frammentazione del panorama normativo dell’IA da un lato e un crescente divario digitale tra il Nord globale e il resto del mondo dall’altro, sancendo l’arretratezza di quest’ultimo. 

 

 

la fotoNel 2023, il quadro dei Paesi che prendono parte alla regolamentazione dell’IA appare significativamente più diversificato rispetto al passato: per la prima volta paesi a basso reddito come Ruanda, Benin, Bangladesh e Tagikistan, hanno pubblicato una strategia in materia di intelligenza artificiale

 

 

Più di recente si è dato il via a una seconda fase di regolamentazione dell’IA. La pandemia di Covid-19 ha fatto emergere i vantaggi concreti dell’adozione dell’intelligenza artificiale, tra cui una maggiore efficienza in fatto di previsioni, diagnosi, supporto alla risposta e controllo della pandemia. I governi hanno acquisito sempre più consapevolezza del potenziale trasformativo dell’IA, mentre le società tecnologiche hanno esteso le proprie radici in un numero crescente di Paesi in tutto il mondo. I decisori politici hanno poi intensificato gli sforzi per progettare e diffondere strategie in materia di IA intenzionate a gettare le basi per una maggiore adozione di questa tecnologia nei Paesi a medio e basso reddito. Al 2023, il quadro dei Paesi che prendono parte alla regolamentazione dell’IA appare significativamente più diversificato rispetto al passato: proprio in quell’anno, il Ruanda è stato il primo Paese a basso reddito a pubblicare una strategia in materia di intelligenza artificiale; altri Paesi distribuiti in diverse regioni, come Benin, Bangladesh e Tagikistan, hanno seguito l’esempio e hanno visto una crescente partecipazione di voci che in precedenza erano sottorappresentate nel dibattito sulla regolamentazione dell’IA. 

 

Molti Paesi a medio e basso reddito hanno fatto ricorso ai modelli di governance dell’intelligenza artificiale esistenti all’atto di progettare le proprie strategie. Ciò ha prodotto dei “cluster” in fatto di approcci, mentre per quanto attiene ai modelli di governance dell’IA sono persistite delle divergenze normative: ne è un esempio l’Asia meridionale, in cui molti governi hanno guardato alla strategia indiana “AI for all” (IA per tutti). Nel mentre, il Pakistan ha preso spunto dal modello di governance della Cina, suo principale partner per lo sviluppo tecnologico dell’intelligenza artificiale, per elaborare la propria strategia.   

 

Molti Paesi a medio e basso reddito che lottano per la crescita economica hanno visto l’intelligenza artificiale come un acceleratore della c.d. quarta rivoluzione industriale. Secondo una stima, entro il 2030 l’IA potrebbe apportare all’economia globale un contributo pari a 15.700 miliardi di dollari; tuttavia, è probabile che la crescita economica generata dall’intelligenza artificiale rimanga geograficamente concentrata e si prevede che saranno il Nord America e la Cina a registrare i maggiori incrementi del PIL. La maggior parte dei Paesi del mondo si sta confrontando con la mancanza di preparazione rispetto all’intelligenza artificiale – il che contribuirà, con buona probabilità, ad accrescere le disuguaglianze a livello globale. L’impegno manifestato da sempre più Paesi nel definire una regolamentazione dell’IA ha rappresentato uno sviluppo positivo e tuttavia il frammentato panorama delle politiche in materia e il divario digitale a livello geografico ostacolano una risposta normativa globale a questa tecnologia.  

 

 

 

Verso una nuova fase di cooperazione internazionale sull’IA  

I governi di tutto il mondo e le organizzazioni internazionali hanno acquisito sempre più consapevolezza delle implicazioni sottese alla frammentazione normativa in materia di IA e del divario digitale globale. Le tecnologie legate all’intelligenza artificiale possono stimolare la crescita economica e sociale tanto nei Paesi ad alto reddito quanto in quelli a basso reddito. È necessario estendere l’uso dell’intelligenza artificiale in tutti gli ambiti disciplinari se si vuole includere la scienza d’avanguardia e aree critiche quali l’assistenza sanitaria, l’istruzione e il cambiamento climatico. Sono sempre più le piattaforme bilaterali e multilaterali e le iniziative internazionali che nascono per promuovere una maggiore cooperazione in materia di IA. Il multilateralismo potrebbe rivelarsi uno strumento utile al servizio dell’intelligenza artificiale e della digitalizzazione.  

 

 

Il ruolo delle Nazioni Unite 

Negli ultimi anni, le Nazioni Unite hanno sottolineato con crescente intensità la necessità di fornire risposte multilaterali alle sfide poste dall’intelligenza artificiale. L’edizione 2023 del Rapporto sulle attività dell’Intelligenza Artificiale delle Nazioni Unite, redatto in collaborazione con l’Unione Internazionale delle Telecomunicazioni (ITU), riconosce il potenziale dei sistemi IA nell’accelerare e agevolare il raggiungimento dei 17 Obiettivi di sviluppo sostenibile (OSS). Tra le altre applicazioni, l’intelligenza artificiale è alla base di sistemi che potrebbero consentire di prevedere crisi alimentari, monitorare la produttività idrica, mappare le scuole tramite immagini satellitari e ottimizzare le prestazioni delle reti di comunicazione.

In questo contesto, l’ONU ha avviato iniziative e misure per sfruttare il potenziale dell’IA e favorire lo sviluppo globale

Nell’ottobre 2023 l’ONU ha istituito un organo consultivo di alto livello sull’intelligenza artificiale per promuovere un approccio a questa tecnologia che sia inclusivo a livello globale: riunendo un team di esperti multi-stakeholder in rappresentanza di 33 Paesi, il comitato consultivo ha pubblicato il rapporto finale “Governing AI for Humanity” nel settembre 2024.  Nel rapporto si evidenziano le lacune nella governance dell’intelligenza artificiale a livello globale e si sostiene e fornisce una tabella di marcia per l’imperativa necessità di un approccio globale a questa tecnologia.  Nel marzo 2024, l’ONU ha adottato una risoluzione storica sulla promozione di sistemi di intelligenza artificiale “sicuri, protetti e affidabili” per promuovere uno sviluppo sostenibile per tutti. Il processo di stesura, guidato dagli Stati Uniti, ha visto il contributo di altri 120 Stati membri, tra cui la Cina.  Nel settembre 2024, in occasione del Summit of the Future delle Nazioni Unite tenutosi a New York, sono state raggiunte diverse tappe fondamentali. In vista dell’evento, i principali attori del mondo digitale si sono riuniti in occasione degli Action Days, tenutisi il 20 e il 21 settembre, impegnandosi a stanziare fondi pari a a 1,05 miliardi di dollari per promuovere l’inclusione digitale. 

 

Durante il Summit, i leader hanno adottato il Pact for the Future, che comprende un Global Digital Compact e una Declaration on Future Generations (rispettivamente un patto digitale globale e una dichiarazione sulle generazioni future). Tali misure mirano a trasformare la governance digitale globale con l’obiettivo di consolidarla con gli OSS e l’Agenda 2030.  Nello specifico, il Global Digital Compact delinea un quadro completo per la governance globale della tecnologia digitale e dell’intelligenza artificiale e stila una tabella di marcia per la cooperazione digitale globale con l’obiettivo di sfruttare il potenziale dell’IA e colmare il divario digitale.  

 

 

Il ruolo del G7 e del G20 

I forum del G7 e del G20 hanno lavorato per fornire soluzioni multilaterali alle sfide irrisolte della governance dell’intelligenza artificiale. La digitalizzazione occupa un posto di rilievo in tutti gli ambiti di lavoro dei due forum e nelle relative riunioni ministeriali e particolare attenzione viene dedicata al tema dell’IA.  

 

Poiché la maggior parte delle principali potenze digitali si riunisce in occasione del G7 (fatta eccezione per Cina e India), il forum si è rivelato un mezzo prezioso per affrontare il tema della frammentazione normativa e per cercare di dare vita a un terreno comune in cui far convergere maggiormente i modelli di IA dei Paesi del G7. Durante la presidenza giapponese del 2023, i leader del G7 hanno concordato una serie di “Principi guida internazionali sull’intelligenza artificiale” e un “Codice di condotta per gli sviluppatori di intelligenza artificiale” volontario. Questi primi pilastri sottolineano l’impegno del G7 nel voler consolidare la cooperazione sui principi sull’intelligenza artificiale, definendo standard potenzialmente integrabili nei quadri normativi nazionali in materia. Il Codice di condotta volontario mira a responsabilizzare le aziende private circa il rispetto dei principi fondamentali nello sviluppo delle tecnologie IA. Nel 2024, sotto la presidenza italiana, il G7 ha istituito l’AI Hub for Sustainable Development in collaborazione con il Programma delle Nazioni Unite per lo Sviluppo. L’obiettivo dell’AI Hub è quello di promuovere un approccio multipartecipativo che supporti gli ecosistemi digitali locali di intelligenza artificiale e potenzi le capacità di promuovere l’IA per uno sviluppo sostenibile, con un occhio particolare all’Africa.  

 

Se il G7 presta particolare attenzione al continente africano, dal suo canto il G20, concentrato soprattutto sull’impatto sociale dell’intelligenza artificiale, ha raddoppiato l’impegno verso l’inclusione globale e una più ampia diffusione digitale tra Paesi e parti interessate.  L’agenda del G20 è in gran parte in linea con l’impegno dell’ONU ad esprimere il potenziale dell’IA per promuovere gli OSS e al contempo traina i dibattiti globali sulla governance dell’intelligenza artificiale. La piattaforma Science20 (S20), che riunisce le accademie scientifiche dei Paesi del G20, è attiva dal 2017: in tutte le leadership, l’S20 si è concentrata principalmente sull’impatto della tecnologia su scala globale, inneggiando a motti annuali che spaziano da “Transformative Science for Sustainable Development” (Scienza trasformativa per lo sviluppo sostenibile) del 2020  a “Science for Global Transformation” (Scienza per la trasformazione globale) del 2024.   

 

 

Conclusioni 

L’acuirsi delle rivalità geopolitiche e tecnologiche continuerà con ogni probabilità a ostacolare qualsiasi accordo importante che stabilisca strumenti efficaci per la governance globale dell’intelligenza artificiale. Appare difficile poter superare le divergenze di interessi e approcci, soprattutto tra i paesi occidentali e la Cina. Tuttavia, il lavoro in corso presso le Nazioni Unite e gruppi come il G20 e il G7 può gettare le basi per accordi su una serie di principi e standard globali fondamentali. Il coinvolgimento degli attori e degli stakeholder dell’IA, promosso in molti quadri di cooperazione, può contribuire notevolmente a favorire soluzioni comuni. La governance dell’intelligenza artificiale potrebbe sfociare in un mix di accordi volontari, con meccanismi di monitoraggio più o meno rigorosi e nuovi sforzi normativi e misure di esecuzione.

È un mix destinato a variare nelle aree del mondo, a seconda delle diverse culture normative e dei diversi modelli economici

Fondamentali, in tale contesto, saranno il dialogo e la cooperazione a livello inter-atlantico. In particolare, il G7 è riuscito a intraprendere diverse iniziative promettenti sulla governance dell’intelligenza artificiale, facendo leva, tra le altre cose, su sforzi politici convergenti da un lato all’altro dell’Atlantico e sul fondamentale lavoro preparatorio e di follow-up svolto dall’OCSE. Potenzialmente, il lavoro del G7 può fornire la base per accordi più ampi (seppur limitati) a livello globale. Le crescenti preoccupazioni sul rischio che l’ascesa dell’IA possa divenire un fattore determinante nell’intensificarsi del divario digitale hanno poi spinto diverse iniziative internazionali a liberare il potenziale dell’intelligenza artificiale per gli Obiettivi di sviluppo sostenibile e la crescita economica dei Paesi a medio e basso reddito. Colmare il divario digitale è oggi uno dei temi centrali dell’azione diplomatica dell’ONU. Una componente fondamentale di tale sforzo consiste nel promuovere modelli di intelligenza artificiale partecipativi e inclusivi che coinvolgano i Paesi del Sud globale.