UE normative powerdi Brahim Maarad
62

Arrivano le regole

UE normative power

di Brahim Maarad

L'UE mira a garantire lo sviluppo di un’IA sicura, etica e rispettosa dei diritti fondamentali, creando standard e regole che influenzano il modo in cui la tecnologia viene sviluppata e utilizzata, sia all’interno che al di fuori dei suoi confini

13 min

L

’Unione europea ha introdotto la prima legge al mondo per la regolamentazione dell’intelligenza artificiale. L’AI Act (o legge sull’IA, regolamento Ue 2024/1689) è in vigore dal primo agosto 2024 (è stato approvato nel maggio 2023). Si tratta di un primo passo, nel tentativo di mettere ordine in un settore che rischiava di andare fuori controllo, senza non poche ripercussioni – e critiche – da parte di alcuni dei principali attori dell’innovazione tecnologica. L’obiettivo delle nuove norme è promuovere un’IA affidabile in Europa e nel resto del mondo, garantendo che i sistemi di IA rispettino i diritti fondamentali, la sicurezza e i principi etici e affrontando i rischi di modelli di IA molto potenti e di grande impatto.

 

Il regolamento europeo sull’intelligenza artificiale si applica unicamente ai settori che rientrano nel diritto dell’Ue e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché a fini di ricerca.

 

 

Un approccio basato sul rischio

Il quadro normativo segue un approccio “basato sul rischio”: tanto maggiore è il rischio di arrecare danni alla società, quanto più rigorose sono le regole.

Sono quattro i livelli di rischio previsti: inaccettabile, alto, limitato e minimo

Tutti i sistemi di IA considerati una chiara minaccia alla sicurezza, ai mezzi di sussistenza e ai diritti delle persone sono vietati, dal punteggio sociale da parte dei governi ai giocattoli che utilizzano l’assistenza vocale che incoraggia comportamenti pericolosi. Fanno parte della categoria di rischio elevato invece le tecnologie utilizzate per infrastrutture critiche (ad esempio i trasporti), che potrebbero mettere a rischio la vita e la salute dei cittadini; formazione scolastica o professionale, che può determinare l’accesso all’istruzione o al percorso professionale di una persona (ad esempio il punteggio degli esami); componenti di sicurezza dei prodotti (come l’applicazione dell’IA nella chirurgia assistita da robot); occupazione, gestione dei lavoratori e accesso al lavoro autonomo (ad esempio software di selezione dei curriculum per le procedure di assunzione); servizi pubblici e privati essenziali (come il credit scoring che nega ai cittadini la possibilità di ottenere un prestito); attività di contrasto che possono interferire con i diritti fondamentali delle persone (ad esempio valutazione dell’affidabilità delle prove giudiziarie); gestione della migrazione, dell’asilo e del controllo delle frontiere (ad esempio esame automatizzato delle domande di visto); amministrazione della giustizia e processi democratici (ad esempio soluzioni di IA per la ricerca di decisioni giudiziarie).

 

 

la fotoIl regolamento europeo sull’intelligenza artificiale si applica unicamente ai settori che rientrano nel diritto dell’Ue e prevede esenzioni, ad esempio per i sistemi utilizzati esclusivamente per scopi militari e di difesa, nonché a fini di ricerca

 

 

 

Tutti questi sistemi sono soggetti a obblighi rigorosi prima di poter essere immessi sul mercato: adeguati sistemi di valutazione e mitigazione dei rischi; alta qualità delle serie di dati che alimentano il sistema per ridurre al minimo la possibilità di risultati discriminatori; registrazione dell’attività per garantire la tracciabilità dei risultati; documentazione dettagliata che fornisca tutte le informazioni necessarie sul sistema e sul suo scopo affinché le autorità ne valutino la conformità; informazioni chiare e adeguate per l’operatore; adeguate misure di sorveglianza umana; alto livello di robustezza, sicurezza e precisione. Tutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. L’uso del riconoscimento facciale remoto in spazi accessibili al pubblico a fini di contrasto è, in linea di principio, vietato.

 

Sono rigorosamente definite e regolamentate eccezioni limitate, ad esempio quando necessario per cercare un minore scomparso, prevenire una minaccia terroristica specifica e imminente o individuare, localizzare, identificare o perseguire l’autore o il sospettato di un reato grave. Tali usi sono subordinati all’autorizzazione di un organo giudiziario o di un altro organo indipendente e a limiti adeguati in termini di tempo, portata geografica e banche dati consultate.

Vengono considerati rischi limitati quelli associati alla mancanza di trasparenza nell’uso dell’IA

lA Legge sull’IA introduce specifici obblighi di trasparenza per garantire che le persone siano informate quando necessario, promuovendo la fiducia. Ad esempio, quando si utilizzano sistemi di intelligenza artificiale come le chatbot, gli utenti dovrebbero essere consapevoli del fatto che stanno interagendo con una macchina in modo che possano decidere se continuare o fermarsi.I fornitori devono inoltre garantire che i contenuti generati dall’IA siano identificabili. Inoltre, il testo generato dall’IA pubblicato allo scopo di informare il pubblico su questioni di interesse pubblico deve essere etichettato come generato artificialmente. Ciò vale anche per i contenuti audio e video che costituiscono deep fake. La legge sull’IA consente l’uso libero dell’IA a rischio minimo. Ne fanno parte applicazioni come videogiochi abilitati all’intelligenza artificiale o filtri antispam.

 

 

Il patto con gli sviluppatori

La legge, entrata in vigore il primo agosto, sarà pienamente applicabile due anni dopo, con alcune eccezioni: i divieti entreranno in vigore dopo sei mesi, le norme di governance e gli obblighi per i modelli di IA per uso generale diventeranno applicabili dopo 12 mesi e le norme per i sistemi di IA – integrati in prodotti regolamentati – si applicheranno dopo 36 mesi. Per chi viola i divieti previsti nel regolamento sono previste sanzioni pecuniarie fino a 35 milioni di euro oppure fino al 7 percento del fatturato globale annuo.

 

Per agevolare la transizione verso il nuovo quadro normativo, la Commissione ha varato il Patto sull’intelligenza artificiale, un’iniziativa volontaria che mira a sostenere la futura attuazione e invita gli sviluppatori di IA europei e non solo a rispettare in anticipo gli obblighi fondamentali della legge sull’IA. Al 25 settembre oltre cento aziende hanno firmato gli impegni, tra cui Amazon, Google, Microsoft, OpenAI e Palantir. Pesano le assenze però di Apple, Meta e X. Queste ultime vedono nelle normative europee un ostacolo alle proprie imprese tanto da non lanciare sul mercato europeo alcuni applicativi di ultima generazione in attesa di chiarire meglio gli obblighi a cui sono soggetti. In particolare, Apple ha deciso di non lanciare in UE le nuove funzionalità basate sull’IA – Apple intelligence – dell’ultimo iPhone. Mentre X è in rotta di collisione con la Commissione europea da diverso tempo già per le norme del DSA, il Digital service act che regole le piattaforme web.

 

Per la Commissione europea l’intelligenza artificiale non è però solo qualcosa da controllare o limitare bensì qualcosa su cui investire. Già nel novembre 2023 l’esecutivo europeo e l’impresa comune per il calcolo ad alte prestazioni (EuroHPC) si sono impegnate a consentire e ad ampliare l’accesso alle risorse di supercalcolo di prim’ordine di cui dispone l’UE da parte delle start-up e delle PMI europee nel settore dell’intelligenza artificiale e della comunità dell’IA in senso lato, nel quadro dell’iniziativa dell’Ue per le startup dell’IA.

L’Unione europea è attualmente in prima linea nel supercalcolo a livello mondiale. Con l’EuroHPC, tre dei supercomputer dell’UE sono fra i migliori al mondo: Leonardo, Lumi e MareNostrum5.

 

 

 

la fotoTutti i sistemi di identificazione biometrica remota sono considerati ad alto rischio e soggetti a requisiti rigorosi. L’uso del riconoscimento facciale remoto in spazi accessibili al pubblico a fini di contrasto è, in linea di principio, vietato

 

 

 

Le ricette di von Der Leyen e Draghi

“I dati e l’intelligenza artificiale sono gli ingredienti di un’innovazione che faciliterà la ricerca di soluzioni alle sfide che si pongono in diversi settori della società, quali la sanità o l’agricoltura, la sicurezza o l’industria manifatturiera. Al fine di mettere a frutto tutto questo potenziale dobbiamo trovare una nostra strada europea, che consenta di equilibrare il flusso e l’ampio uso dei dati tutelando al contempo alti livelli di privacy, sicurezza, protezione e norme etiche. Con il regolamento generale sulla protezione dei dati siamo già su questa strada, e molti paesi hanno seguito il nostro esempio. Nei primi cento giorni del mio mandato, presenterò una proposta legislativa per un approccio europeo coordinato alle implicazioni umane ed etiche dell’intelligenza artificiale”. È la promessa di Ursula von der Leyen nel suo programma per il secondo mandato alla guida della Commissione europea, presentato lo scorso luglio al Parlamento europeo. “Questa proposta dovrebbe esaminare anche i modi per utilizzare i Big Data per favorire innovazioni capaci di generare ricchezza per le nostre società e le nostre imprese. Farò in modo che gli investimenti nell’intelligenza artificiale siano una priorità, sia attraverso il quadro finanziario pluriennale sia promuovendo il ricorso ai partenariati pubblico-privato”, ha evidenziato.

 

La questione è stata affrontata anche dall’ex presidente della BCE ed ex premier italiano, Mario Draghi, nel suo Rapporto sul Futuro della competitività europea. “Un problema critico per l’Europa sarà l’integrazione di nuove tecnologie come l’intelligenza artificiale nel nostro settore industriale. L’IA sta migliorando in modo incredibilmente rapido, come dimostrano gli ultimi modelli rilasciati negli ultimi giorni. Dobbiamo cambiare il nostro orientamento dal tentativo di limitare questa tecnologia alla comprensione di come trarne vantaggio. Il costo della formazione di modelli di IA di frontiera è ancora elevato, il che rappresenta un ostacolo per le aziende in Europa che non hanno il sostegno delle grandi aziende tecnologiche statunitensi. Ma, d’altro canto, l’UE ha un’opportunità unica per abbassare il costo dell’implementazione dell’IA rendendo disponibile la sua esclusiva rete di computer ad alte prestazioni”, ha spiegato Draghi presentando il documento al Parlamento europeo a settembre.

 

Il rapporto raccomanda di aumentare la capacità di questa rete ed espandere l’accesso alle start-up e all’industria. Molte applicazioni industriali dell’IA non richiedono gli ultimi progressi nell’IA generativa; quindi, è alla nostra portata accelerare l’adozione dell’IA con uno sforzo concertato per supportare le aziende. Detto questo, il rapporto riconosce che il progresso tecnologico e l’inclusione sociale non sempre vanno di pari passo. “Le principali transizioni sono dirompenti. L’inclusione dipende dal fatto che tutti abbiano le competenze necessarie per trarre vantaggio dalla digitalizzazione. Quindi, mentre vogliamo eguagliare gli Stati Uniti in termini di innovazione, dobbiamo superarli in termini di istruzione e apprendimento degli adulti. Proponiamo quindi una profonda revisione dell’approccio europeo alle competenze, incentrata sull’uso dei dati per comprendere dove si trovano le lacune in termini di competenze e sull’investimento nell’istruzione in ogni fase. Affinché l’Europa abbia successo, gli investimenti in tecnologia e nelle persone non possono sostituirsi a vicenda. Devono andare di pari passo”, evidenzia Draghi.

 

Nel frattempo, il ‘Brussels effect’ si fa sentire anche sull’IA: il 5 settembre è stata firmata la Convenzione quadro del Consiglio d’Europa sull’intelligenza artificiale e i diritti umani, la democrazia e lo stato di diritto. È il primo trattato internazionale giuridicamente vincolante volto a garantire che l’uso dei sistemi di intelligenza artificiale sia pienamente coerente con i diritti umani, la democrazia e lo stato di diritto. Fornisce un quadro giuridico che copre l’intero ciclo di vita dei sistemi di intelligenza artificiale. Promuove il progresso e l’innovazione dell’intelligenza artificiale, gestendo al contempo i rischi che può comportare per i diritti umani, la democrazia e lo stato di diritto. Per resistere alla prova del tempo, è neutrale dal punto di vista tecnologico.

 

La Convenzione quadro è stata adottata dal Comitato dei ministri del Consiglio d’Europa il 17 maggio 2024. I 46 stati membri del Consiglio d’Europa, l’Unione europea e 11 stati non membri (Argentina, Australia, Canada, Costa Rica, Santa Sede, Israele, Giappone, Messico, Perù, Stati Uniti d’America e Uruguay) hanno negoziato il trattato. Rappresentanti del settore privato, della società civile e del mondo accademico hanno contribuito come osservatori.