Attualità

L'intervista a Brando Benifei, relatore della legge sull'intelligenza artificiale al Parlamento europeo

«L’AI Act entrerà in vigore con un’applicazione graduale: da febbraio 2025 sono vietati i sistemi più pericolosi, mentre le altre norme entreranno in vigore progressivamente fino al 2027».

L'intervista a Brando Benifei, relatore della legge sull'intelligenza artificiale al Parlamento europeo
Pubblicato:

Il Parlamento europeo ha varato il Regolamento sull’Intelligenza artificiale, la prima legge nel suo genere al mondo, di cui è stato relatore l’eurodeputato italiano Brando Benifei. Approvata nel giugno 2024, le prime applicazioni entreranno in vigore nell’agosto 2025.

Onorevole Benifei, perché si è reso necessario regolamentare l’uso dell’intelligenza artificiale da parte dell’Unione europea?

«Regolamentare l’intelligenza artificiale (IA) è stato essenziale perché ormai questi sistemi incidono direttamente sulla vita quotidiana di tutti noi cittadini, presentando opportunità ma anche rischi. Inizialmente utilizzata in ricerca scientifica e operativa, l'IA è stata poi adottata nel mondo del lavoro e delle imprese, diventando oggi parte delle abitudini quotidiane, grazie ad esempio a tecnologie d’IA generativa. Il Regolamento europeo sull’IA (AI Act) è una normativa specifica che si inserisce nel quadro normativo riguardante i dati e il mercato unico digitale, introducendo regole vincolanti. L’Ue si è posta come avanguardia anche per giganti come gli Stati Uniti: voglio ricordare come l’Executive Order sull'IA dell’allora presidente Joe Biden abbia mostrato una volontà simile, ma essendo un atto amministrativo e non legislativo, non abbia vincolato i privati, sebbene incoraggiasse una futura regolamentazione in quella direzione».

Può raccontarci brevemente come si è arrivati all’attuale normativa, aiutandoci a capire meglio come funzionano le istituzioni europee?

«Nel mese di aprile del 2021, la Commissione europea ha presentato la sua proposta per l’AI Act. Le commissioni parlamentari incaricate sono state quella del Mercato interno e protezione dei consumatori e quella delle Libertà civili e giustizia. Il dossier è stato affidato, per guidare il processo legislativo, al sottoscritto, come membro della Commissione Mercato interno, e al deputato liberale Dragoş Tudorache, membro della Commissione per le Libertà. Dopo un anno di discussioni e migliaia di emendamenti alla proposta della Commissione, a giugno 2023 il Parlamento ha adottato la sua posizione negoziale e, dopo cinque riunioni di negoziazione tra Parlamento, Consiglio Ue e Commissione europea, a dicembre 2023 è stato raggiunto l’accordo provvisorio. Il fascicolo è stato quindi votato in plenaria il 13 marzo 2024».

Quali sono gli obiettivi che si pone questo Regolamento e cosa prevede concretamente?

«Il Regolamento si applica a coloro che all’interno dell’Ue operano nella catena del valore dell’IA (fornitori, utilizzatori, importatori, distributori, produttori e rappresentanti autorizzati) e l’approccio su cui si basa la legge è centrato sul rischio: maggiore è il rischio associato a un determinato uso di IA, più rilevanti saranno le responsabilità in carico agli sviluppatori e agli utilizzatori. L’AI Act identifica diversi tipi di IA a seconda dei livelli di rischio che ciascuno presenta. È importante menzionare alcuni sistemi d’IA che il Regolamento vieta in toto, tra cui: sistemi utilizzati per “social scoring” (ovvero la valutazione del comportamento individuale); sistemi utilizzati per fini investigativi basandosi sulla profilazione fisica o psicologica; sistemi di riconoscimento delle emozioni sul posto di lavoro e nelle scuole e sistemi di identificazione biometrica remota in tempo reale in spazi accessibili al pubblico, ad eccezione di attività investigative o per perseguire reati di particolare gravità. All’interno del Regolamento è stato anche affrontato un altro delicato tema: la tutela del settore creativo e del diritto d’autore. L’AI Act fa sì che i sistemi d’IA per uso generale (Gpai), come ChatGpt, e i modelli su cui si basano debbano soddisfare determinati requisiti di trasparenza, tra cui la conformità alla legge Ue sul diritto d’autore e la pubblicazione di riepiloghi dettagliati dei contenuti utilizzati per la loro formazione. Alcuni modelli Gpai più potenti dovranno ad esempio affrontare requisiti aggiuntivi, tra cui l'esecuzione di valutazioni del modello, la valutazione e l'attenuazione dei rischi che presentano e la segnalazione degli incidenti. Inoltre, è importante menzionare che le immagini artificiali o manipolate, i contenuti audio o video ("deepfake") devono essere chiaramente etichettati come tali, attraverso il sistema della cosiddetta “filigrana digitale”».ù

Regolamentare temi delicati e proteggere i cittadini potrebbe frenare l’innovazione? O ci potrebbero essere difficoltà con gli altri Paesi in cui è assente una normativa di questo genere?

«Non credo che una regolamentazione più rigorosa crei divari competitivi, poiché le regole si applicano a tutti gli sviluppatori, non solo agli europei. Per aiutare le startup e le Pmi, la legge prevede, ad esempio, misure di supporto all'innovazione, come la creazione di spazi di sperimentazione normativa (sandbox) che permettano loro di adattarsi gradualmente alle nuove regole, senza ostacolare l’innovazione e favorendo lo sviluppo di sistemi di IA innovativi. Nonostante l’Europa sia indietro sull’IA rispetto a Stati Uniti e Cina in termini di condivisione della capacità computazionale, di investimenti e di capacità di avere un mercato finanziario e di ricerca di capitali di questi progetti, l'AI Act permette all’Europa di creare un modello unico sicuro e innovativo».

Quali sono i prossimi passi nell’applicazione del Regolamento?

«L’AI Act entrerà in vigore con un’applicazione graduale: da febbraio 2025 sono vietati i sistemi più pericolosi, mentre le altre norme entreranno in vigore progressivamente fino al 2027. Per garantire un'attuazione chiara ed efficace del testo, la Commissione ha istituito l'Ufficio europeo per l'IA: un centro europeo di governance dell’IA. Come Parlamento europeo, invece, abbiamo istituito il gruppo di lavoro sull’AI Act, che presiedo assieme al deputato Michael McNamara dei Liberali e che si riunisce ogni mese, per avere un dialogo strutturato con la Commissione europea sul suo lavoro per l'attuazione dell'AI Act».

La legge saprà affrontare anche le evoluzioni future della tecnologia, e rispondere quindi alle esigenze emergenti, o dovrà essere rivista?

«La legge è forte e resistente alle evoluzioni tecnologiche di questi tempi, ma ovviamente si possono prevedere specifiche azioni legislative sul tema. Più che per i modelli fondativi, direi più in generale per l’applicazione dell’uso dell’intelligenza artificiale nei luoghi di lavoro. Sebbene il Regolamento includa norme importanti per i lavoratori, una Direttiva potrebbe introdurre obblighi più rigorosi per il coinvolgimento delle parti sociali nelle decisioni su sicurezza e formazione».