Il 14 giugno 2023 il Parlamento europeo ha approvato la sua posizione negoziale sull’Artificial Intelligence Act, il progetto di normativa sull’intelligenza artificiale proposto dalla Commissione europea nell’aprile del 2021. Questa approvazione dà il via IA negoziati – i cosiddetti “triloghi” – per approvare in via definitiva la normativa. Ci si aspetta un regolamento europeo conclusivo entro la fine dell’anno, e comunque prima delle elezioni europee.
Cosa prevede l’Artificial Intelligence Act
La Commissione europea, determinata a promuovere un approccio responsabile verso i sistemi di intelligenza artificiale, con l’obiettivo di migliorare il benessere dei cittadini, ha sviluppato la propria proposta di regolamentazione basandosi sui rischi collegati all’utilizzo dell’intelligenza artificiale.
Saranno banditi i sistemi di IA che potrebbero essere utilizzati in modo intrusivo e discriminatorio, con rischi inaccettabili per i diritti fondamentali dei cittadini, la loro salute, la loro sicurezza o altre questioni di interesse pubblico. Tra le applicazioni di intelligenze artificiali a rischio inaccettabile, ci sono la manipolazione dei comportamenti delle persone o di gruppi vulnerabili, come ad esempio i giocattoli parlanti per bambini, e il social scoring, la classificazione delle persone in base al loro comportamento o alle loro caratteristiche. A dover essere regolamentati, tramite governance dei dati, valutazione della gestione del rischio, documentazione tecnica e criteri per la trasparenza, sono invece i sistemi di IA ad alto rischio, come quelli utilizzati in infrastrutture critiche (ad esempio reti elettriche, ospedali), quelli che aiutano a prendere decisioni riguardanti la vita dei cittadini (ad esempio occupazione o valutazione del credito), o quelli che hanno un impatto significativo sull’ambiente. Hanno poi rischio minimo o basso quelle applicazioni dell’IA utilizzate ad oggi per la traduzione, il riconoscimento delle immagini o le previsioni meteorologiche.
La posizione del Parlamento europeo
Con il voto del 14 giugno, il Parlamento europeo amplia l’elenco dei sistemi di IA a rischio inaccettabile: tra questi devono essere inclusi i sistemi di categorizzazione biometrica che utilizzano caratteristiche sensibili (ad esempio genere, razza, etnia, stato di cittadinanza, religione, orientamento politico), sistemi di polizia predittiva (basati su profilazione, posizione o precedenti penali), o sistemi di riconoscimento delle emozioni nelle forze dell’ordine, alle frontiere, sul posto di lavoro e nelle scuole. Il testo approvato dal Parlamento prevede anche il ban all’identificazione biometrica remota in tempo reale ed ex post in spazi pubblici, con un’eccezione per le forze dell’ordine nell’utilizzo dell’identificazione biometrica ex post per il perseguimento di reati gravi, previa autorizzazione giudiziaria. Su un divieto totale dell’identificazione biometrica, però, potrebbero esserci dei passi indietro in sede di negoziati con il Consiglio europeo, il quale già a dicembre aveva sottolineato che in alcune situazioni l’IA potrebbe essere strettamente necessaria, come insistono anche molti corpi di polizia degli Stati membri, per attività di contrasto alla criminalità.
Per il Parlamento europeo, dovranno essere classificati ad alto rischio anche i sistemi di IA che potrebbero influenzare gli elettori e l’esito delle elezioni, e quelli utilizzati dagli algoritmi di raccomandazione dei social media o altre piattaforme digitali. Inoltre, in linea con l’approccio che dà priorità ai bisogni e agli interessi degli “umani” nella loro interazione con le macchine, l’AI Act approvato dal Parlamento prevede la possibilità di presentare reclami e ricevere spiegazioni per le decisioni prese tramite sistemi di IA ad alto rischio.
L’IA a scopo generale
Il testo dell’AI Act approvato dal Parlamento europeo presenta anche alcuni obblighi per i providers di sistemi di IA generativa e di modelli base dell’IA. Entrambi possono essere considerati intelligenze artificiali a scopo generale, perché sono in grado di eseguire diverse attività e non sono limitati a un singolo compito. La distinzione tra i due sta nell’output finale.
L’IA generativa, come l’ormai popolare Chat GPT, utilizza reti neurali per generare testo, immagini o suoni nuovi, mai visti o ascoltati prima, come può fare un essere umano. Per questo, il Parlamento europeo ha introdotto requisiti di trasparenza: le aziende che sviluppano IA generative dovranno fare in modo che nel risultato finale sia reso esplicito che il contenuto è stato generato dall’IA, – cosa che, ad esempio, permetterà di distinguere i deep-fake dalle immagini reali – dovranno garantire salvaguardie contro la generazione di contenuti illegali e dovranno rendere pubbliche delle sintesi dettagliate dei dati coperti da copyright utilizzati per allenare l’algoritmo. I modelli base dell’IA, al contrario, non ‘creano,’ ma apprendono da grandi quantità di dati, li utilizzano per svolgere una vasta gamma di compiti e hanno applicazione in svariati settori. I providers di questi modelli dovranno valutare e mitigare i possibili rischi ad essi collegati (per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia, lo stato di diritto) e registrare i propri modelli nel Banca dati dell’Ue prima della loro immissione sul mercato.
Il difficile equilibrio tra regolamentazione e innovazione
Il Parlamento europeo, nella sua proposta di testo dell’AI Act, si è impegnato a trovare un equilibrio tra il bisogno di regolamentare il rapido sviluppo della tecnologia, soprattutto in termini di impatto e conseguenze sulla vita dei cittadini, e la necessità di non frenare l’innovazione, né tantomeno penalizzare aziende più piccole che potrebbero essere schiacciate da leggi troppo stringenti. Ha aggiunto quindi alcune esenzioni per le attività di ricerca e per quei componenti dell’IA forniti con licenze open source, a sostegno dell’innovazione e della collaborazione nella comunità scientifica e tecnologica. Sono stati introdotti anche i cosiddetti sandbox normativi, per testare i sistemi di IA e valutare gli aspetti legati all’etica, alla sicurezza e all’impatto sociale, prima che vengano immessi sul mercato.
Il dubbio che però circonda l’AI Act è legato al fatto che, una volta approvata, la normativa prevederà un periodo di due anni durante il quale le regole saranno applicate in modo meno stringente, per consentire alle aziende di adeguarsi. Poiché la normativa potrebbe non entrare in vigore prima del 2026, è probabile che l’Ue dovrà insistere sulla compliance volontaria delle aziende nel settore dell’IA, affinché si possano garantire sin da subito trasparenza, sicurezza e rispetto dei diritti e della privacy dei cittadini.
La “prima legge al mondo sull’Intelligenza Artificiale”
“Stiamo facendo la storia! [….] Il Parlamento europeo ha appena approvato la prima legge al mondo sull’Intelligenza Artificiale.” Così la Presidente del Parlamento europeo Roberta Metsola ha annunciato su Twitter l’approvazione dell’AI Act. L’Unione europea è infatti la prima al mondo ad aver approvato quasi in via definitiva una normativa per la regolamentazione dei sistemi di intelligenza artificiale, e ci si aspetta che altri legislatori, ad esempio statunitensi, seguano a ruota l’Europa nell’elaborare una propria normativa.
Gli Stati Uniti con l’amministrazione Trump hanno sempre mantenuto un “light touch” sulla regolamentazione dell’IA, aumentando gli investimenti in ricerca e sviluppo e tentando di assicurarne un uso sicuro ed etico. Con Biden, c’è stato un maggior focus verso l’etica e l’affidabilità dei sistemi di IA. L’Algorithm Accountability Act, che potrebbe essere l’equivalente statunitense dell’AI Act in termini di trasparenza e responsabilità dei providers, però, è ancora in fase di proposta. Con la recente riunione ministeriale Usa-Ue del Trade and Technology Council, è emersa l’intenzione di colmare il possibile vuoto legislativo sull’IA tra Europa e Stati Uniti, che potrebbe verificarsi con l’approvazione definitiva dell’AI Act europeo. Per raggiungere questo obiettivo, si sta sviluppando un codice di condotta volontario sull’IA, che una volta completato, sarà presentato ai leader del G7 come proposta transatlantica congiunta e le aziende verranno incoraggiate ad adottarlo. Mentre l’approvazione dell’Artificial Intelligence Act da parte del Parlamento europeo segna un importante passo avanti nella regolamentazione dell’IA in Europa, un codice di condotta sull’AI potrebbe risultare fondamentale per armonizzare a livello globale le pratiche aziendali legate ai sistemi di intelligenza artificiale e per garantirne un utilizzo sicuro, etico e trasparente.
Foto di copertina EPA/STEPHANIE LECOCQ