Intelligenza artificiale: dall’Ue un approccio basato sul rischio
L’Europa vuole diventare il primo continente al mondo con delle regole chiare sull’intelligenza artificiale (IA). Questa settimana a Bruxelles la Commissione ha presentato un nuovo pacchetto legislativo che vuole porre le basi per un’intelligenza artificiale “sicura, affidabile e incentrata sugli esseri umani” (come anticipato da Paola Severino su questa rivista nei giorni scorsi) e, al contempo, sostenere l’innovazione e lo sviluppo di nuove tecnologie d’eccellenza in Europa.
L’obiettivo è garantire una capillare diffusione di un’intelligenza artificiale regolamentata in tutta Europa, perché quando c’è “porta enormi benefici: salva vite, aiuta gli agricoltori a ottimizzare le risorse, o gli ingegneri che ricostruiscono Notre Dame. È una forza per il progresso; ma per renderlo possibile occorre creare fiducia”, ha spiegato la vicepresidente esecutiva della Commissione Margrethe Vestager, responsabile del digitale. Le aziende che non si adegueranno alle nuove regole previste dal regolamento Ue potranno incorrere in sanzioni fino al 6% del fatturato. Ciascuno Stato dovrà individuare l’autorità preposta al controllo.
Prevenire i rischi
Il pacchetto non tratta l’intelligenza artificiale come una tecnologia a sé, ma guarda al modo in cui viene utilizzata. Per questo, Bruxelles propone un approccio basato sul rischio, individuando quattro categorie, classificate “a piramide”, in ordine crescente di minaccia, e anche una lista di esempi contenuta in un allegato: maggiore è il pericolo che un uso specifico dell’intelligenza artificiale può generare, più stringente sarà la regolamentazione.
“Le nuove norme interverranno solo quando sono in gioco la sicurezza e i diritti fondamentali”. Insomma, via libera ai filtri antispam nelle email (rischio minimo) e ai chatbot online, interfaccia di dialogo automatizzato sui siti web (purché all’utente sia chiaro che ha a che fare con una macchina); maggiori problemi sorgono con i sistemi di IA che vengono usati per l’esame dei CV nella selezione del personale o per l’ammissione all’università, per cui si prevedono obblighi precisi tra cui la supervisione umana. Vietate, invece, le tecnologie che possono aprire la strada a scenari da Grande Fratello di sorveglianza di massa, come l’identificazione biometrica da remoto in spazi pubblici, che può essere autorizzata solo in casi limite, come la ricerca di un minore disperso.
Una scommessa globale
La scommessa per l’Ue è anche globale: Bruxelles, che ha cominciato il lavoro sull’intelligenza artificiale ormai tre anni fa, punta a fare da capofila nello sviluppo di nuovi standard internazionali sull’IA. Per Vestager, “l’Europa non ha avuto un ruolo leader nella prima ondata della digitalizzazione, ma ha tutte le carte in regola per guidare la prossima, che si gioca sui dati industriali”.
Il testo arriva adesso arriva sul tavolo di Parlamento europeo e Consiglio per l’inizio dell’iter legislativo.