Potenzialità e limiti dell’intelligenza artificiale nelle attività di intelligence

Gli ultimi anni hanno visto un’esplosione della visibilità e delle aspettative attorno agli strumenti di intelligenza artificiale (AI). Queste aspettative, spesso inflazionate al punto di essere state definite “una bolla”, hanno raggiunto e influenzato molti settori, da quello delle imprese a quello dei servizi di sicurezza. In quest’ultimo ambito, l’AI promette di diradare il “rumore di fondo” prodotto dal costante flusso di dati generati online, e trovare “l’ago nel pagliaio”, cioè le poche informazioni importanti nella confusione di quelle disponibili.

Le promesse dell’AI…

Si tratta di promesse ambiziose e invitanti: in un’era in cui la quantità di dati prodotti globalmente raddoppia ogni due anni, la sfida degli apparati di sicurezza diventa sempre più la selezione delle informazioni rilevanti dal cosiddetto “data smog”, piuttosto che la loro mera raccolta e analisi; l’AI può effettuare tale selezione a velocità inimmaginabili per degli umani. Anche i costi dello sviluppo di sistemi di AI – da svolgersi preferibilmente in-house, per non creare dipendenze e vulnerabilità – sono relativamente contenuti, perlomeno se comparati ai costi per il personale necessario a svolgere gli stessi compiti. La versatilità di questi strumenti, inoltre, rende le loro possibili applicazioni quasi illimitate: dalla visione artificiale al riconoscimento vocale, dal tracciamento dei finanziamenti delle organizzazioni terroristiche all’automazione dell’analisi. Questi fattori conducono molti a ritenere necessaria l’adozione di queste tecnologie nel lavoro di intelligence.

…e i suoi limiti

Tuttavia, i limiti di questi sistemi sono numerosi, e spesso meno noti. In primo luogo, vi è l’explainability dei sistemi di AI: poiché le macchine possono elaborare dati in quantità e velocità molto superiori a quelle umane, i processi utilizzati per generare l’output sono spesso incomprensibili per le persone. I processi decisionali avvengono dentro “scatole nere”, e ciò implica che seguire un’indicazione fornita dall’AI equivale di fatto a un atto di fede verso la macchina. Tale fede è spesso supportata dall’automation bias, cioè la sensazione che le indicazioni fornite dalle macchine siano più accurate e affidabili di quelle fornite da umani. Che fare, dunque, in presenza di divergenze tra le indicazioni prodotte dalla macchina e le analisi e intuizioni di funzionari e analisti d’esperienza? Nel rispondere a questa domanda, è bene ricordare che l’output della macchina, lungi dall’essere oggettivo, è il frutto di una rielaborazione dei dati di input, contenenti tutti i pregiudizi e i bias tipicamente umani.

I limiti trattati finora sono tipici di tutte le applicazioni dell’AI; vi sono, poi, dei problemi specifici del loro utilizzo in attività d’intelligence. Il primo è un dilemma riguardante lo sviluppo di questi sistemi: le agenzie d’intelligence possono utilizzare prodotti già esistenti, esponendosi ai rischi derivanti dall’affidare informazioni sensibili a sistemi non proprietari, oppure svilupparli internamente, esponendosi questa volta ai rischi di leaks e whistleblowing associati al reclutare gli esperti necessari dall’esterno – una sfida spesso inevitabile, poiché i programmatori più esperti tendono a preferire il più remunerativo settore privato.

In secondo luogo, l’uso di sistemi automatici pone delle sfide nello svolgimento di operazioni all’estero. Com’è noto dalla letteratura sull’uso di droni nelle operazioni di controterrorismo, un approccio precipuamente tecnologico a tali attività rischia di alienare il consenso della popolazione civile, creando un terreno fertile per l’azione delle organizzazioni terroristiche. In terzo luogo, molti dei compiti cruciali dell’intelligence continuano a riguardare la componente umana di questa attività, o human intelligence. Come spiegato da funzionari d’esperienza, il successo di attività come il reclutamento di asset (persone in grado di fornire informazioni di valore) e il mantenimento dei contatti con essi si basa ancora molto sulle capacità relazionali di chi lavora sul campo, oltrechè su abilità tecniche e nuove tecnologie. Investire eccessivamente su strumenti tecnologici all’avanguardia apparentemente promettenti rischia di sottrarre risorse alla tradizionale, lenta, costosa ma indispensabile costruzione di network umani e personali nei contesti d’interesse.

Consapevolezza e pragmatismo

I limiti esposti non costituiscono, naturalmente, un motivo per rigettare l’innovazione tecnologica e ignorare la rivoluzione dell’AI. Al contrario, la consapevolezza di questi limiti è utile per avere una percezione più realistica di queste tecnologie, per diffidare delle promesse eccessive con cui vengono promosse, e, in generale, per poterle utilizzare meglio. Per quanto performanti e innovativi, l’AI e i Big Data su cui si basa sono strumenti come altri, con grandi potenzialità e significativi limiti. La sfida per gli apparati di sicurezza nell’era dell’AI non sta solo nel comprendere come utilizzare al meglio questi strumenti, ma anche nel mantenere la consapevolezza che la più importante forma di intelligence rimane l’intelligenza umana.

Ultime pubblicazioni