IAI
Innovazione tecnologica

Uomini e robotica: autonomi entrambi?

17 Mag 2015 - Maria Victoria Messeri - Maria Victoria Messeri

Dal 13 al 17 aprile Ginevra ha ospitato la seconda riunione di esperti su uno degli argomenti più discussi del momento: le armi autonome, ovvero i Lethal Autonomous Weapon Systems (Laws). L’evento, organizzato nell’ambito della Convention on Certain Conventional Weapons (Ccw), ha registrato una forte partecipazione diplomatica, di Ong e istituti di ricerca.

Questi quattro giorni, suddivisi per tema, sono stati dedicati alla ricerca di una definizione più chiara dei concetti cardine di un’arma che, a parere degli esperti di taluni Stati, è attualmente allo stadio embrionale. Quattro grandi filoni tematici sono stati messi in luce da diverse prospettive: quella tecnica, giuridica, etica e, infine, le implicazioni per la sicurezza internazionale e regionale.

Gradi di automatizzazione
Da un punto di vista tecnico, il dibattito sulle armi autonome ha cercato di evidenziare la differenza fra “automaticità” e “autonomia”. I termini automation e autonomy sono stati analizzati e distinti: il primo è relativo a un sistema d’arma munito di alcuni componenti operanti in autonomia, ossia un sistema parzialmente autonomo quale il drone; il secondo esaspera tali caratteristiche con un sistema totalmente autonomo, in cui il controllo umano è concettualmente assente e la macchina stessa svolgerebbe funzioni di auto-apprendimento, ri-programmandosi secondo l’ambiente in cui opera.

Il dibattito tra le delegazioni ha cercato di esaminare progressivamente il grado di coinvolgimento umano auspicato nei sistemi autonomi. In relazione ai diversi gradi di autonomy sono stati approfonditi tre concetti chiave.

Il primo concetto, human-in-the-loop, differenzia i droni dalle armi autonome; gli altri due, human-on-the-loope human-out-of-the-loop, propri delle armi “autonome”, differenziano il grado di supervisione umana nello svolgimento delle funzioni del sistema robotico.

On-the-loop permetterebbe l’intervento umano in tempo reale, sostituendosi alle funzioni automatiche del robot qualora fosse necessario, pur consentendo a quest’ultimo di conservare alcune funzioni indipendenti. Out-of-the-loop, invece, leverebbe all’uomo qualsiasi capacità d’intervento sulla programmazione del robot.

Come è intuibile, conservare o meno un certo potere d’intervento da parte dell’uomo su questi sistemi costituisce oggetto di approfondite e controverse discussioni che coinvolgono il concetto stesso e la misura del controllo umano.

Ius in bello ed etica: il dibattito continua
L’introduzione di un’arma dalle caratteristiche così definite pone diverse sfide allo scenario esistente, sia sotto il profilo etico sia sotto quello giuridico. Ad esempio: è giusto affidare decisioni di vita o di morte a una macchina?, e in caso di errore, su chi ricadrebbe la responsabilità? L’attribuzione della responsabilità all’interno della cosiddetta catena di comando risulterebbe più difficoltosa.

L’assenza di una consapevole valutazione dell’uomo solleva perplessità sull’effettiva applicazione dei principi di distinzione, proporzionalità e precauzione – requisiti base dello ius in bello -, incertezze alle quali una verifica di compatibilità con le norme del diritto internazionale potrebbe dare le necessarie risposte.

Se le delegazioni più propense allo sviluppo di questi sistemi d’arma hanno sostenuto che vi sarebbe compatibilità, quelle più critiche, al contrario, hanno invocato che la tutela predisposta dalle regole dei conflitti non potrebbe essere rispettata.

La presunta inidoneità di una macchina ad applicare criteri di tipo etico, quale l’esercizio della forza su un uomo nel rispetto della sua dignità, ha determinato l’assunzione di una diversa gamma di posizioni contrarie allo sviluppo dei Laws.

Tecnologia destabilizzante o deterrente?
Adottando un approccio prettamente ‘realista’ alle relazioni internazionali, la prima implicazione di sicurezza internazionale indica che, non appena uno Stato sviluppa una nuova arma, altri Stati cercano di compensare questo squilibrio strategico, eguagliando o superando il vantaggio acquisito dal primo Stato. Seguendo questa logica, una corsa agli armamenti, una proliferazione orizzontale e verticale, sarebbero conseguenze inevitabili.

Per quanto riguarda le considerazioni di sicurezza regionale potrebbero ravvisarsi due scenari. Nel primo, le armi autonome potrebbero esacerbare i conflitti esistenti perché in fase di sviluppo e progettazione da parte dei paesi del “Nord del Mondo”. Siffatta asimmetria tra i “Due Mondi” potrebbe creare un ‘dilemma della sicurezza’ ed un più facile ricorso ad armi di classe superiore, quali le armi di distruzioni di massa.

Nel secondo caso, viceversa, potrebbe prevalere la teoria della deterrenza: il timore di entrare in conflitto con un avversario tanto più potente, che non rischierebbe di perdere uomini al fronte, aumenterebbe l’incentivo a ricorrere ad altri mezzi di negoziato, relegando la guerra ad ultima risorsa.

Inoltre, al di là dei possibili scenari fra gli Stati finora analizzati, una delle problematiche maggiormente discusse ha riguardato l’impatto di tale arma sugli attori non-statali in caso di appropriazione di tale tecnologia da parte loro e sulle loro capacità di modificare i dati di programmazione altrui, con le immaginabili catastrofiche conseguenze.

Tra le ripercussioni secondarie di un eventuale schieramento dei Laws sul campo di battaglia, vi è il rischio di prolungare i conflitti armati oltre i tempi necessari a neutralizzare il nemico. Sostituire i soldati al fronte con le macchine renderebbe la decisione politica di entrare in guerra, e la sua eventuale estensione nel tempo, meno onerosa.

Le conclusioni raggiunte a Ginevra sulla definizione delle caratteristiche essenziali dei Laws non hanno prodotto consenso tra le delegazioni.

Tuttavia, si è trovata un’intesa riguardo l’importanza di proseguire l’anno prossimo il dibattito sul tema e, nonostante le divergenze sulla tipologia dei prossimi incontri, alcune delegazioni hanno proposto l’adozione di una prassi formale (attraverso il Group of Governmental Experts), mentre altre hanno promosso una continuazione informale, analoga alla suddetta. Il verdetto sulla modalità del prossimo incontro sarà emesso a novembre, al meeting degli Stati contraenti la Ccw.

.