I robot killer pongono minacce gravi alla sicurezza civile e alle norme etiche

L’opinione pubblica, italiani compresi, contro i robot killer. Ma Russia, Usa, Israele e Corea del sud sono a favore

[19 Febbraio 2019]

Non esistono ancora armi letali autonome o robot militari in grado di uccidere bersagli senza alcun controllo umano, ma l’autonomia e l’intelligenza artificiale dei cosiddetti robot killer stanno aumentando rapidamente e Paesi come gli Stati Uniti, la Cina e Israele stanno investendo massicciamente nello sviluppo di sistemi di armi autonomi. A denunciarlo al recente AAAS Annual Meeting 2019 sono stati i ricercatori di  Campaign to Stop Killer Robots (CSKR) che hanno anche fatto notare che «L’utilizzo dei robot killer pone significative minacce alle norme etiche, diplomatiche e legali stabilite. Paesi, istituzioni e associazioni devono collaborare per costruire quadri normativi e affrontare la potenziale minaccia di queste macchine».

Nell’agosto del 2017, più di 100 esperti avevano firmato una lettera aperta alle Nazioni Unite, sostenendo che, dopo la polvere da sparo e le armi nucleari, i robot killer rappresentano la terza potenziale rivoluzione nella guerra. Secondo i firmatari dell’appello «I robot assassini potrebbero portare a conseguenze drastiche e negative per la stabilità politica e la sicurezza civile e devono essere vietati preventivamente».

Gli intervenuti al briefing dell’AAAS Annual Meeting 2019 hanno avanzato numerose riserve sull’atteggiamento dei principali oppositori alla messa al bando dei robot killer, e fatto domande molto scomode sullo stato attuale del progresso tecnologico nei sistemi di armi autonome e sullo stato dei riservatissimi  colloqui diplomatici su questa questione.

L’australiano Toby Walsh, che insegna intelligenza artificiale all’università del New South Wales, ha sottolineato che «Quando parliamo di robot killer stiamo parlando di tecnologie molto più semplici di “Terminator” e che nel migliore dei casi saranno disponibili tra pochi anni. Già oggi, se ne possono vedere già molte in fase di sviluppo in ogni teatro di guerra, come i droni autonomi in aria, le navi e i sottomarini in mare e i veicoli e carri armati autonomi a terra. Sebbene ci siano alcuni argomenti a favore delle armi autonome, come il fatto che potrebbero ridurre i danni collaterali nelle zone di guerra, tali argomenti non reggono a un ‘esame, e ci sono molte più valide contro-argomentazioni contro le armi autonome. Le armi autonome cambieranno la velocità e la durata della guerra e il già delicato equilibrio geopolitico tra i Paesi. Inoltre, queste armi oltrepasseranno una linea rossa, perché le macchine non hanno la capacità morale, oggi e mai, per essere in grado di prendere questo tipo di decisioni».

Mary Wareham, di Human Rights Watch, è convinta che «Il sostegno dell’opinione pubblica  e internazionale per vietare i robot killer è aumentato costantemente negli ultimi dieci anni». La Wareham, che ha lavorato per la Vietnam Veterans of America Foundation a sostegno della sua campagna internazionale per la messa al bando di mine terrestri e che ora coordina la CSKR, una coalizione internazionale di ONG di cui fanno parte anche  le italiane Unione degli scienziati per il disarmo e Rete italiana per il disarmo, spiega che «Attualmente, la nostra campagna è formata da 93 organizzazioni non governative di 53 Paesi, stiamo crescendo molto rapidamente in tutto il mondo. Il nostro obiettivo è avere un vero movimento su questo tema».

I risultati di un sondaggio Ipsos pubblicato a gennaio e commissionato dal CSKR dimostrano che l’opinione pubblica sostiene fermamente un divieto di robot killer e la Wareham ha affermato che «L’opposizione è chiaramente in aumento. Secondo i risultati del sondaggio, il 61% degli intervistati di 26 Paesi ha dichiarato di “opporsi totalmente” all’uso di robot killer in guerra, rispetto al 56% di due anni fa. Inoltre, molti partecipanti al sondaggio hanno indicato che l’uso di robot killer oltrepassa una chiara linea morale. Circa il 66% di coloro che si oppongono a robot killer ha affermato che la loro opposizione era dovuta alla convinzione che le macchine non dovrebbero essere autorizzate a uccidere e il 54% ha dichiarato di opporsi ai robot killer perché le armi diventerebbero non controllabili. L’opposizione dell’opinione pubblica è forte su tutta la linea, e questa opposizione è forte sia per gli uomini che tra  le donne, anche se gli uomini che sono più propensi a favorire questi sistemi d’arma». La maggioranza della popolazione è contraria ai “robot killer” in Cina (60%), Russia (59%), Regno Unito (54%) e Stati Uniti (52%) così come avviene anche in Italia con il 58%. Il 66% di coloro che osteggiano sistemi di armi autonome letali hanno come maggiore preoccupazione il «superamento di una barriera morale perché le macchine non dovrebbero essere autorizzate ad uccidere».  Più della metà (54%) degli oppositori ha dichiarato di essere preoccupata che tali sistemi d’arma non potrebbero rispondere a criteri di responsabilità e controllo.

Uno degli obiettivi principali del CSKR è quello di spingere i Paesi ad adottare un divieto formale e legalmente vincolante per i robot killer, ma la Wareham. Non si nasconde che i progressi fati nell’applicazione della Convenzione annuale sulle armi convenzionali (CCW) non sono stati esaltanti. Nell’ultimo meeting della convenzione a Ginevra, nel novembre 2018, El Salvador e il Marocco si sono aggiunti ai 28 Paesi che chiedono il divieto di armi completamente autonome.  Ma un piccolo e potente gruppo di Stati ha usato le regole del consenso per ostacolare un significativo progresso diplomatico su questo tema. Russia, Israele, Corea del Sud e Stati Uniti hanno dichiarato che non avrebbero sostenuto i negoziati per un nuovo Trattato. Austria, Brasile (prima che arrivasse al potere il neofascista e militarista Bolsonaro) e Cile hanno formalmente proposto la negoziazione urgente di «uno strumento giuridicamente vincolante per assicurare un significativo controllo umano sulle funzioni critiche” dei sistemi di armamento». Il prossimo ciclo di conferenze CCW si svolgerà a Ginevra dal 25 al 29 marzo.

La Wareham non usa mezzi termini: «La diplomazia ha fallito, quindi, come Campagna, stiamo concentrando i nostri sforzi a livello nazionale. Non sappiamo come andrà a finire questa storia, ma speriamo che finisca con un trattato internazionale che fornisca una guida che stigmatizza la rimozione del controllo umano. La finestra di tempo che ancora abbiamo per impedire lo sviluppo di armi completamente autonome si sta chiudendo velocemente. Questo sondaggio dimostra che l’opposizione pubblica sta aumentando e con essa l’aspettativa che i Governi agiscano in modo deciso e con urgenza per affrontare questa preoccupazione diffusa».

Una preoccupazione ben presente nell’opinione pubblica italiana che da gennaio 2017 a dicembre 2018 ha visto crescere dal 54% al 58% l’opposizione ai “robot killer”, con solo il 20% in qualche modo a sostegno di questi sistemi d’arma. Per Francesco Vignarca, coordinatore di Rete Disarmo, «E’ un dato che dovrebbe far riflettere anche il nostro Governo , che invece negli ultimi incontri internazionali si è mosso solo a ruota di altri Paesi e solo per sostenere iniziative riguardanti dichiarazioni politiche non vincolanti. E’ però giunto il momento di scelte coraggiose e di una capacità di visione politica in prospettiva che contribuisca a mettere al riparo i popoli di tutto il mondo dai rischi connessi allo sviluppo di armi capaci di scegliere obiettivi e decidere attacchi in maniera autonoma e incontrollata». I risultati del sondaggio evidenziano come il 68% degli italiani che si oppongono alle armi completamente autonome percepisce il superamento di una barriera morale (le macchine non dovrebbero poter decidere della vita e della morte di una persona), ma robuste motivazioni sono anche le possibili problematiche tecniche (43%), l’impossibilità di attribuire responsabilità (41%), l’illegalità di base di tali sistemi (33%).
Peter Asaro, un esperto di media della New School di New York che ha partecipato alla discussione all’Onu sulle armi autonome e che è co-fondatore dell’International Committee for Robot Arms Control (Icrac), un’associazione che riunisce esperti di robotica, filosofia e diritti umani. Evidenzia che «Ciò su cui abbiamo fatto pressioni è un divieto totale di alcune capacità tecniche coinvolte nelle armi autonome, ma anche un requisito più generale che tutti i sistemi di armi debbano avere: un controllo umano significativo sul targeting».

Asaro ha citato l’esempio di Project Maven , un progetto di Google e del  Pentagono per sviluppare il riconoscimento visivo automatico degli oggetti da parte dei droni. Molti dipendenti di Google hanno contattato l’Icrac e 1.400 scienziati hanno firmato una lettera per sostenere i lavoratori che non volevano partecipare a questo progetto. Dopo di questo, Google ha dichiarato che non rinnoverà il contratto dopo la scadenza nel 2019 e ha pubblicato una serie di principi etici per lo sviluppo dell’intelligenza artificiale.

Secondo Asaro, insieme queste armi autonome «potrebbero costituire un nuovo tipo di arma di distruzione di massa, nella misura in cui un piccolo gruppo potrebbe lanciare un gran numero di armi autonome con effetti devastanti sui centri abitati».

Alla CSKR dicono che i loro principali avversari sono «Diversi importanti potenze militari, come gli Stati Uniti e la Russia, che hanno bloccato le proposte diplomatiche all’Onu» e Asano ha detto che «Questi Paesi prevedono di avere vantaggi tattici militari da queste armi rispetto ai loro concorrenti. Tuttavia, i vantaggi saranno di breve durata: queste nazioni non hanno pienamente considerato come questi sistemi possano potenzialmente destabilizzare le relazioni e minare le forme di deterrenza esistenti».

Asaro conclude: «La delega ad uccidere data da un’autorità a una macchina non è giustificata ed è  una violazione dei diritti umani perché le macchine non sono agenti morali e quindi non possono essere responsabili nel prendere decisioni di vita o di morte. Quindi potrebbe essere che le persone che hanno creato l’arma autonoma saranno ritenute responsabili».