
Cosa sono i sistemi di arma autonomi
E perché una campagna internazionale si sta battendo per vietarli
La guerra in Ucraina e quella nella Striscia di Gaza hanno fatto tornare d’attualità il dibattito pubblico sulle esportazioni di armi verso paesi in conflitto, ma anche sui piani di riarmo prospettati da molti paesi, compresi quelli europei. A queste preoccupazioni più generali sulla proliferazione degli armamenti si uniscono però anche quelle legate allo sviluppo e all’impiego di nuovi tipi di armi che utilizzano le tecnologie più recenti, come ad esempio quelle che sfruttano l’intelligenza artificiale.
Sono chiamati “sistemi di arma autonomi” (in inglese AWS, Autonomous Weapon Systems) e la loro caratteristica principale, nonché la differenza con le armi tradizionali, è che identificano, selezionano e attaccano un bersaglio senza un intervento umano diretto. Si tratta di sistemi bellici diversi da quelli a “guida remota” (come ad esempio i droni pilotati a distanza da un operatore), perché per quanto riguarda questo tipo di armamenti la decisione finale di colpire l’obiettivo è sempre presa da un essere umano, mentre per gli AWS a farlo è un software installato sulla macchina.
Alcuni esempi di questi sistemi di arma sono: le loitering munitions (chiamate anche “munizioni kamikaze”), piccoli droni che stazionano in aria per lunghi periodi, individuano un bersaglio e decidono di colpirlo; le torrette autonome, postazioni fisse che integrano sensori, tracciamento e in alcuni casi capacità di sparare in modo automatico in base a certe regole di ingaggio preimpostate; i veicoli terrestri armati (UGV), utilizzati per ricognizione, sorveglianza e talvolta per l’identificazione di obiettivi. Sono considerati sistemi di arma autonomi anche quelli di tipo difensivo che rilevano, classificano e possono neutralizzare droni usando criteri automatici di identificazione e ingaggio.
L’utilizzo di questo tipo di armi pone però una serie di problemi etici, giuridici e tecnici. Ad esempio dal punto di vista etico si discute se sia corretto delegare a una macchina l’uso autonomo della forza, e se facendolo non si disumanizzino e contemporaneamente si deresponsabilizzino le operazioni militari, comprese quelle dove le persone vengono uccise. In materia giuridica il problema principale è la difficile applicazione delle regolamentazioni previste dai trattati internazionali che tutelano le vittime delle guerre (come le Convenzioni di Ginevra): soprattutto per quanto riguarda la proporzionalità dell’uso della forza e la distinzione fra civili e militari. Queste armi possono inoltre commettere errori tecnici e quindi per un malfunzionamento causare vittime civili o escalation involontarie dei conflitti.
Diverse istituzioni si stanno così battendo per una nuova regolamentazione internazionale di questi sistemi di arma autonomi. Come Etica Sgr, società di gestione del risparmio del gruppo Banca Etica, da sempre impegnata nella promozione di un’economia responsabile e sostenibile, che esclude da sempre dai propri fondi di investimento le imprese legate alla produzione, all’utilizzo, alla manutenzione, alla distribuzione e allo stoccaggio di armi convenzionali e di armi controverse o di loro parti chiave, come mine antiuomo, bombe a grappolo e armi nucleari.
Per Etica Sgr è importante comprendere le gravi implicazioni umanitarie delle armi autonome, e delle applicazioni militari dell’intelligenza artificiale nel prossimo futuro: per questo vuole sensibilizzare l’opinione pubblica e gli investitori sul tema degli AWS e più in generale sull’importanza di contrastare gli effetti devastanti delle armi sulle persone e sulle economie locali, scegliendo quindi di investire nel rispetto dei diritti umani e dell’ambiente.
Etica Sgr ha così aderito a Stop Killer Robots, una coalizione internazionale attiva in oltre 70 paesi e che raccoglie 270 organizzazioni. Nata nell’ottobre 2012 e lanciata pubblicamente nel 2013, ha di recente intensificato il suo impegno conseguentemente ai rapidi sviluppi tecnologici dei sistemi di AI. Etica Sgr insieme a Stop Killer Robots richiede agli investitori istituzionali la definizione di una regolamentazione internazionale che vieti lo sviluppo e l’impiego di armi autonome e garantisca un controllo umano significativo in tutte le decisioni sull’uso della forza.
Secondo Etica SGR, nell’attuale contesto finanziario, una regolamentazione internazionale è necessaria anche per ridurre l’incertezza e mitigare i rischi di mercato, soprattutto per chi vuole investire in un lungo periodo ed è contemporaneamente sensibile ai principi di sostenibilità ambientale e sociale. Etica SGR e Stop Killer Robots hanno così invitato gli investitori istituzionali a sottoscrivere l’Investor Statementl’Investor Statement: si tratta di una dichiarazione che invita i governi di tutto il mondo ad avviare negoziati per una nuova norma giuridicamente vincolante su questo tipo di armi.
L’appello richiede l’introduzione di un trattato che vieti lo sviluppo e l’impiego di armi autonome destinate a colpire esseri umani. Inoltre si chiede la proibizione di quei sistemi di arma autonomi che non consentono un controllo umano significativo in tutte le decisioni relative all’uso della forza: in particolare, ad esempio, quelli in cui la posizione o la durata del funzionamento non possono essere limitate o quelli i cui “parametri di missione” potrebbero cambiare durante un’operazione senza l’approvazione umana.
Immagine di copertina: ©Etica SGR
