Il drone Bayraktar TB2, di produzione turca, ampiamente utilizzato in Ucraina e anche in altri teatri di guerra, come quello curdo-turco, in Libia, in Siria e nel conflitto del 2020 del Nagorno-Karabakh, impiegato dall’Azerbaigian contro l’Armenia. Foto: ©Bayhaluk
La guerra in Ucraina ha riportato all’ordine del giorno l’utilizzo delle armi disumane, tra cui quelle robotiche. Il rischio è, oltre che di uccidere, di togliere ogni dignità all’uomo nel momento in cui è un sistema automatizzato a decidere di sparare.
di Alessandro Vella
La terribile guerra in Ucraina, scoppiata lo scorso 24 febbraio con l’invasione della Russia lungo quattro diverse direttrici, è una sciagura che ha scosso tutte le nostre coscienze e che porterà su tutta l’Europa, che lo vogliamo o no, un periodo di grandi difficoltà economiche. Ma soprattutto ha portato nelle nostre case immagini devastanti di morte, non quella finta dei film, ma quella vera provocata da macchine costruite dagli uomini per uccidere altri uomini.
Quella dell’Ucraina non è stata una guerra altamente tecnologica. Di quando in quando i russi hanno fatto sfoggio di armi avanzatissime, come i missili ipersonici Kinzhal, in grado di raggiungere velocità vicine ai 12.000 km/h. Ma la maggior parte degli armamenti visti in campo è datata. I carri armati T-72 e T-80, che costituiscono il grosso dell’armamento corazzato russo e ucraino, sono stati concepiti negli anni Sessanta e, per quanto vengano periodicamente aggiornati, non possono essere certo considerati gli ultimi ritrovati della tecnologia.
Droni Kargu2, di produzione turca, pronti per l’impiego. Si utilizzano in sciami e sono governati da un sistema di intelligenza artificiale che ne consente il volo anche in caso di interferenze elettroniche sul sistema Gps e sulle trasmissioni radio.
IL TERRIBILE BAYRAKTAR
Molto si è parlato, nei primi giorni di guerra, dell’efficacia dei droni di produzione turca Bayraktar TB2, a causa di eloquenti video postati dagli ucraini sui social media che mostrano la distruzione di mezzi grazie ai missili di cui il velivolo è dotato. Il drone possiede anche, dice il produttore, sistemi di intelligenza artificiale che lo assistono nelle fasi di decollo e di atterraggio e anche nella definizione della rotta quando il volo viene effettuato senza l’ausilio del Gps, che può essere disattivato per impedire la localizzazione dell’arma con strumenti di “electronic warfare”.
L’impiego dei Bayraktar ci porta, però, a un altro tema ampiamente dibattuto quando si parla di armamenti, quello dell’utilizzo di tecnologie robotiche o di intelligenza artificiale.
Il Viking è un UGV (Unmanned Ground Vehicle) sviluppato dalla britannica Mira. È un veicolo senza equipaggio, concepito per la sorveglianza, il rifornimento o per costituire piattaforme armate controllate da remoto.
LA CORSA AI ROBOT DA GUERRA
Si sa che in molti paesi si stanno sviluppando armi di questo tipo. Stati Uniti, Russia, Israele e Turchia sembrano tra i più attivi, ma sicuramente ogni produttore di armi da guerra sta pensando a questa evoluzione tecnologica. Sono molti i prototipi già visti in fotografia non soltanto di droni, ma anche di mezzi cingolati o su ruote totalmente robotizzati, sistemi missilistici e batterie di artiglieria, come quelle sviluppate da Samsung per la Corea del Sud e utilizzate per controllare la frontiera con la Corea del Nord. Non vi è certezza che armi robotiche siano già state impiegate in situazioni operative, ma un rapporto delle Nazioni Unite riferisce di un attacco aereo condotto nella primavera del 2020 in Libia, con droni turchi STM Kargu-2, in cui non ci sarebbe stato controllo umano. I droni STM Kargu-2 sembrano innocenti quadricotteri del peso di 7 kg. Volano in stormi, portano sul loro dorso una bomba e sono dotati di un sistema di riconoscimento facciale per mirare obiettivi umani. Possono anche volare in autonomia se i sistemi Gps o radio vengono bloccati. Insomma, sono quello che gli esperti di armi definiscono “slaugherbot”, robot macellai o da strage. Macchine che sollevano un enorme problema etico.
IL PROBLEMA ETICO
Contro le armi autonome da tempo operano nel mondo organizzazioni che si oppongono al loro utilizzo e ne chiedono a gran voce il bando. Una tra le più rappresentative è Stop the Killer Robots, partita anni fa come una campagna per la sensibilizzazione delle coscienze e poi diventata una “sovraorganizzazione” a cui aderiscono diverse ong di tutto il mondo. Nel suo sito i suoi fondatori spiegano quali sono i loro timori. “Dalle case intelligenti alle pubblicità mirate, fino all’uso dei cani robotici da parte della polizia, le tecnologie dell’intelligenza artificiale e i sistemi di decisione automatizzati stanno giocando un ruolo sempre più decisivo nelle nostre vite. La tecnologia può essere sorprendente. Ma solo perché possiamo costruire qualche cosa non vuol dire che dobbiamo farlo. Ci sono già troppe macchine in circolazione, con vari livelli di autonomia, che sono introdotte sul mercato senza pensare alle conseguenze a cui potrebbe portare un loro uso diffuso e indiscriminato”.
In particolare, i promotori di Stop the Killer Robots sono preoccupati dalle tecnologie che riducono le persone “a semplici dati. Le nostre identità complesse, le nostre sembianze fisiche e i nostri schemi di comportamento vengono analizzati, abbinati a schemi di comportamento e inseriti all’interno di categorie, per consentire alle macchine di prendere decisioni su di noi in accordo con i profili pre-programmati in cui veniamo inseriti”.
Se si spinge questo tipo di utilizzo all’estremo, dicono quelli di Stop the Killer Robots, arriviamo alle armi, “a sistemi che possono selezionare e attaccare bersagli in autonomia. Questo vuol dire che nell’uso della forza noi abbiamo meno controllo umano su quello che sta succedendo e sui motivi che lo stanno determinando. Significa che siamo sempre più vicini al punto di affidare alle macchine la decisione di chi uccidere e di che cosa distruggere. E per le macchine non c’è alcuna differenza tra un chi e un che cosa”.
Il problema sollevato da Stop the Killer Robots inizia sui campi di battaglia, ma esce anche al di fuori dei loro confini e interessa tutto il nostro vivere civile. “Con l’aumento dell’automazione”, temono i responsabili del gruppo, “queste macchine non saranno limitate ai campi di battaglia. Non c’è alcun dubbio che saranno impiegate anche nei controlli di frontiera, dalla polizia e in altre aree della società dove dovrebbe essere invece presente un controllo razionale e motivato”.
Robot dotati di armi potrebbero presto entrare in uso anche con funzioni di polizia e di deterrenza.
IN MANO AGLI AUTOCRATI
Il pericolo di una diffusione di questo tipo è grande, soprattutto se si pensa a un altro aspetto. “Si tende a ritenere”, ci spiega un esperto italiano di armamenti, “che armi come i droni utilizzati in battaglia siano strumenti altamente tecnologici. In realtà non lo sono. Sono molto meno sofisticati e costosi di un aereo da combattimento e hanno il vantaggio di non avere un pilota. Pertanto, sono spendibili, possono essere sacrificati nello scenario di guerra. La loro diffusione finirà per democratizzare la guerra, consentire anche a paesi che non hanno grandi mezzi finanziari di dotarsi di questi strumenti e di utilizzarli”. Impiegati da paesi autocratici, dove non ci si preoccupa come in quelli democratici dell’impatto sull’opinione pubblica di atti criminali come l’attacco a una scuola o a un ospedale, strumenti di questo tipo possono davvero favorire l’adozione di strategie belliche e tattiche di combattimento mostruose e disumanizzanti, in cui alle macchine viene affidato il compito di uccidere chiunque, anche la popolazione civile, pur di esercitare un ricatto sul nemico e spingerlo alla resa. È la strategia che abbiamo visto attuata dai russi in Ucraina quando quella che doveva essere un’operazione militare di pochi giorni si è trasformata in un conflitto di logoramento.
CONVENZIONI INTERNAZIONALI
A livello internazionale da anni si dibatte sull’impiego delle armi robotiche. Lo scorso dicembre a Ginevra, in occasione della conferenza della CCW, la Convenzione su Certe Armi Convenzionali da alcuni chiamata Convenzione sulle armi disumane, la maggioranza delle 125 nazioni aderenti hanno confermato la volontà di limitare la loro diffusione. Ma questo non ha portato alla firma di un documento congiunto o all’assunzione di provvedimenti concreti per l’opposizione di alcuni paesi, tra cui Stati Uniti e Russia. Coloro che sviluppano queste armi lo fanno perché il loro utilizzo consente di risparmiare perdite tra i soldati. Nelle immagini e nei video provenienti dall’Ucraina si sono viste molte situazioni in cui carri armati o altri mezzi sono esplosi su mine. Questo, per esempio, è uno dei motivi per cui molti paesi stanno sviluppando mezzi autonomi da inviare in avanscoperta, per ripulire i percorsi e non rischiare soldati.
Immagine ricreata a computer di un UAV, drone militare, armato di missili per funzioni anticarro e di attacco.
PROGETTI OVUNQUE
I russi sostanzialmente si oppongono perché chiedono decisioni unanimi in seno alla conferenza, della quale comunque già disconoscono alcune indicazioni come l’impiego di bombe a grappolo o di missili termobarici, ampiamente impiegati in Ucraina. Di fatto richiedere l’unanimità dei consensi su una risoluzione significa rendere impossibile qualsiasi accordo. Gli Stati Uniti invece sostengono che le leggi internazionali sono già più che sufficienti per regolare l’uso delle armi e che impedire ora lo sviluppo di sistemi robotici è prematuro. Gli americani stanno investendo pesantemente nell’intelligenza artificiale applicata alla guerra, in progetti che vedono coinvolti grandi gruppi dell’industria della difesa, come Lockheed Martin, Boeing, Raytheon e Northrop Grumman. Tra i progetti in corso, evidenzia il New York Times in un articolo pubblicato lo scorso 17 dicembre, figurano missili a lungo raggio che individuano il movimento dei bersagli con sistemi basati sulle frequenze radio, sciami di droni che possono identificare e attaccare un obiettivo, sistemi automatizzati di difesa antimissile. Una costellazione di soluzioni che rende difficile arrivare a una regolamentazione onnicomprensiva e chiara, come è accaduto invece per le armi nucleari o per le mine antiuomo.
UNA CORSA FOLLE
Secondo Maaike Verbrueggen, esperto in tecnologie per la sicurezza militare al Centre for Security, Diplomacy and Strategy di Bruxelles, “l’assenza di trasparenza su quello che i vari paesi stanno progettando e costruendo ha generato timori e preoccupazioni tra i leader militari, che quindi sollecitano progetti di armi robotiche. È molto difficile capire che cosa sta facendo un altro paese, stiamo vivendo in un momento di grande incertezza e questo sta spingendo le innovazioni in campo militare”. Gli eventi della guerra in Ucraina, l’atteggiamento fortemente bellicoso e minaccioso della Russia non faranno altro che spingere ulteriormente questo trend come, purtroppo, abbiamo già visto. Molti governi europei, appena iniziata l’invasione dell’Ucraina, hanno annunciato consistenti incrementi dei loro investimenti in armi. La Germania, addirittura, ha stanziato 100 miliardi di euro in spese militari, un budget quasi doppio di quello annuo della Russia, che ammonta a 62 miliardi di dollari. Tutto questo ci fa capire come la corsa alle armi autonome sia già ampiamente partita nel mondo, e nessuno ha davvero intenzione di fermarla. ©WE ROBOTS
Sistemi robotici governati a distanza sono già utilizzati dai reparti di artificieri di molti paesi del mondo per disattivare cariche esplosive, bombe inesplose o mine.