Killer robots: futuro prossimo?

Gli Stati Uniti insieme a Cina, Israele, Corea del Sud, Russia e Regno Unito stanno sviluppando sistemi di armi autonome letali (Lethal Autonomous Weapon Systems – LAWS), cioè armi in grado di selezionare un obiettivo e attaccarlo senza alcun intervento umano. Il timore è che, mano a mano che il ruolo umano diminuisce, le macchine finiranno per prendere “decisioni letali” in totale autonomia.

I droni armati sono un esempio di questa tendenza.
Infatti, anche se per ora sono gestiti da una mano umana che prende lei tutte le decisioni, la preoccupazione è che si arrivi all’adozione di armi completamente autonome, e che si possa oltrepassare la linea morale consentendo alle macchine di decidere di eliminare una vita umana sul campo di battaglia o in qualche operazione di polizia o durante un controllo alle frontiere o in altre circostanze simili.
Preoccupa, cioè, la possibilità di perderne il controllo!

Nella settimana dal 13 al 17 novembre di quest’anno (il 2017, N.d.A.), molti Stati si sono riuniti a Ginevra, alla Convenzione sulle armi convenzionali (CCW – Convention on Conventional Weapons) presso l’ONU, per discutere delle armi autonome letali, note anche col nome di “robot assassini”.
Dall’ultima riunione del CCW sulla questione, nell’aprile 2016, le preoccupazioni su queste armi del futuro sono aumentate, mentre si sono moltiplicate le domande sul fatto che la CCW possa davvero affrontare adeguatamente questa sfida urgente in modo tempestivo e decisivo. Negli ultimi mesi, centinaia di esperti di intelligenza artificiale e di robotica di tutto il mondo hanno chiesto un’azione più rapida e più forte da parte degli stati membri della CCW per prevenire lo sviluppo dei sistemi di armi autonome letali, e hanno designato Australia e Canada a guidare gli sforzi per definire un trattato internazionale per vietare questi sistemi d’arma.

Sebbene le capacità di sviluppo della tecnologia futura siano incerte, vi sono forti motivi per ritenere che armi completamente autonome non possano mai replicare l’intera gamma di caratteristiche intrinsecamente umane necessarie per conformarsi alle regole fondamentali di distinzione[1] e proporzionalità[2] del Diritto Internazionale Umanitario.

Inoltre, è ovvio come queste armi potenzialmente abbiano la possibilità di commettere atti illeciti per i quali nessuno potrebbe essere ritenuto responsabile. I meccanismi esistenti in tema di responsabilità legale, infatti, sono inadeguati per affrontare i danni collaterali che le armi pienamente autonome potrebbero causare. Non si può processare un algoritmo.

L’uso delle armi completamente autonome potrebbe rendere i conflitti armati fuori controllo in quanto, una volta rese operative, la loro azione potrebbe non essere più modificabile.
Questo le differenzia dai droni, ad esempio.

Se da un lato, le armi completamente autonome potrebbero creare un vantaggio militare immediato per alcuni stati, dall’altro si deve riconoscere che tali benefici sarebbero di breve durata perché il loro prezzo è destinato a scendere negli anni (non necessitano di materiali costosi) e non passerà molto che compariranno al mercato nero. In definitiva, la loro proliferazione non giustificherebbe i costi finanziari e umani sostenuti.

Per queste e altre ragioni, nell’aprile 2013 è nata la campagna “Stop the Killer Robots” per lavorare a un divieto preventivo sullo sviluppo, la produzione e l’uso di sistemi d’arma che, una volta attivati, selezionerebbero e sparerebbero sui loro obiettivi senza alcun controllo umano significativo.  Da quel momento, 19 Paesi hanno approvato la richiesta di vietare le armi completamente autonome. Decine di Stati hanno affermato l’importanza di mantenere un controllo umano significativo, appropriato o adeguato sulle funzioni di combattimento critiche dei sistemi d’arma. La Campagna per fermare i robot assassini incoraggia tutti gli stati ad approvare la richiesta di un divieto o, almeno, a chiarire la loro posizione sull’invito a metterle al bando (vedi QUI).

Nonostante ciò, la nostra campagna è disattesa dalle proposte deboli e poco ambiziose che alcuni stati stanno considerando di elaborare per la CCW. Queste includono dichiarazioni politiche non vincolanti, sforzi per garantire una maggiore trasparenza e l’identificazione delle migliori pratiche per le revisioni richieste ai sensi dell’articolo 36 del I Protocollo aggiuntivo alle Convenzioni di Ginevra[3].
Le revisioni non sono sufficienti per affrontare le numerose sfide poste dalle armi completamente autonome.
Un divieto assoluto sulle armi completamente autonome, invece, ridurrebbe la possibilità dell’uso improprio, sarebbe più facile da applicare, migliorerebbe lo stigma associato alle violazioni creando una norma ampiamente riconosciuta e influenzando anche coloro che non aderiscono al trattato.

In queste riunioni della CCW, la campagna “Stop the Killer Robots” sollecita gli Stati a riconoscere la necessità di una regolamentazione internazionale per affrontare il problema dei sistemi d’arma autonomi e a elaborare una loro posizione sull’invito a proibire sistemi che manchino di un controllo umano significativo, a concentrarsi specificamente su sistemi di armi autonomi letali piuttosto che su questioni più ampie relative all’intelligenza artificiale. Dopo tre anni di discorsi informali, la nostra campagna crede fermamente che sia tempo per gli Stati di impegnarsi a negoziare e adottare uno strumento internazionale legalmente vincolante che vieti lo sviluppo, la produzione e l’uso di armi completamente autonome.
Se ciò non è possibile sotto gli auspici della CCW, siamo pronti a lavorare con gli Stati interessati a esplorare tutti i possibili meccanismi per vietare immediatamente armi completamente autonome.

È tempo di andare oltre le parole e perseguire l’esercizio di un divieto preventivo. Il  futuro della nostra umanità dipende da questo.

Mary WarehamDirettore dell’advocacy, settore armi, presso Human Rights Watch e coordinatrice della campagna “Stop the Killer Robots”

Video Autonomousweapons.org

Tratto da: “L’urgente necessità di mantenere il controllo umano sui sistemi d’arma” –  di Mary Wareham, traduzione e adattamento Simona Tarzia
© riproduzione riservata

Note:

[1] “Al fine di garantire il rispetto e la protezione della popolazione civile e dei beni di carattere civile, le Parti in conflitto devono sempre distinguere tra popolazione civile e i combattenti e tra beni civili e obiettivi militari e di conseguenza dirigere le loro operazioni solo contro obiettivi militari “ – I protocollo addizionale alle convenzioni di Ginevra del 12 agosto 1949, relativo alla protezione delle vittime dei conflitti armati internazionali (8 giugno 1977), Titolo IV, Popolazione civile.

[2] Proporzionalità significa che quando si considera un obiettivo, il danno ai civili e alle loro proprietà non può essere eccessivo rispetto al vantaggio militare guadagnato. La proporzionalità non è un requisito se l’obiettivo è puramente militare. Questo principio comporta l’obbligo di considerare tutte le opzioni quando si prendono decisioni mirate: verificare l’obiettivo, i tempi (c’è un momento in cui saranno presenti meno civili?), le armi utilizzate, gli avvertimenti e le evacuazioni per le popolazioni civili.

[3] “Nello studio, messa a punto, acquisizione o adozione di una nuova arma, di nuovi mezzi o metodi di guerra, un’Alta Parte contraente ha l’obbligo di stabilire se il suo impiego non sia vietato, in talune circostanze o in qualunque circostanza, dalle disposizioni del presente Protocollo o da qualsiasi altra regola del diritto internazionale applicabile a detta Alta Parte contraente”.

Potrebbe interessarti anche:

https://fivedabliu.it/2017/12/01/minaccia-nucleare-ican-vince-il-premio-nobel-per-la-pace-2017/

Simona Tarzia

Sono una giornalista con il pallino dell’ambiente e mi piace pensare che l’informazione onesta possa risvegliarci da questa anestesia collettiva che permette a mafiosi e faccendieri di arricchirsi sulle spalle del territorio e della salute dei cittadini.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *