updated 4:47 PM UTC, Dec 13, 2018

Uccidere o non uccidere ... Il dilemma morale ignorato dai robot killer

L'autonomia dei robot assassini non solo trasforma la condotta delle operazioni militari, ma anche il vero paradigma della guerra


ll robot killer è essenzialmente molto più di un'arma, dal momento che è in grado di  scegliere  e  decidere  autonomamente se sparare a un bersaglio nemico oppure risparmiare la sua esistenza. Essendo privo di coscienza, il robot killer non potrà mai essere responsabile delle sue azioni, di conseguenza non potrà essere giudicato e non dovrà mai seguire le differenti regole d'ingaggio. L'autonomia dei robot assassini non solo trasforma la condotta delle operazioni militari, ma risolvono anche il vero paradigma della guerra, è giusto uccidere oppure no? Le conseguenze sociali e anche morali dell'uso di robot killer diventano quindi tutt'altro che trascurabili. Questi problemi devono essere messi in oggettiva prospettiva come parte di un processo completo di automatizzazione della guerra convenzionale. Ci concentreremo qui su un aspetto cruciale dell'arrivo di robot letali autonomi: la loro capacità di decidere autonomamente di sparare e quindi uccidere i combattenti nemici.

La Guerra: un'attività molto umana

La guerra è essenzialmente un'attività regolata da regole e convenzioni umane, derivanti da norme culturali e religiose. Ma ha anche una sua logica che sfida le convenzioni. Per il grande teorico militare Clausewitz, è "un atto di violenza che teoricamente non ha limiti". Teoria confermata in una nota espressione di Eisenhower:

"Usando la forza, non sapevamo dove stavamo andando, più abbiamo approfondito il conflitto, meno i limiti abbiamo trovato ad eccetto della capacità di forza stessa".

Per riassumere, si potrebbe dire, come il generale Sherman durante la guerra civile, prima di evacuare e poi bruciare la città di Atlanta che, "la guerra è un inferno che trova limiti solo nella sua attuale potenza. Tuttavia, queste tendenze sono contenute paradossalmente dai soldati impegnati nelle guerre che, secondo il filosofo Michael Walzer, sono capaci di distinguere "il compito a cui dedicano le loro vite, da un puro e semplice macello", attraverso il rispetto convenzioni di guerra. Ovvero la capacità di distinguere quando è realmente necessario uccidere e quando no.

Le convenzioni di guerra

Le Convenzioni di Ginevra riguardano due aspetti: lo jus ad bellum, il diritto di innescare e fare la guerra, e lo jus in bello, quest'ultimo parte da un assioma fondatore: la distinzione tra combattenti e civili. Il primo ha il diritto di uccidere in virtù del fatto che essi possono essere uccisi o uccidere. Da questa fondamentale distinzione seguono quattro principi principali:

  • l'umanità;
  • necessità militare;
  • proporzionalità;
  • discriminazione.

Due principi ci interessano in modo particolare. In primo luogo, il principio di proporzionalità richiede che, se è permesso uccidere civili per distruggere importanti obiettivi nemici, questo deve essere fatto in misura sufficiente. Secondo il giornalista Andrew Cockburn, l'esercito americano in Afghanistan, avrebbe considerato che un rapporto di 30 civili uccisi, per ogni capo talebano sconfitto sarebbe stato accettabile.

Il secondo, il principio di discriminazione, è quello di garantire una chiara distinzione tra civili e combattenti militari. Il rispetto di questi due principi dipende in larga misura dall'intensità del conflitto in corso.

L'opposizione ai robot killer

Si gioca principalmente sui due criteri visti in precedenza. Per quanto riguarda il fattore discriminazione, non si può negare che rappresenti un punto debole di queste macchine: come differenziare, infatti, un soldato che si arrende da un soldato in armi, o un soldato ferito?

Purtroppo al momento, le tecniche di riconoscimento della forma sopra citata, sono in grado di distinguere solo le uniformi e fanno, come afferma il robotista Noel Sharkey, grossolane confusioni nel distunguere lo stato dei soldati . D'altra parte, è molto difficile per un robot identificare un soldato ferito o addirittura un soldato che stende le braccia. A questo si aggiunge il criterio di proporzionalità: una macchina può decidere da sola quanti civili potrebbero essere uccisi per distruggere il suo obiettivo?

Per rafforzare questi due argomenti principali, gli oppositori dei robot killer, antepongono il principio di umanità, affermando che gli umani non sono razionali perché hanno emozioni e credono nel loro intuito. Molti di loro mostrano una certa repulsione nell'uccidere il loro vicino. Ad esempio, studi condotti dopo la seconda guerra mondiale hanno mostrato che in media solo il 18,75% dei soldati messi in servizio aveva usato la propria arma.

Questa vivace opposizione imbarazza molto i capi i militari, i capi di stato e spiega la loro esitazione sull'uso di queste armi. Anche se i più scettici pensano che poteri militari forti come la Cina, la Russia o l?america, non avranno certamente queste apprensioni morali e non esiteranno a sviluppare questo tipo di armamenti in un futuro troppo prossimo.

L'arrivo dei robot killer è quindi inevitabile e merita di essere anticipato.

Chi è responsabile?

In virtù di questo principio, Ronald C. Arkin, un robotista americano, propone di progettare macchine che agiscono in modo più etico, rispetto a quei soggetti imperfetti che sono combattenti umani, dotandoli di UMANITA'. Considerando che, "confrontandosi con l'orrore del campo di battaglia", i soldati vedono la loro capacità di giudizio offuscata dalle emozioni e dallo stress del combattimento e tendono quindi a commettere atrocità. I robot autonomi letali sarebbero la soluzione per garantire il rispetto delle leggi della guerra, preimpostate nella loro intelligenza artificiale.

Per Gregoire Chamayou, il problema è ad un altro livello, considerando due livelli distinti di ragionamento;

1) l'arma (che è una cosa)

2) il combattente (che è una persona)

Il primo non è legalmente responsabile (forse lo sono i suoi creatori), il secondo legalmente responsabile e giudicabile. 

Il robot autonomo letale è un insieme di questi due punti, in cui l'arma e il combattente si confondono in un'unica essenza: agente e strumenti sono collegati, escludendo ogni possibilità di responsabilità legale. Come giudicare una macchina? Quindi... vede qualcosa e inizia a fare uso di se stesso.

La possibilità di concedere il diritto di uccidere alle macchine non sarebbe comunque senza conseguenze. Se consideriamo che in guerra, il diritto di uccidere è solitamente riservato ai combattenti in virtù del fatto che possono essere uccisi, considerare che possono essere eliminati da una macchina, "sarebbe come mettere un omicidio, sullo stesso piano della distruzione di una semplice cosa materiale" .

Questa domanda non è solo militare e avrà inevitabilmente ripercussioni sull'uso di altri sistemi automatici come, ad esempio le automobili autonome, pensiamo ad un incidente mortale causato da una macchina a guida autonoma, chi dovrà essere considerato responsabile di tale grave avvenimento?

 

FONTE: (Eric Martel, dottore in scienze gestionali - ricercatore associato presso LIRSA, Conservatorio nazionale delle arti e mestieri (CNAM))

Lascia un commento

Assicurati di aver digitato tutte le informazioni richieste, evidenziate da un asterisco (*). Non è consentito codice HTML.

-2°C

Milano

Mostly Cloudy

Humidity: 55%

Wind: 3.22 km/h

  • 16 Dec 2018 1°C -3°C
  • 17 Dec 2018 2°C -3°C