La guerra e l’avvento dell’intelligenza artificiale

L’intelligenza artificiale sta già trasformando le nostre vite, nel bene e nel male. Alcune imprese private la utilizzano già per gestire meglio gli indici azionari al fine di ottimizzare le loro strategie fiscali e bilanciare le azioni dei diversi portafogli: un manager (umano) professionista lo fa una volta all’anno, l’intelligenza artificiale ogni giorno. Nel 2016 una società IT di Hong Kong ha addirittura inserito un algoritmo nel suo consiglio di amministrazione.

Passando dal business alla guerra, macchine indipendenti e autonome non sono solo armi del futuro, ma sono già qui. I missili antinave a lunga gittata (Long Range Anti-ship Missile) semi-autonomi degli Stati Uniti possono aver bisogno di un essere umano per identificare i bersagli, ma utilizzano l’intelligenza artificiale per decidere come distruggerli. Israele usa già Harpy, un drone in grado di cercare e distruggere sistemi radar da solo, senza il permesso umano, vagabondando nei cieli finché non appare un bersaglio. La Sea Hunter, una nave anti-sottomarino statunitense, può navigare per mesi negli oceani senza nessuno a bordo alla ricerca di nemici – la versione letale del brigantino Marie Celeste. Se ad oggi nessun’arma completamente autonoma è stata ancora sviluppata, circa 400 sistemi d’arma semi-automatici o robotici sono attualmente in fase di sviluppo in tutto il mondo.

AlphaGo Zero, la macchina creata per giocare a Go, l’antico gioco da tavola cinese,  ha chiaramente dimostrato di essere capace di imparare e sviluppare strategie creative, pianificare e risolvere i problemi grazie all’esperienza maturata. Perché ciò è importante? In guerra, così come nella vita in generale, la capacità di agire (agency) è sempre dipesa – almeno finora – da una serie di qualità umane: la volontà, il coraggio, la paura, l’esperienza tattica, la creatività e quello che T.E. Lawrence ha descritto come il “decimo irrazionale”, garantito solamente da “istinto, affinato dal pensiero”. Le macchine saranno presto in grado di fornire questo “decimo irrazionale” senza paura, stanchezza o scrupoli morali. La domanda che sorge spontanea è allora la seguente: ci sostituiranno mai?

Se le macchine svilupperanno o meno una coscienza in futuro è una questione che possiamo lasciare da parte: se succederà, sarà probabilmente fra molto tempo, anche se Ray Kurzweil, ingegnere capo di Google, ha anticipato di tre anni l’avvento della cosiddetta “singolarità tecnologica”, dal 2042 al 2039.  Per quanto le macchine stiano diventando, e continueranno a diventare, sempre più autonome anche quelle più complesse e sofisticate rimarranno comunque attori dipendenti ancora per qualche tempo. Mi si permetta di fornire tre spiegazioni al riguardo.

La prima e più ovvia osservazione da fare è che l’intelligenza artificiale è priva di obiettivi. Quella umana è invece una “intelligenza motivata”. Grazie alla selezione naturale, siamo governati da un insieme di emozioni, istinti e pulsioni programmato per consentire di riprodurci. La selezione naturale ci dà degli obiettivi: vincere, dominare e controllare gli altri. Dobbiamo trovare l’equilibrio tra questi obiettivi e il nostro bisogno di sopravvivenza, optando per azioni a sostegno della nostra vita. Le macchine non sono motivate da alcun desiderio innato di sostenere la propria esistenza.

Dal momento che, almeno per ora, non riconosciamo intenzionalità alle macchine, riteniamo di non doverci impegnare in una relazione intelligente con loro. Il filosofo Daniel Dennett ha introdotto il termine “ordini di intenzionalità” per ragionare sul funzionamento dell’intelligenza sociale. Se credo che un’altra persona sappia qualcosa, sono in grado di gestire un ordine di intenzionalità. Se credo che questa persona creda che io sappia qualcosa, allora sono in grado di gestire due ordini di intenzionalità. Se invece credo che la stessa persona ritenga che mia moglie pensi che io sappia qualcosa, allora sono in grado di gestire tre ordini di intenzionalità. In quanto umani, incontriamo regolarmente almeno tre diversi ordini di intenzionalità nella nostra vita quotidiana. Secondo Dennett possiamo addirittura gestirne cinque. In altre parole, un’entità che non possiede motivazione è un’entità che non può vivere in società.

In seconda battuta, le macchine non solo sono prive di motivazione, ma mancano anche di aspirazioni: esse sono, per così dire, entità non-teleologiche. Cosa sto facendo su questo campo di battaglia? Perché mi sto esponendo a un tale rischio? Su cosa verte l’intero conflitto? Sono disposto a morire e, in caso affermativo, per che cosa: una religione, il mio paese, la famiglia? Tutte queste sono domande “aspirazionali” che, come tali, implicano un linguaggio teleologico che produce un senso di scopo o di fine. Trovo che questa idea sia stata espressa in modo eloquente in una lettera che il romanziere Saul Bellow scrisse a un suo amico su uno dei suoi personaggi più famosi, Augie Marsh. Augie, secondo l’autore, è l’incarnazione di un tratto umano particolare: la volontà di servire gli altri. Augie è un uomo che implora “per l’amor di Dio, fate uso di me, ma non usatemi senza scopo”. Di sicuro, aggiunge Bellow nella sua lettera, il più grande desiderio umano non è tanto quello di essere usato, quanto piuttosto quello di essere utile. I giovani jihadisti, ad esempio, sono spesso disposti a cedere la propria individualità nella speranza di essere utili agli altri. Neanche le macchine più intelligenti avranno pensieri di questo tipo.

In terza battuta, come esseri umani concepiamo la nostra capacità di agire (agency) come determinata da un qualcosa tanto caro agli economisti: la razionalità, e non la logica. L’intelligenza artificiale è logica. E l’abbiamo creata per una ragione: costruiamo macchine che possono prendere decisioni e fare scelte esattamente nel modo in cui non possiamo farlo noi. L’idea della logica come motore delle nostre azioni ha tanti sostenitori quanti oppositori. Fra i primi, Ray Kurtzweil crede che i robot permetteranno un significativo “human upgrade” e guarda all’avvento dei robot autonomi come a un imperativo morale del nostro tempo. Gli oppositori, dal canto loro, insistono che ciò ridurrà il controllo dell’operatore umano, il cosiddetto Meaningful Human Control (MHC). La società civile ha spesso articolato i suoi ragionamenti sull’autonomia dei sistemi d’arma proprio a partire dall’importanza di un controllo “significativo” dell’operatore umano su tali sistemi. Ma quello di “controllo umano” è chiaramente un concetto contestato di per sé, mentre la perdita di tale controllo caratterizza da sempre la guerra. Lo troviamo nella vendetta, nella disumanizzazione quotidiana del nemico, nel dispiegamento di truppe inesperte o semplicemente poco addestrate, nell’emissione di ordini poco chiari da parte dei comandanti, nell’immaturità dei soldati sul campo e persino, purtroppo, nel piacere di uccidere. Ed è proprio per questa ragione che Ronald Arkin – tutt’ora alle prese con la progettazione di una coscienza che possa essere programmata nella prossima generazione di macchine – ritiene che “il semplice fatto di essere umani rappresenti il punto più debole della catena di decisioni e azioni che porta alle uccisioni (kill chain)” – la biologia è contro di noi per quel che riguarda il rispetto dei principi fondamentali del diritto umanitario.

Con tutta probabilità i sistemi d’arma autonomi saranno in grado di superare le prestazioni umane in situazioni in cui andrà applicata una moralità “limitata”, cioè specifica a una certa situazione. Sono infatti proprio le situazioni in cui si trovano gli esseri umani che generalmente incoraggiano azioni immorali. L’operato delle macchine, al contrario, non dipende dalle situazioni – in gran parte perché le macchine non devono lottare con dinamiche di tipo “combatti o fuggi” come noi. Inoltre, esse non soffrono di pregiudizi – che invece predispongono gli umani a vedere il nemico in modo negativo – e non sono soggette alla tendenza umana individuata dalla psicologia sociale a rinforzare sistemi di credenza preesistenti.

Naturalmente, però, l’avvento delle macchine autonome solleva un’altra questione sulla human agency: noi siamo responsabili per le decisioni che prendiamo. Un essere umano ha una levatura morale esattamente per questa ragione; un robot no. In altre parole, la responsabilità di un robot sarebbe logica, non razionale, e basata sulla coerenza: si ripeterebbe sempre uguale. Ma se lo stesso criterio si applicasse agli umani, e se la logica dovesse prevalere sulla razionalità, allora assisteremmo a un cambiamento di primo ordine nella nostra stessa comprensione dell’etica. Per noi, vivere eticamente non è mai stata una questione di “ottimizzazione del bene”, ma piuttosto di giusta condotta, ad esempio nei confronti dei prigionieri di guerra. Vivere eticamente implica coltivare le virtù e rifiutare di compiere azioni che non possiamo conciliare con la nostra coscienza o con il nostro senso del sé. Vivere eticamente è quindi razionale, non logico: richiede la ricerca di un equilibrio fra  idee di “bene” di ordine diverso (vincere o rispettare le regole?) e la valutazione di come applicare diversi valori nelle circostanze in cui non c’è un’unica lettura di ciò che è giusto o sbagliato. E questo è probabilmente uno degli aspetti più preoccupanti dell’avvento dei killer robots nonostante non sia una delle argomentazioni promosse dalle campagne contro di loro. La logica può essere pericolosa perché è priva di buon senso – e il fisico Nils Bohr lo ha espresso molto bene quando ha detto a uno studente “smettila di essere così dannatamente logico e inizia a ragionare!”.

In conclusione, è forse il caso di non sopravvalutare il ruolo del controllo umano nella guerra, e non è neanche il caso di esagerare la capacità delle macchine di sostituirlo. Dovremmo più che altro accettare il fatto che probabilmente continueremo ad avere bisogno l’uno dell’altro. Alla fine, i pericoli posti dalle macchine corrisponderanno al margine di manovra che concederemo loro per raggiungere i nostri obiettivi. E questo è rilevante, soprattutto se si sottoscrive l’affermazione di Aristotele secondo cui l’unico scopo della guerra è la pace. I droni, per esempio, hanno trasformato il modo in cui cerchiamo di controllare il cosiddetto human terrain, ma il successo dei loro attacchi è controverso: hanno eliminato molti dei nemici degli Stati Uniti, ma ne hanno anche creati tanti altri. Possiamo anche inventare macchine che facciano la guerra al nostro posto, ma siamo i soli in grado di fare pace tra di noi. Almeno fino al giorno in cui le macchine non si sveglieranno…

Per saperne di più

Coker, C. (2018) “Still ‘the human thing’? Technology, human agency and the future of war”, International Relations, 32 (1), pp. 23-38. Disponibile su: http://eprints.lse.ac.uk/87629/1/Coker_Human%20Thing.pdf

Coker, C. (2015) Future War. Cambridge: Polity Press.

Published in:

  • Events & Training Programs

Copyright © 2024. Torino World Affairs Institute All rights reserved

  • Privacy Policy
  • Cookie Policy