di Gioacchino Toni
Mariarosaria Taddeo, Codice di guerra. Etica dell’intelligenza artificiale nella difesa, Raffaello Cortina Editore, Roma, 2025, pp. 320, ed. cartacea € 25,00, ebook € 17,00
Sarebbe limitativo guardare alle tecnologie utilizzate nella conduzione di una guerra soltanto come a strumenti di ottimizzazione dell’uso della forza, vista la loro incidenza sulla concettualizzazione stessa della guerra e sulle sue implicazioni etiche e legali. Basti pensare a come le tecnologie che stanno alla base delle armi di distruzione di massa nucleari abbiano, di fatto, annullato ogni distinzione fra combattenti e non combattenti, oppure si pensi a come l’introduzione dei droni negli scenari bellici abbia comportato un’inedita asimmetria nel livello di rischio a cui sono sottoposte le parti in lotta.
Il ricorso alle tecnologie digitali, in particolar modo all’intelligenza artificiale, ha ulteriormente ridefinito il modo con cui si concepisce, conduce e percepisce la guerra oggi. Se da un lato il ricorso all’IA può spostare la conduzione di un conflitto dal mero esercizio brutale della violenza/forza verso modalità cibernetiche non cinetiche, dall’altro può, soprattutto ricorrendo a sistemi d’arma autonomi, de-antropomorfizzare la conduzione della guerra sottraendo agli agenti umani gli aspetti decisionali e di esercizio della violenza.
Mariarosaria Taddeo, docente di Digital Ethics and Defence Technologies presso l’Oxford Internet Institute della University of Oxford e membro dell’Ethics Advisory Panel del Ministero della Difesa del Regno Unito, nel suo saggio Codice di guerra (2025) si occupa in maniera specifica dell’etica dell’IA nella difesa con l’intenzione di «presentare un quadro di riferimento etico per identificare, analizzare e affrontare sistematicamente le implicazioni etiche dei diversi usi dell’IA nel contesto della difesa, in modo da coadiuvare e contribuire a guidarne la governance» (p. 14).
L’analisi delle problematiche etiche derivanti dall’uso dell’IA nell’ambito della difesa nazionale proposta dall’autrice si sviluppa lungo tre tipologie di impiego: sostegno e supporto; ambiti conflittuali e non cinetici; ambiti conflittuali e cinetici. Nel primo caso viene fatto riferimento al ricorso all’IA nelle funzioni logistiche, nel back-office, nella simulazione bellica e, in generale, in tutto ciò che ha a che fare con il miglioramento della sicurezza nelle infrastrutture e nei sistemi di comunicazione della difesa nazionale. Il ricorso all’IA in ambiti conflittuali e non cinetici si riferisce al suo utilizzo in operazioni cibernetiche di difesa e di attacco con obiettivi non cinetici, mentre l’uso dell’IA in ambiti conflittuali e cinetici riguarda il ricorso all’IA in operazioni di combattimento e di individuazione di minacce ai sistemi d’arma autonomi letali.
Nella difesa, scrive Taddeo, l’utilizzo della IA riguarda, ad esempio, l’analisi predittiva con algoritmi di machine learning nella gestione di rifornimenti e apparecchiature, l’analisi dell’immensa mole di dati utili all’intelligence e ai processi decisionali di uso della forza. Per quanto, come detto, il volume si concentri esclusivamente sul ricorso dell’IA in ambito difensivo, resta evidente, almeno a parere di chi scrive, quanto sia difficile tracciare un confine netto tra difesa e offesa, anche alla luce del fatto che ogni Stato tende a motivare le sue azioni belliche agite o potenziali, cinetiche o non cinetiche, con il diritto alla difesa nazionale.
È adducendo motivazioni difensive nei confronti della minaccia terroristica che Israele ricorre a sistemi IA per l’identificazione di obiettivi umani a Gaza, ma è sotto gli occhi di tutti come, in nome del diritto alla difesa, tale Stato agisca come forza di occupazione e annientamento di un nemico esteso all’intera popolazione palestinese. Per quanto si tratti di un gesto più simbolico che sostanziale, lo stesso ordine esecutivo del 5 settembre 2025, con cui l’attuale presidente degli Stati Uniti ha reintrodotto la dicitura Department of War come secondary title del Department of Defense (per modificare la denominazione legale del Pentagono sarebbe servito un complesso iter parlamentare), esplicita non solo quanto sia variabile la distinzione tra difesa e offesa nel discorso pubblico, ma anche quanto sia mutevole la concezione stessa di “difesa” trasmessa ai cittadini. Del resto, le fantasiose denominazioni adottate negli ultimi decenni dagli interventi militari tradiscono l’intento politico di presentarli all’opinione pubblica come atti di difesa e non di guerra.
Come sottolinea Taddeo, risulta problematico definire con precisione cosa si intende con intelligenza artificiale con riferimento all’ambito bellico. Nel volume l’autrice si focalizza esclusivamente sulle «caratteristiche specifiche dei sistemi AI che danno luogo a sfide etiche» (p. 27); dunque, quando si riferisce all’IA nel corso della trattazione la intende – riprendendo la definizione proposta da Lucino Floridi e Josh Cowls (2019) – come «una risorsa crescente di agency interattiva, autonoma e ad apprendimento, che può essere utilizzata per svolgere compiti che, per essere potati effettivamente a termine, richiederebbero altrimenti l’intelligenza umana» (p. 28).
Ed è proprio la combinazione di agency, autonomia e capacità di apprendimento, dunque la predicibilità sia tecnica che operativa a rivelarsi cruciale nell’analisi di Taddeo, anche alla luce della notevole fiducia che gli esseri umani tendono ad avere negli agenti artificiali e della difficile attribuzione della responsabilità morale per le azioni di un sistema IA.
Insieme alla quotidianità, la rivoluzione digitale sta riscrivendo in profondità le dottrine e le strategie militari, siano esse cinetiche o meno, dunque anche l’ambito della difesa nazionale, rendendo in molti casi obsolete le convenzioni e le norme tradizionali che, per quanto incessantemente disattese, soprattutto da parte degli Stati più potenti, intendevano, almeno sulla carta, regolamentare i conflitti bellici. «Il caso dei conflitti cibernetici è emblematico. Il vuoto normativo per il comportamento degli Stati nel cyberpazio è il risultato di molte cause, fra le quali è fondamentale la percezione dell’etica, nel migliore dei casi, come un’appendice alla discussione sulla trasformazione digitale della difesa e, nel peggiore, come un ostacolo irritante alla necessità di ottenere un vantaggio sull’avversario» (p. 51).
Nell’ambito dei conflitti non cinetici il ricorso all’IA, con la vulnerabilità e la mancanza di trasparenza propria di tali sistemi, comporta evidenti rischi di violazioni in termini di “distinzioni” e “necessità” e il suo utilizzo nella cyberwarfare amplia enormemente i teatri di conflitto favorendo escalation difficilmente prevedibili ponendo inedite problematiche etiche. La studiosa sottolinea come i tentativi di trasporre nell’ambito del cyberspazio la teoria classica della deterrenza si rivelino in buon parte inadeguati; basti pensare ai problemi di “attribuzione” e “proporzionalità” che comporta questo nuovo scenario.
Per quanto riguarda gli usi conflittuali e cinetici dell’IA, l’autrice si focalizza invece sui sistemi d’arma automatici, automatizzati e autonomi e sull’ammissibilità morale, oltre che sulla regolamentazione del loro utilizzo. Il ricorso a tali sistemi, soprattutto se autonomi e mortali, rinvia alla spinosa questione del delegare capacità di scegliere, decidere e agire alle macchine e alle responsabilità morali che ne derivano.
Pur essendo Codice di guerra un saggio che si focalizza sulle specifiche problematiche etiche derivanti dall’uso dell’IA nell’ambito della difesa dalla prospettiva di chi svolge riflessioni etiche con l’esplicito intendimento di fornire raccomandazioni pratiche a decisori politici e militari al fine di mitigarne la pericolosità, l’analisi concettuale e sistematica dei problemi che derivano dall’uso dell’IA proposta dall’autrice è di utilità anche a chi guarda alla guerra da altre prospettive e, più in generale, a chi si pone interrogativi etici circa il rapporto che si sta venendo a creare tra essere umano ed intelligenza artificiale, all’insegna della delega e della deresponsabilizzazione.
Guerrevisioni serie completa



