Il dialogo sull’attuale corsa alla militarizzazione dell’intelligenza artificiale da usare in contesti bellici, è totalmente assente. Occorre affrontare il problema dal punto di vista etico, sensibilizzare l’opinione pubblica, spiegare rischi e interessi in campo. 

E’ una delle constatazioni di Guglielmo Tamburrini, ordinario di Logica e Filosofia della Scienza presso l’Università di Napoli, esperto di etica dell’I.A. e di armi autonome. Ha recentemente pubblicato per Carrocci editore “Etica delle macchine: dilemmi morali per robotica e intelligenza artificiale”. Membro del consiglio scientifico Unione degli scienziati per il disarmo. 

Guglielmo Tamburrini

  • A Tamburrini abbiamo chiesto come definirebbe il connubio, l’incrocio, tra l’intelligenza artificiale e la dimensione etica, specialmente in contesti di conflitto armato.

“Bisogna valutare le limitazioni e le potenzialità di una tecnologia per capire quali possono essere le salvaguardie da prendere e le cose da promuovere, ad esempio in tema di diritti umani. Allo stesso tempo è necessario proteggersi dagli usi impropri dal punto di vista etico. Attualmente assistiamo ad una corsa alla militarizzazione dell’intelligenza artificiale che solleva questioni etiche cruciali come la legittimità della difesa di uno Stato attraverso queste tecnologie. Tale corsa alla I.A. si svolge in un contesto di grandi tensioni geopolitiche, di un confronto competitivo e ostile tra le grandi superpotenze, dove manca il dialogo sulle questioni militari e vari accordi non sono stati rinnovati o raggiunti. Sia su armamenti convenzionali che nucleari. Parlare di queste cose oggi è importante perché c’è una totale assenza di dialogo e di discussione sulla corsa alle nuove forme di militarizzazione. 

  • L’intelligenza artificiale usata in contesti di guerra non porta alle estreme conseguenze la “banalità del male” di cui parlava Hannah Arendt: nessuno è più responsabile se sono le macchine a prendere decisioni? 

“E’ il primo interrogativo che ci si è posti a proposito della militarizzazione della I.A. e forse anche il più esplorato a proposito delle armi autonome. Siamo di fronte a strumenti  in grado di attaccare un obiettivo senza intervento umano. C’è stato un grande dibattito: il compito terribile di attaccare e uccidere viene delegato alla macchina. In questi ambiti disordinati, come i teatri di guerra, i sistemi di I.A. prendono decisioni su base statistica. Commettono errori molto raramente, ma il rischio resta lo stesso molto alto. Mettiamo il caso di una guerra atomica: quali potrebbero essere le conseguenze se il sistema commette un errore? Per questo la banalità del male di Arendt è ancora più radicale: non c’è più un essere umano a cui dare la responsabilità di errori, disastri e stermini. Con la I.A. applicata alla guerra il fattore velocità è fondamentale e anche se si stabilisce un controllo umano esiste sia il cosiddetto “automation bias”, per cui un qualsiasi essere umano di fronte alla macchina difficilmente contraddice le decisioni di un sistema di calcolo molto potente, sia la necessità di essere più veloci del nemico e quindi l’intervento umano, che richiede del tempo, può costituire un ostacolo alla “vittoria”. 

  • Cosa pensa delle responsabilità etiche dei ricercatori e degli sviluppatori nel settore dell’intelligenza artificiale applicata alla guerra? Esiste una sorta di “obiezione di coscienza” nell’ambito della ricerca militare?

E’ necessario il coinvolgimento della comunità degli scienziati. I fisici sono stati i primi a mobilitarsi contro la bomba atomica sulla scia del manifesto Russell-Einstein per arrivare ad un mondo libero dalle armi nucleari. C’è stato poi il momento dei biologi e dei chimici, che hanno lavorato contro le armi chimiche  di distruzione di massa. Ci sono oggi regimi di controllo e la maggior parte degli Stati aderisce a questo tipo di limitazioni sulle armi chimiche. Ora credo sia arrivato il momento degli informatici: la I.A. può portare vantaggi e rischi su cui stabilire un dialogo internazionale e cercare delle forme di limitazioni, informate dalla conoscenza scientifica. E’ arrivato il momento per la comunità degli informatici di agire.