Stati Uniti, Cina e le altre superpotenze stanno lavorando per utilizzare l’Intelligenza Artificiale (IA) nei loro eserciti. “Il vantaggio sarà di coloro che non vedono più il mondo come gli esseri umani” scrivono alcuni ufficiali dell’esercito statunitense
di Aniello Fasano
Gli innumerevoli scenari bellici in giro per il pianeta stanno moltiplicando non solo l’ansia e le preoccupazioni ma anche i budget dedicati alla difesa. È difficile stabilire cifre esatte, ma secondo le stime riportate dal Financial Times, la spesa militare globale è aumentata del 34 percento negli ultimi cinque anni. Lo scenario appare davvero preoccupante se si pensa agli sviluppi sempre più drammatici della guerra tra Russia e Ucraina, all’incertezza del conflitto a Gaza e, sullo sfondo, la competizione tra le grandi potenze nucleari. Non ultima l’escalation tra Israele e Hezbollah.
Il conflitto russo-ucraino sta lasciando numerose lezioni importanti che dovrebbero aiutare a guidare gli eserciti, le industrie della difesa e i tecnici degli approvvigionamenti mentre si naviga verso un futuro dove l’IA già la fa da padrone. Ecco perché i nuovi budget assegnati alla difesa dovranno essere utilizzati non solo per moltiplicare e approvvigionare i sistemi d’arma già in dotazione ma anche per finanziare la ricerca e lo sviluppo di nuovi piattaforme militari. Un esempio su tutti: si potrebbe facilmente arrivare a sostituire i caccia F-35 e gli apparati che li circondano compresi gli aerei di rifornimento in volo e il personale di terra, con unità di droni autonomi a lungo raggio.
Le guerre in corso dimostrano che è necessario sviluppare nuovi sistemi in grado di comunicare efficacemente anche in ambienti difficili, in particolare quelli saturi di guerra elettronica. Una chiara lezione dal fronte ucraino è stata la sfida di operare in mezzo a negazioni e falsificazioni GPS, mentre si prendono di mira le forze nemiche a 100 km o più di distanza. In tali scenari, i tradizionali sistemi di navigazione elettronica possono essere compromessi, lasciando le missioni incomplete e le forze sul terreno più vulnerabili. Queste tecnologie non servono solo a sopravvivere in un ambiente conteso, ma anche a garantire un vantaggio informativo sugli avversari nei momenti più critici.
Ed è un inizio che sta riecheggiando in tutto il mondo. Negli ultimi anni, come riporta sempre il Financial Times, il numero di paesi della NATO che hanno raggiunto o superato il loro obiettivo del 2% del PIL per la spesa relativa alla difesa è aumentato da nove nel 2020 a 23 di quest’anno. Stanno emergendo anche nuove iniziative multinazionali, come il Diana and Innovation Fund della NATO, che finanzia proprio le tecnologie di Intelligenza Artificiale in tutto l’Occidente. Bisogna, pertanto, pensare strategicamente agli obiettivi da perseguire e al modo migliore per raggiungerli.
La necessità di sviluppare l’Intelligenza Artificiale per nuovi sistemi d’arma moltiplica, di contro, gli appelli etici per vietare lo sviluppo, la produzione e l’impiego delle armi completamente autonome. Sviluppare robot killer significa mettere a punto armi autonome al cento per cento, in grado di individuare e uccidere obiettivi, senza nessun intervento umano.
Vengono posti, di fatto, una serie di dubbi morali ed etici che rendono più complicato anche stabilire di chi sia la responsabilità di un’azione di guerra. Come riportato dal settimanale francese Courrier International, Ulrike Franke, del Consiglio europeo per le relazioni internazionali, ha evidenziato come un sistema guidato dall’Intelligenza Artificiale sappia imparare da sé stesso e prendere decisioni senza che gli umani ne comprendano la logica. “Ciò è particolarmente pericoloso in un contesto bellico perché, se non riusciamo a seguire le fasi del processo decisionale, diventa molto difficile individuare un atto di sabotaggio”, sostengono gli esperti. Insomma, anche se pensiamo che gli esseri umani mantengano il controllo sull’Intelligenza Artificiale, quest’ultima ha già cambiato completamente il modo di fare una guerra. Quello che più desta preoccupazione è l’irreversibilità del processo di sviluppo di queste nuove tecnologie, nonostante si moltiplichino gli appelli etici.
Subscribe to our newsletter!