Intelligenza Artificiale: opportunità o arma catastrofica? Arma infallibile anche per i terroristi

di Massimiliano D’Elia

Ogni sera, sul programma televisivo di Antonio Ricci “Striscia la Notizia”, assistiamo, divertiti, leader politici e istituzionali destreggiarsi in balletti improbabili mentre intonano canzonette strampalate. I protagonisti sono personaggi illustri come il premier italiano in carica, il Presidente della Repubblica e i vari leader dell’opposizione. Sono proprio loro, vivi e vegeti, che simpaticamente diffondono castronerie in tv. 

Merito dell’artefatto è un software che impiega rudimenti di Intelligenza Artificiale (IA) per compiere un vero e proprio miracolo televisivo. Applicazioni simili sono disponibili anche a pagamento sui social network (Tik Tok). Siamo solo agli inizi di questa innovativa ed avvincente tecnologia che occorre però “maneggiare con cura” per i riflessi che potrebbe avere, in un futuro non molto lontano. Per questo motivo si parla sempre più spesso della necessità di adottare un codice etico durante la ricerca, lo sviluppo e l’impiego di applicativi in cui l’IA potrebbe essere chiamata a compiere un’azione fisica in grado di interferire con il mondo reale.

Ad esempio, tutti concordano sul fatto che dispositivi dotati di IA, prima di compiere un atto letale (nel campo prettamente militare) debbano comunque essere autorizzati dall’uomo. Assioma che, tuttavia, diventa riduttivo di fronte ad una tecnologia che, in teoria, sarà in grado di imparare, evolvere e soprattutto di confondere l’avversario che un giorno potrebbe coincidere con l’uomo incaricato al suo controllo.  

Alcune capacità simulate dell’IA

In Cina presso una prestigiosa università (Università di aeronautica e astronautica di Nanchino) hanno sviluppato un programma che simula una battaglia aerea tra due caccia di ultima generazione: uno pilotato da un essere umano con tutte le sue limitazioni fisiche e psicologiche, l’altro dall’IA. In meno di otto secondi a velocità ipersonica il caccia con IA ha abbattuto agevolmente il suo avversario, sparando un missile “al contrario”, sfidando ogni legge fisica conosciuta.

Nella simulazione al computer, l’aereo ipersonico ha combattuto con un jet nemico che volava a Mach 1.3, vicino alla velocità massima di un F-35. Al pilota dell’aereo ipersonico è stato dato l’ordine di abbattere il nemico. L’istinto avrebbe dovuto dirigere il pilota verso il bersaglio, ma il pilota, guidato dall’Intelligenza Artificiale si è diretto in una posizione inaspettata, molto più avanti dell’aereo nemico e ha sparato un missile all’indietro. Il missile ha colpito l’avversario che si trovava a 30 km di distanza ponendo così fine alla battaglia in una manciata di secondi.

Al netto delle considerazioni e dei timori, gli Stati, almeno per quanto riguarda la propria deterrenza militare, hanno già avviato programmi futuristici, come i velivoli di sesta generazione che saranno affiancati nelle loro missioni da dispositivi guidati da entità dotate di IA. In tale ottica i vari governi stanno cercando di regolamentare, per quanto possibile, l’approccio culturale, sociale e produttivo a questa nuova ed inesplorata tecnologia.

Cina

Basic security requirements for generative artificial intelligence service è il titolo di un documento da poco diffuso in bozza dall’Ente Nazionale cinese per la Standardizzazione della Sicurezza delle informazioni che detta le specifiche alle quali dovranno conformarsi i fornitori di servizi basati su generative IA. Il documento, pur ancora in versione non definitiva, evidenzia l’approccio del governo cinese per gestire l’impatto dell’IA sui rapporti sociali e politici. Non comprende solo norme giuridiche, ma anche regole tecniche, in grado di avere un maggior grado di efficacia concreta, dal momento che devono essere rispettate prima di rendere disponibile un servizio.

Stati Uniti

Il Presidente americano, Joe Biden dovrebbe firmare la prossima settimana un documento che affronta i rapidi progressi dell’Intelligenza Artificiale, ponendo le basi per l’adozione da parte di Washington dell’IA come strumento dell’arsenale dedicato alla sicurezza nazionale. Condizione essenziale è che le aziende sviluppino la tecnologia in modo sicuro, specifica il rapporto. Il documento vuole, pertanto, stabilire le linee guida per l’uso dell’IA da parte delle agenzie federali, sfruttando al contempo il potere d’acquisto del governo per indirizzare le aziende verso quelle che considera le migliori pratiche. La Casa Bianca ha anche organizzato un evento dal titolo “IA sicura, protetta e affidabile”.

L’amministrazione americana ha, quindi, la necessità di regolamentare la materia per sviluppare nuove ed innovative capacità militari per garantire nel tempo una credibile deterrenza mondiale a livello mondiale. Si prevede di utilizzare il National Institute of Standards and Technology per individuare i parametri di riferimento del settore in materia di test e valutazione dei sistemi di IA. Altra condizione è la supervisione del governo sugli impegni in materia di IA assunti di recente dalle principali aziende americane.

Tra alcuni settori individuati dal governo Usa vi sono le minacce alla sicurezza informatica a seguito dall’avvento dell’intelligenza artificiale. 

Si prevede che l’intelligenza artificiale possa diventare una risorsa importante per identificare le minacce analizzando vulnerabilità e tentativi di phishing, social media, e-mail e chat. Potrebbe anche essere utile per trovare schemi all’interno dei rapporti di intelligence che potrebbero sfuggire agli esseri umani. Ricercatori di sicurezza e funzionari dell’intelligence hanno affermato che l’IA può costituire uno strumento necessario per migliorare notevolmente le difese informatiche di aziende, infrastrutture critiche, agenzie governative e singoli individui. Ma potrebbe anche essere usata come arma da governi stranieri e hacker criminali per scrivere malware, automatizzare più facilmente i tentativi di intrusione e rispondere rapidamente all’evoluzione delle difese di sicurezza.

Inghilterra

L’intelligenza artificiale potrebbe aiutare i terroristi a sviluppare armi di distruzione di massa, l’allarme è contenuto in un documento redatto per il premier Rishi Sunak in occasione del suo speech alle Camere. L’analisi del report spiega come l’intelligenza artificiale, pur offrendo notevoli opportunità, “comporti anche nuovi pericoli e timori“. Il documento governativo, scritto con il supporto di 50 esperti, afferma che entro il 2025 l’IA potrebbe essere utilizzata per commettere frodi e attacchi informatici. Il documento spiega che l’IA avrà il potenziale per “migliorare le capacità dei terroristi” nello sviluppo di armi, nella pianificazione di attacchi e nella produzione della propaganda. La gamma di rischi più gravi che potrebbero emergere entro il 2030 comprende la “disinformazione di massa” e una “crisi” per quanto riguarda l’occupazione a seguito dell’utilizzo massivo dell’IA nei lavori manuali dove oggi è previsto l’impiego dell’uomo.

Contestualmente l’IA porterà, però, a “nuove conoscenze, nuove opportunità di crescita economica, nuovi progressi nelle capacità umane e la possibilità di risolvere problemi che un tempo erano ritenuti irrisolvibili”. 

Il documento afferma anche che non ci sono oggi evidenze sufficienti per escludere una minaccia per l’umanità da parte dell’AI. 

Entro il 2030, evidenzia il rapporto, le aziende tecnologiche potrebbero sviluppare una “superintelligenza” artificiale in grado di svolgere compiti complessi ed ingannare gli esseri umani, il che rappresenterebbe un rischio “catastrofico”. In un altro esempio si spiega come un’azienda potrebbe conquistare il dominio tecnologico a scapito dei concorrenti globali. Il rapporto avverte, inoltre, che l’intelligenza artificiale potrebbe “esacerbare in modo sostanziale i rischi informatici esistenti” se utilizzata in modo improprio, ad esempio lanciando attacchi informatici in modo autonomo.

Questi sistemi sono in grado di portare a termine compiti complessi che richiedono pianificazione e ragionamento e possono interagire tra loro in modo flessibile“, si legge nel rapporto. “Una volta stabilito un compito, elaborano una strategia con sotto-obiettivi, imparando nuove abilità”.

Tuttavia, possono verificarsi “conseguenze impreviste”, tra cui il “dirottamento” di informazioni e risorse per completare gli obiettivi.

Una futura innovazione nel software e nell’hardware consentirà all’AI di “interagire con il mondo fisico” attraverso robot e auto a guida autonoma. “Questi sistemi autonomi raccoglieranno grandi quantità di dati, che verranno convogliati per perfezionare le loro capacità”, si legge nel rapporto.

Subscribe to our newsletter!

Intelligenza Artificiale: opportunità o arma catastrofica? Arma infallibile anche per i terroristi