AI utilizzata dai terroristi? Urge una regolamentazione della tecnologia a livello mondiale

(di Massimiliano D’Elia) L’intelligenza artificiale rappresenta una minaccia per la sicurezza nazionale, ad affermarlo esperti dell’antiterrorismo inglese. La tecnologia potrebbe essere utilizzata per persuadere le persone vulnerabili a compiere attacchi terroristici, avvertono gli esperti.

Il dibattito in Inghilterra tra i legislatori è aperto tanto da porre il tema tra quelli più sensibili che riguardano la sicurezza nazionale. La tecnologia dovrà essere progettata tenendo ben presente i rischi connessi all’utilizzo della stessa da parte dei vari gruppi terroristici sparsi nel mondo.

Ad oggi lo sviluppo dell’AI ha guardato solo agli aspetti positivi del suo utilizzo, trascurando quelli che possono diventare pericolosi per la sicurezza di una nazione. I terroristi potrebbero utilizzare le inesplorate potenzialità l’AI per compiere attacchi terroristici senza precedenti a costi relativamente molto più bassi del passato.

Gli esperti inglesi sono molto preoccupati dalla capacità di influenzare il pensiero e l’azione di un semplice utente da parte delle varie chatbot dell’AI, già esistenti. L’interazione tra essere umano e AI è sconvolgente dal momento che un sofisticato software riesce agevolmente a simulare ed elaborare le conversazioni umane (scritte o parlate) consentendo di interagire come una persona reale cogitante.

LA DEBOLEZZA.L’essere umano rispetto al software è suggestionabile, da qui la debolezza dell’uomo rispetto all’evoluzione interattiva dell’AI. Si potrebbe arrivare al punto si essere persuasi a compiere azioni. Non è eslcuso che questa debolezza umana possa essere utilizzata dai terroristi per reclutare nuovi adepti pronti a sacrificare la propria vita per la causa.

Al riguardo, l’MI5 inglese sta analizzando attentamente le capacità di alcune chatbot, studiate e già utilizzate con i bambini per fini meramente educativi.

A lanciare l’allarme anche centinaia di esperti del settore a livello mondiale che hanno chiesto l’urgente regolamentazione della tecnologia arrivando ad affermare pubblicamente che la frettolosa evoluzione delle applicazioni di AI potrebbe minacciare l’esistenza della razza umana stessa.

Si insiste sul fatto che la questione centrale è come gli esseri umani mantengano “l’autonomia cognitiva”, ovvero il controllo sull’IA e come questo controllo sia integrato nella tecnologia.

Il primo ministro, Rishi Sunak, solleverà la questione quando si recherà negli Stati Uniti per incontrare il presidente Biden e alti esponenti del Congresso. La scorsa settimana Sunak ha affermato che la Gran Bretagna vuole diventare un centro globale per l’intelligenza artificiale e la sua regolamentazione, insistendo sul fatto che la stessa potrebbe comunque offrire “enormi benefici all’economia e alla società”.

Nel Regno Unito, nel frattempo, gli sforzi si stanno intensificando per affrontare le sfide alla sicurezza nazionale poste dall’intelligenza artificiale con una partnership tra M15 e l’Alan Turing Institute, l’ente nazionale per la scienza dei dati e l’intelligenza artificiale.

Subscribe to our newsletter!

L’AI utilizzata in una battaglia aerea simulata in Cina rivoluziona il concetto di superiorità dell’aviazione tradizionale

In Cina ricercatori dell’università di aeronautica e astronautica di Nanchino hanno affermato che la loro intelligenza artificiale è stata la prima a simulare una battaglia aerea che ha coinvolto un aereo ipersonico che volava a Mach 11. La tecnologia utilizzata per l’esperimento ha escogitato una tattica sorprendente per sconfiggere il nemico.
Nella simulazione al computer, un aereo ipersonico si è scontrato con un jet da combattimento nemico che volava a Mach 1.3, vicino alla velocità massima di un F-35.
Al pilota dell’aereo ipersonico è stato dato l’ordine di abbattere il nemico. L’istinto avrebbe dovuto dirigere il pilota verso il bersaglio, ma il pilota, guidato dall’intelligenza artificiale sviluppata dal team, è volato in una posizione inaspettata molto più avanti dell’aereo nemico e ha sparato un missile all’indietro verso il nemico.
Il missile ha colpito il caccia nemico, che si trovava a 30 km (18,6 miglia) dietro l’aereo ipersonico, a una velocità di Mach 11, ponendo fine alla battaglia in meno di otto secondi.

AI utilizzata dai terroristi? Urge una regolamentazione della tecnologia a livello mondiale

| ATTUALITA', EVIDENZA 1 |