Robot killer e armi intelligenti: nuovi scenari di morte?

Views

Un gruppo di 116 grandi esperti di robotica, provenienti da 26 differenti paesi, sta sollecitando le Nazioni Unite a intraprendere azioni per evitare lo sviluppo di “robot killer”. Questo gruppo, comprendente informatici, ingegneri ed imprenditori ha espresso, in una lettera aperta indirizzata appunto all’ONU, notevole preoccupazione per il modo in cui, in futuro, verranno utilizzati droni, mitragliatori, carri armati e altre armi che sfruttino l’intelligenza artificiale, e sta quindi premendo affinchè tale tecnologia venga aggiunta all’elenco delle armi vietate dalla Convenzione delle Nazioni Unite sulle armi convenzionali (CCW).

Nella lettera i firmatari, tra cui Elon Musk – fondatore di Tesla – e Mustafa Suleyman – co-fondatore di Google DeepMind -, avvertono che sta per avvenire una terza rivoluzione in ambito bellico. “Una volta sviluppati, questi robot killer trasleranno i conflitti armati su una scala più grande che mai, e le guerre verranno combattute in tempi più rapidi di quanto gli umani potranno mai comprendere”, dice il messaggio.
“Saranno vere e proprie armi del terrore, armi che i despota e i terroristi utilizzeranno contro popolazioni innocenti, e che potranno essere modificate e hackerate per comportarsi in maniere impreviste ed indesiderabili”.
Il tono è deciso e drammatico allo stesso tempo: “Una volta aperto il vaso di Pandora, sarà difficile richiuderlo”. Ossia, stronchiamo sul nascere ogni rischio, da subito. Ryan Gariepy, fondatore e CTO di Clearpath Robotics, primo firmatario della lettera, ha dichiarato: “L’alto numero e l’importanza delle aziende e della persone che hanno sottoscritto l’appello non fa che rafforzare l’importanza del nostro avvertimento. Questo non è un ipotetico scenario di fantasia, ma una preoccupazione molto reale e tangibile, che richiede un’azione urgente”.

Ed è ancor più urgente perchè già oggi più di una dozzina di paesi – inclusi Stati Uniti, Cina, Israele, Corea del Sud, Russia e Gran Bretagna – stanno sviluppando sistemi di armi autonomi, secondo quanto riportato da Human Rights Watch.

Alcuni di questi sistemi sono già in produzione, come ad esempio alcune torrette di controllo perimetrale autonome costruite dal produttore di armi sudcoreano Dodaam Systems. Queste torrette sono dotate di mitragliatrici e sono tecnicamente in grado di identificare e sparare sui bersagli senza alcun intervento manuale anche se, al momento, è prevista l’autorizzazione umana per qualsiasi colpo mortale.

I sostenitori delle armi autonome dicono che tale tecnologia potrebbe ridurre le vittime sui campi di battaglia perchè sarebbe in grado di distinguere accuratamente tra civili e soldati. Ma i critici affermano che ciò è solo propaganda per far crescere l’uso di queste armi e citano l’utilizzo da parte degli Stati Uniti di droni militari, attraverso i quali sono state condotte campagne di bombardamento a tappeto in tutto il Medio Oriente.

Yoshua Bengio, fondatore di Element AI ed eminente esperto di “deep learning”, ha dichiarato: “Ho firmato la lettera aperta perché: l’uso dell’intelligenza artificiale nelle armi autonome ferisce il mio senso dell’etica; perchè ciò potrebbe condurre ad una escalation molto pericolosa; perché l’uso dell’intelligenza artificiale nelle armi sarebbe negativo per lo sviluppo di “buone applicazioni” dell’AI, e perché la questione dei robot killer deve essere affrontata dalla comunità internazionale, analogamente a quanto è stato fatto in passato per altre armi moralmente sbagliate (biologiche, chimiche, nucleari).”

Stuart Russell, fondatore e vicepresidente di Bayesian Logic, ha convenuto: “A meno che le persone non vogliono affrontare nuovi strumenti di distruzione di massa, è imperativo spingere le Nazioni Unite a stilare un trattato che vieti le armi autonome letali. Ciò è vitale per la sicurezza nazionale e internazionale”.

di Giovanni Calcerano

Robot killer e armi intelligenti: nuovi scenari di morte?

Cultura, Difesa, High Tech, PRP Channel, Sicurezza |