Inteligência Artificial: oportunidade ou arma catastrófica? Arma infalível mesmo para terroristas

Massimiliano D'Elia

Todas as noites, no programa de televisão "Striscia la Notizia" de Antonio Ricci, ​​assistimos, curtimos, líder políticos e instituições fazem malabarismos com danças improváveis ​​enquanto cantam canções bizarras. Os protagonistas são figuras ilustres como o Primeiro-Ministro italiano em exercício, o Presidente da República e os vários líderes da oposição. São precisamente eles, vivos e bem, que agradavelmente espalham bobagens na TV. 

O mérito do artefato é um Programas que utiliza rudimentos de Inteligência Artificial (IA) para realizar um verdadeiro milagre televisivo. Aplicativos semelhantes também estão disponíveis mediante pagamento nas redes sociais (Tik Tok). Estamos apenas no início desta tecnologia inovadora e excitante que, no entanto, precisa de ser “manuseada com cuidado” devido aos efeitos que poderá ter num futuro não muito distante. Por esta razão, falamos cada vez mais sobre a necessidade de adotar um código de ética durante a investigação, desenvolvimento e utilização de aplicações nas quais a IA possa ser chamada a realizar uma ação física capaz de interferir no mundo real.

Por exemplo, todos concordam que os dispositivos equipados com IA ainda devem ser autorizados por humanos antes de realizarem um ato letal (no campo puramente militar). Axioma que, no entanto, torna-se redutor diante de uma tecnologia que, em tese, poderá aprender, evoluir e sobretudo confundir o adversário que um dia poderá coincidir com o responsável por controlá-la.  

Alguns recursos simulados de IA

Na China, numa prestigiada universidade (Universidade de Aeronáutica e Astronáutica de Nanjing), desenvolveram um programa que simula uma batalha aérea entre dois caças de última geração: um pilotado por um ser humano com todas as suas limitações físicas e psicológicas, o outro por 'IA. Em menos de oito segundos em velocidade hipersônica, o caça AI abateu facilmente seu oponente, disparando um míssil “ao contrário”, desafiando todas as leis conhecidas da física.

Na simulação computacional, a aeronave hipersônica lutou contra um jato inimigo voando a Mach 1.3, próximo à velocidade máxima de um F-35. O piloto da aeronave hipersônica recebeu ordem de abater o inimigo. O instinto deveria ter direcionado o piloto em direção ao alvo, mas o piloto, guiado pela Inteligência Artificial, dirigiu-se para uma posição inesperada, muito à frente do avião inimigo e disparou um míssil para trás. O míssil atingiu o adversário que estava a 30 km de distância, encerrando assim a batalha em questão de segundos.

Sem considerações e receios, os Estados, pelo menos no que diz respeito à sua própria dissuasão militar, já lançaram programas futuristas, como aeronaves de sexta geração que serão apoiadas nas suas missões por dispositivos guiados por entidades equipadas com IA. Nesta perspectiva, vários governos tentam regular, na medida do possível, a abordagem cultural, social e produtiva desta nova e inexplorada tecnologia.

China

Requisitos básicos de segurança para serviço generativo de inteligência artificial é o título de um documento lançado recentemente em forma de rascunho porÓrgão nacional chinês para o Padronização da Segurança da Informação que dita as especificações que os fornecedores devem cumprir serviços baseados em IA generativa. O documento, embora ainda numa versão não final, destaca a abordagem do governo chinês para gerir o impacto da IA ​​nas relações sociais e políticas. Não inclui apenas normas jurídicas, mas também normas técnicas, capazes de ter maior grau de eficácia concreta, uma vez que devem ser respeitadas primeiro disponibilizar um serviço.

EU

O presidente americano, Joe Biden espera-se que assine um documento na próxima semana abordando os rápidos avanços da inteligência artificial, preparando o terreno para a adoção da IA ​​por Washington como uma ferramenta em seu arsenal de segurança nacional. Uma condição essencial é que as empresas desenvolvam a tecnologia de forma segura, especifica o relatório. O documento busca, portanto, estabelecer diretrizes para o uso de IA pelos órgãos federais, ao mesmo tempo em que aproveita o poder de compra do governo para direcionar as empresas para o que considera melhores práticas. A Casa Branca também organizou um evento intitulado “IA segura, protegida e confiável”.

A administração americana precisa, portanto, de regular a questão para desenvolver capacidades militares novas e inovadoras para garantir uma dissuasão global credível ao longo do tempo. Está prevista a utilização do Instituto Nacional de Padrões e Tecnologia para identificar benchmarks do setor para testar e avaliar sistemas de IA. Outra condição é a supervisão governamental dos compromissos de IA assumidos recentemente por grandes empresas americanas.

Entre alguns setores identificados pelo governo dos EUA estão as ameaças à segurança cibernética após o advento da inteligência artificial. 

Espera-se que a inteligência artificial possa se tornar um importante recurso para identificação de ameaças por meio da análise de vulnerabilidades e tentativas Phishing, mídias sociais, e-mail e bate-papo. Também poderia ser útil para encontrar padrões em relatórios de inteligência que os humanos possam não perceber. Pesquisadores de segurança e funcionários de inteligência disseram que a IA pode ser uma ferramenta necessária para melhorar drasticamente as defesas cibernéticas de empresas, infraestruturas críticas, agências governamentais e indivíduos. Mas também poderia ser usado como arma por governos estrangeiros e hackers criminosos para escrever malwares, automatize tentativas de invasão com mais facilidade e responda rapidamente às crescentes defesas de segurança.

Inglaterra

A inteligência artificial pode ajudar os terroristas a desenvolver armas de destruição em massa, o alerta consta de um documento elaborado para o primeiro-ministro Rishi Sunak por ocasião da sua discurso às Câmaras. A análise do relatório explica como a inteligência artificial, ao mesmo tempo que oferece oportunidades significativas, “também envolve novos perigos e medos“. O documento do governo, escrito com o apoio de 50 especialistas, afirma que até 2025 a IA poderá ser usada para cometer fraudes e ataques cibernéticos. O documento explica que a IA terá o potencial de “melhorar as capacidades terroristas” no desenvolvimento de armas, planeamento de ataques e na produção de propaganda. A gama de riscos mais graves que poderão surgir até 2030 inclui a “desinformação em massa” e uma “crise” em matéria de emprego na sequência da utilização massiva da IA ​​em trabalhos manuais onde atualmente se espera a utilização de seres humanos.

Ao mesmo tempo, porém, a IA conduzirá a “novos conhecimentos, novas oportunidades de crescimento económico, novos avanços nas capacidades humanas e a possibilidade de resolver problemas que antes eram considerados insolúveis”. 

O documento também afirma que atualmente não há evidências suficientes para excluir uma ameaça à humanidade proveniente da IA. 

Até 2030, destaca o relatório, as empresas de tecnologia poderão desenvolver um “superinteligência” dispositivo artificial capaz de realizar tarefas complexas e enganar o ser humano, o que representaria um risco “catastrófico”. Outro exemplo explica como uma empresa poderia obter domínio tecnológico às custas dos concorrentes globais. O relatório também alerta que a IA pode “exacerbar substancialmente os riscos cibernéticos existentes” se for utilizada de forma inadequada, por exemplo, lançando ataques cibernéticos de forma autónoma.

"Esses sistemas são capazes de realizar tarefas complexas que exigem planejamento e raciocínio e podem interagir entre si de maneira flexível.“, diz o relatório. “Depois de definirem uma tarefa, eles desenvolvem uma estratégia com subobjetivos, aprendendo novas habilidades.”

Contudo, podem ocorrer “consequências não intencionais”, incluindo o “desvio” de informações e recursos para cumprir os objectivos.

A inovação futura em software e hardware permitirá que a IA “interaja com o mundo físico” através de robôs e carros autônomos. “Estes sistemas autónomos irão recolher grandes quantidades de dados, que serão canalizados para refinar as suas capacidades”, lê-se no relatório.

Inteligência Artificial: oportunidade ou arma catastrófica? Arma infalível mesmo para terroristas