Inteligencia artificial: ¿oportunidad o arma catastrófica? Arma infalible incluso para los terroristas

Massimiliano D'Elia

Todas las noches, en el programa de televisión de Antonio Ricci "Striscia la Notizia", ​​miramos, disfrutamos, líder políticos e instituciones hacen malabares con bailes inverosímiles mientras cantan canciones extrañas. Los protagonistas son figuras ilustres como el Primer Ministro italiano en ejercicio, el Presidente de la República y los distintos líderes de la oposición. Son precisamente ellos, vivos y coleando, los que difunden gratamente tonterías en la televisión. 

El mérito del artefacto es un software que utiliza rudimentos de Inteligencia Artificial (IA) para realizar un auténtico milagro televisivo. Aplicaciones similares también están disponibles mediante pago en las redes sociales (Tik Tok). Estamos sólo en el comienzo de esta tecnología innovadora y apasionante que, sin embargo, debe "manejarse con cuidado" debido a los efectos que podría tener en un futuro no muy lejano. Por este motivo, hablamos cada vez más de la necesidad de adoptar un código ético durante la investigación, el desarrollo y el uso de aplicaciones en las que la IA podría ser llamada a realizar una acción física capaz de interferir con el mundo real.

Por ejemplo, todo el mundo está de acuerdo en que los dispositivos equipados con IA todavía deben ser autorizados por humanos antes de llevar a cabo un acto letal (en el ámbito puramente militar). Axioma que, sin embargo, se vuelve reduccionista ante una tecnología que, en teoría, podrá aprender, evolucionar y sobre todo confundir al adversario que algún día podría coincidir con el encargado de controlarla.  

Algunas capacidades de IA simuladas

En China, en una prestigiosa universidad (Universidad de Aeronáutica y Astronáutica de Nanjing) han desarrollado un programa que simula una batalla aérea entre dos cazas de última generación: uno pilotado por un ser humano con todas sus limitaciones físicas y psicológicas, el otro por una IA. En menos de ocho segundos a velocidad hipersónica, el caza de IA derribó fácilmente a su oponente, disparando un misil "al revés", desafiando todas las leyes de la física conocidas.

En la simulación por computadora, el avión hipersónico luchó contra un avión enemigo que volaba a Mach 1.3, cerca de la velocidad máxima de un F-35. El piloto del avión hipersónico recibió la orden de derribar al enemigo. El instinto debería haber dirigido al piloto hacia el objetivo, pero el piloto, guiado por la Inteligencia Artificial, se dirigió a una posición inesperada, muy por delante del avión enemigo y disparó un misil hacia atrás. El misil alcanzó al oponente que se encontraba a 30 kilómetros de distancia, poniendo así fin a la batalla en cuestión de segundos.

Sin consideraciones ni temores, los Estados, al menos en lo que respecta a su propia disuasión militar, ya han lanzado programas futuristas, como aviones de sexta generación que serán apoyados en sus misiones por dispositivos guiados por entidades equipadas con IA. Desde esta perspectiva, diversos gobiernos intentan regular, en la medida de lo posible, el abordaje cultural, social y productivo de esta nueva e inexplorada tecnología.

China

Requisitos básicos de seguridad para el servicio de inteligencia artificial generativa. es el título de un documento publicado recientemente en forma de borrador pororganismo nacional chino para la Estandarización de la seguridad de la información que dicta las especificaciones que deben cumplir los proveedores servicios basados ​​en IA generativa. El documento, aunque aún no es una versión final, destaca el enfoque del gobierno chino para gestionar el impacto de la IA en las relaciones sociales y políticas. No incluye sólo normas jurídicas, sino también normas técnicas, capaces de tener un mayor grado de eficacia concreta, ya que deben ser respetadas. antes para poner a disposición un servicio.

Estados Unidos

El presidente americano, Joe Biden Se espera que la próxima semana firme un documento que aborde los rápidos avances de la inteligencia artificial, sentando las bases para que Washington adopte la IA como una herramienta en su arsenal de seguridad nacional. Una condición esencial es que las empresas desarrollen la tecnología de forma segura, precisa el informe. Por lo tanto, el documento busca establecer pautas para el uso de la IA por parte de las agencias federales, al tiempo que aprovecha el poder adquisitivo del gobierno para orientar a las empresas hacia lo que considera mejores prácticas. La Casa Blanca también organizó un evento titulado “IA segura, protegida y confiable”.

Por lo tanto, la administración estadounidense necesita regular la cuestión para desarrollar capacidades militares nuevas e innovadoras que garanticen una disuasión global creíble en el tiempo. Está previsto utilizar el Instituto Nacional de Estándares y Tecnología Identificar puntos de referencia de la industria para probar y evaluar sistemas de IA. Otra condición es la supervisión gubernamental de los compromisos de IA asumidos recientemente por las principales empresas estadounidenses.

Entre algunos sectores identificados por el gobierno de EE. UU. se encuentran las amenazas a la ciberseguridad tras la llegada de la inteligencia artificial. 

Se espera que la inteligencia artificial pueda convertirse en un recurso importante para identificar amenazas mediante el análisis de vulnerabilidades e intentos. suplantación de identidad, redes sociales, correo electrónico y chat. También podría resultar útil para encontrar patrones en los informes de inteligencia que los humanos podrían pasar por alto. Los investigadores de seguridad y los funcionarios de inteligencia han dicho que la IA puede ser una herramienta necesaria para mejorar drásticamente las defensas cibernéticas de las empresas, la infraestructura crítica, las agencias gubernamentales y los individuos. Pero también podría ser utilizado como arma por gobiernos extranjeros y piratas informáticos criminales para escribir el malware, automatizar los intentos de intrusión más fácilmente y responder rápidamente a las defensas de seguridad en evolución.

Inglaterra

La inteligencia artificial podría ayudar a los terroristas a desarrollar armas de destrucción masiva, se advierte en un documento elaborado para el primer ministro Rishi Sunak con motivo de su habla a las Cámaras. El análisis del informe explica cómo la inteligencia artificial, si bien ofrece importantes oportunidades, “También implica nuevos peligros y miedos.“. El documento gubernamental, redactado con el apoyo de 50 expertos, afirma que para 2025 la IA podría utilizarse para cometer fraudes y ciberataques. El documento explica que la IA tendrá el potencial de "mejorar las capacidades terroristas" en el desarrollo de armas, la planificación de ataques y en la producción de propaganda. La gama de riesgos más graves que podrían surgir de aquí a 2030 incluye la “desinformación masiva” y una "crisis" del empleo tras el uso masivo de la IA en trabajos manuales donde actualmente se espera el uso de humanos.

Al mismo tiempo, sin embargo, la IA conducirá a "nuevos conocimientos, nuevas oportunidades de crecimiento económico, nuevos avances en las capacidades humanas y la posibilidad de resolver problemas que antes se consideraban irresolubles". 

El documento también afirma que actualmente no hay pruebas suficientes para excluir una amenaza para la humanidad por parte de la IA. 

Para 2030, destaca el informe, las empresas tecnológicas podrían desarrollar una “superinteligencia” dispositivo artificial capaz de realizar tareas complejas y engañar a los seres humanos, lo que representaría un riesgo "catastrófico". Otro ejemplo explica cómo una empresa podría ganar dominio tecnológico a expensas de sus competidores globales. El informe también advierte que la IA podría “exacerbar sustancialmente los riesgos cibernéticos existentes” si se utiliza de forma inadecuada, por ejemplo lanzando ciberataques de forma autónoma.

"Estos sistemas son capaces de completar tareas complejas que requieren planificación y razonamiento y pueden interactuar entre sí de manera flexible.“, se lee en el informe. “Una vez que establecen una tarea, desarrollan una estrategia con submetas y aprenden nuevas habilidades”.

Sin embargo, pueden ocurrir “consecuencias no deseadas”, incluido el “desvío” de información y recursos para completar los objetivos.

La innovación futura en software y hardware permitirá a la IA “interactuar con el mundo físico” a través de robots y vehículos autónomos. "Estos sistemas autónomos recopilarán grandes cantidades de datos, que se canalizarán para perfeccionar sus capacidades", se lee en el informe.

¡Suscríbete a nuestro boletín!

Inteligencia artificial: ¿oportunidad o arma catastrófica? Arma infalible incluso para los terroristas

| NEWS ', EVIDENCIA 1 |