La Inteligencia Artificial ya se utiliza en la guerra

por Aniello Fasano

A los ojos de la opinión pública, la inteligencia artificial (IA) tendrá enormes avances, especialmente en los aspectos recreativos, cambiando la vida de cada uno de nosotros sin poder imaginar cuánto. Todo se vuelve mucho más serio y preocupante ante la mera idea de poder aplicar nuevas tecnologías para realizar guerras. Por otro lado, la IA ya se utiliza ampliamente tanto en Ucrania como en Gaza, donde los conflictos en curso han traído al campo de batalla herramientas y programas en continua evolución y perfeccionamiento. Muchas decisiones "cruciales" ya se tomarían basadas en la aplicación de algoritmos generados con IA, generando muchas dudas sobre la ética, la moral y la legitimidad del uso de determinadas tecnologías en escenarios de guerra. Y es, siendo realista, un camino que todos los ejércitos tomarán en poco tiempo. En la práctica, el algoritmo adquiere datos que posteriormente se mezclan con una gran cantidad de otra información obtenida de drones, cámaras y sistemas de vigilancia. El resultado de este entrelazamiento "inteligente" de información son listas de posibles objetivos a alcanzar.

Fuente TRT Mundial

Hace unos meses esta noticia se hizo pública a través de la investigación realizada por Revista +972 e Llamada local, Según la cual el 'Fuerza de Defensa de Israel (las FDI) desarrollarían y emplearían un programa basado en IA, llamado Lavanda, para identificar y atacar objetivos palestinos, particularmente en las primeras etapas de la guerra. Las fuerzas israelíes han negado su uso. El ejército israelí utilizaría inteligencia artificial para identificar objetivos potenciales en Gaza y luego bombardearlos. Para revelar la posible existencia de este “máquina de guerra avanzada“Habrían sido algunos funcionarios de la Inteligencia israelí quienes, como informó la revista independiente israelí-palestina, “sirvieron en el ejército durante la guerra en Gaza y participaron personalmente en el uso de IA para identificar objetivos a atacar.”. Esta noticia, de confirmarse, proporcionaría explicaciones valiosas sobre el elevado número de víctimas civiles en Gaza y representaría una prueba de la transición a una guerra moderna que depende casi exclusivamente de la aplicación de algoritmos generados por la IA.

Nada nuevo al final, el Módulo nació"en la guerra y de la guerra". El Coloso Fue construido en 1944 para descifrar los códigos nazis. El reciente progreso exponencial de la inteligencia artificial permite hazañas asombrosas en el reconocimiento de objetos y la resolución de problemas de orden superior. Hoy en día, chips muy pequeños y baratos guían a los drones hacia sus objetivos, ampliando una tecnología que antes se limitaba a los misiles de una superpotencia. Cada año, los líderes internacionales se reúnen para discutir el uso militar responsable de la IA, estimulando una discusión ética sobre las preocupaciones relacionadas con la llegada de esta tecnología y su uso durante los conflictos armados. 

Según lo informado por elEconomist, la tecnología está revolucionando sobre todo el Mando y Control de las guerras. Los drones representan sólo el último y más dramático eslabón de la cadena de matanza, del conjunto de pasos que comienzan con la búsqueda del objetivo y terminan con su destrucción. La IA selecciona y procesa datos a una velocidad sobrehumana, puede localizar con precisión un depósito a partir de miles de imágenes de satélite o interpretar ondas de luz, calor, sonido y radio. Es probable que los sistemas de inteligencia artificial, combinados con robots autónomos en tierra, mar y aire, encuentren y destruyan objetivos a una velocidad sin precedentes y en una escala masiva.

Si, trágicamente, estallara la primera guerra impulsada por la IA, es probable que el derecho internacional quede rápidamente dejado de lado. Un motivo más para pensar hoy en cómo limitar la destrucción total del planeta. China, por ejemplo, debería prestar más atención a la solicitud de Estados Unidos de excluir el control de la inteligencia artificial sobre las armas nucleares. Los sistemas de inteligencia artificial diseñados para maximizar la ventaja militar deberían estar codificados con valores y restricciones que los comandantes humanos ingenuamente dan por sentado, otorgando un valor implícito a la vida humana. Establecer cuántos civiles es aceptable matar en pos de un objetivo de alto valor no es sólo una cuestión ética, sino una cuestión de supervivencia.

Las incertidumbres son profundas, pero lo único seguro es que el cambio impulsado por la inteligencia artificial ya es una realidad. Los ejércitos que anticipen y dominen los avances tecnológicos primero y con mayor eficacia probablemente prevalecerán.

El sistema lavanda

Lavanda, según un informe detallado del Post, fue desarrollado por la división de élite de las Fuerzas de Defensa de Israel (FDI), Unidad 8200, con el fin de mejorar las estrategias de ataque a la población en la Franja de Gaza. antes de emplear Lavanda la elección del objetivo humano se limitó a un miembro de alto nivel del ala militar de Hamás.

Después del 7 de octubre, el ejército decidió señalar como posible objetivo humano a todos los operadores del ala militar de Hamás, independientemente de su nivel de importancia. El problema técnico de identificar un gran número de objetivos en poco tiempo se ha resuelto con Lavanda, utilizado para sistematizar la identificación de personas que podrían ser consideradas militantes de Hamás.

el software Lavanda analiza la información recogida por el sistema de vigilancia masiva activo en la Franja y asigna una puntuación del 1 al 100 a casi cada palestino, evaluando la probabilidad de que sea un militante. Lavender fue entrenada para distinguir las características de los agentes de Hamás y luego aprendió a encontrar las mismas características en la población general. Una persona con características más similares recibe una puntuación alta y automáticamente es un objetivo potencial.

Con Lavender, los objetivos no son identificados por el humano sino por la inteligencia artificial que realizó la mayor parte del trabajo, cometiendo errores en ocasiones e identificando también como objetivos a trabajadores policiales, familiares de militantes o vecinos que tenían un nombre y apodo idénticos a los de los militantes.

Algunas fuentes del ejército israelí explicaron el funcionamiento del “tolerancias preautorizadas” sobre el número de civiles que podrían morir en un ataque contra los objetivos identificados por Lavanda. En las primeras semanas de la guerra se permitía matar a 15 o 20 civiles para matar a militantes de bajo rango, mientras que el límite se elevó a 100 para militantes de alto rango. Esto explicaría el elevado número de civiles asesinados hasta la fecha en la Franja de Gaza.

¡Suscríbete a nuestro boletín!

La Inteligencia Artificial ya se utiliza en la guerra