'Lavender' y 'The Gospel', las IA que eligen objetivos humanos y materiales en la guerra de Isarel contra Hamás en la Franja de Gaza

La Inteligencia Artificial ya es un elemento real en la guerra de Israel contra Hamás en la Franja de Gaza. El programa, diseñado por un grupo especial de Inteligencia y tecnología del Ejército israelí conocido como 'Unidad 8200', responde al nombre de 'Lavender' ('Lavanda', en castellano) y es el encargado de seleccionar a los objetivos humanos que después atacarán los militares. La herramienta acorta los tiempos de decisión y convierte a los soldados en meros ejecutores de unas órdenes que provienen de algoritmos previamente diseñados por los expertos. Israel también cuenta con 'The Gospel', especializada en atacar viviendas. Informan María Rodríguez Abalde y Noelia Camacho.

'Lavender' toma decisiones de ataques militares como si fuese huaman

Lo que vamos conociendo de 'Lavender' es el resultado de una investigación periodística del medio de comunicación israelí +972 Magazine y Local Call que ha contado con datos de militares israelíes involucrados en el programa de Inteligencia Artificial que han relatado como 'Lavender' selecciona objetivos para su asesinato, resultando muy eficaz especialmente en la primera parte de los ataques a la Franja de Gaza en busca de activista del grupo terrorista Hamás, responsable de la brutal agresión a la población civil israelí el 7 de octubre pasado.

Estos expertos aseguran que "su influencia en las operaciones militares fue tal que esencialmente trataron los resultados de la máquina de IA "como si fuera una decisión humana", informan los citados medios.

¿Cómo funciona 'Lavender'?

Desde el comienzo de las operaciones terrestres y aéreas sobre la Franja de Gaza, los militares de Israel suministraron a 'Lavender' una lista de objetivos humanos y materiales que la IA procesó y señaló para su posterior ataque. La lista, aseguran los entrevistados, no estaba especialmente contrastada o comprobada, ya que ese trabajo se dejó en manos de 'Lavender'.

A pesar de que se conoce que el sistema 'Lavender' tiene una tasa de error de, al menos, un 10 %, los responsables humanos de las decisiones de ataques solo empleaban unos 20 segundos en analizar la propuesta de la IA y aceptar el asesinato.

¿Cómo sabe 'Lavender' a quién y dónde atacar?

Pues aquí entren en juego los algoritmos previos con los que se construye esta herramienta de Inteligencia Artificial.

Los expertos han contado a +972 Magazine y Local Call que, desde el punto de vista de la Inteligencia militar, lo más fácil es localizar a los objetivos en sus viviendas particulares, por lo que 'Lavender' rastrea mediante sistemas automatizados comunicaciones en las que se detecta la pregunta "¿dónde está papá?" lo que apuntaba a una vivienda particular que inmediatamente era bombardeada.

Como consecuencia de este algoritmo y del margen de error de la IA, "miles de palestinos (la mayoría de ellos mujeres y niños o personas que no participaron en los combates) fueron aniquilados por los ataques aéreos israelíes, especialmente durante las primeras semanas de la guerra, debido a las decisiones del programa", aseguran los expertos.

'The Gospel' la IA hermana de 'Lavender' especializada en destruir viviendas y estructuras

Pero, el supuesto 'éxito' de 'Lavender', no ha sido el primero. Una investigación previa de estos medios, +972 Magazine y Local Call, ya destapó la existencia de otra herramienta de Inteligencia Artificial conocida como 'The Gospel'. La combinación de ambas es la que está devastando la Franja de Gaza y causando decenas de miles de muertes, no solo entre los milicianos del grupo terrorista Hamás, sino también entre la población civil, especialmente niños y mujeres a los que se suman miembros de organizaciones humanitarias y sanitarios.

Según estas fuentes, la diferencia entre 'Lavender' y 'The Gospel' radica en que la definición del objetivo: "mientras que 'The Gospel' marca los edificios y estructuras desde los que el ejército afirma que operan los militantes, 'Lavender' marca a las personas y las pone en una lista de asesinatos.

Hay otro dato que apuntan los expertos y que marca el grado de deshumanización y barbarie que ha asumido el Ejército de Israel en su guerra contra Hamás en la Franja de Gaza. Y es que 'Lavender' utiliza armamento 'barato' para asesinar a supuestos militantes jóvenes a los que considera objetivos legítimos, pero sin importancia, mientras que para el ataque a edificios o con objetivos de mayor vinculación con los ataques a Israel, utilizaba bombas inteligentes y de mayor presupuesto.

Estas fuentes confiesan a los citados medios que "habían autorizado personalmente el bombardeo de "cientos" de casas privadas de presuntos agentes jóvenes marcados por 'Lavender', y que muchos de estos ataques mataron a civiles y familias enteras como “daños colaterales".

Los ataques terroristas de Hamás el 7 de octubre impulsaron el uso indiscriminado de 'Lavender'

Detrás de este dato sobrecogedor está el cambió de actitud del Ejército de Israel tras los ataques terroristas de Hamás del 7 de octubre. Hasta ese momento, solo los altos mandos militares israelíes tenían la capacidad de apuntar y ejecutar a altos mandos de la estructura del grupo terrorista islámico. Era un sistema que intentaba minimizar los “daños colaterales” y ajustar los ataques al Derecho Internacional.

Pero los atentados del 7 de octubre lo cambiaron todo y según estos expertos, "el ejército decidió designar a todos los agentes del ala militar de Hamás como objetivos humanos, independientemente de su rango o importancia militar".

Suscríbete a las newsletters de Informativos Telecinco y te contamos las noticias en tu mail

Síguenos en nuestro canal de WhatsApp y conoce toda la actualidad al momento.