Así funciona 'Lavender', la IA creada por Israel para identificar automáticamente y bombardear terroristas de Hamás en Gaza

Edificios destruidos en Gaza tras ataques de Israel.
Edificios destruidos en Gaza tras ataques de Israel.
EP
Edificios destruidos en Gaza tras ataques de Israel.

Desde el comienzo de la guerra en Gaza, el Ejército de Israel ha llevado a cabo todo tipo de acciones militares en la franja: bombardeos, operaciones terrestres y aéreas, en las que ha usado y usa toda la tecnología militar de la que dispone. Entre drones, aviones y misiles de los que disponen las Fuerzas de Defensa Israelí se encuentra el sistema Lavender, una herramienta de IA que, según medios israelíes, estaría señalando a Israel una serie de personas "a eliminar" en Gaza. 

Según explican los medios +972 Magazine y Local Call, la IA Lavender habría funcionado desde el comienzo de la guerra de Gaza como "un cuello de botella humano tanto para localizar objetivos como para agilizar la toma de decisiones para aprobar los mismos".

La IA identifica y marca objetivos al Ejército israelí

Al comienzo de la guerra de Gaza el Ejército israelí dio luz verde para emplear por primera vez Lavender: La función y el objetivo de esta IA: identificar y marcar objetivos reales y potenciales a los que bombardear y eliminar.

Lavender fue diseñada como una herramienta para agilizar la toma de decisiones: el sistema identifica enemigos, agentes confirmados o sospechosos de formar parte de Hamás y la Yihad Islámica Palestina, y los establece como objetivos de bombardeo, estableciendo el camino a seguir para ejecutar dicha decisión a los mandos militares. Al inicio de la guerra, el sistema fue un eje central de las actuaciones de las FDI, marcando hasta 37.000 palestinos como objetivos, según la investigación.

En ese momento, el Ejército habría seguido al pie de la letra las instrucciones de Lavender sin cuestionar sus decisiones ni los datos en los que se basaban, siendo el personal humano meramente testimonial en las mismas, pese a que se conoce que el sistema tiene un margen de error del 10%.

Lavender no solo determinaba a quién se debía eliminar, sino que establecía de forma automática cómo y cuándo hacerlo, normalmente por la noche, cuando era más probable que el objetivo estuviese en su hogar.

Israel no desmiente su existencia pero niega su uso

Además de dejar a criterio de la IA los objetivos a abatir con escasa supervisión humana, según explica el reportaje, el funcionamiento de Lavender tampoco entraría a valorar los posibles daños colaterales de los bombardeos que determina: según cuenta el reportaje, fuentes explican que cada objetivo marcado por Lavender podría costarle la vida "a 15 o 20 civiles" por el uso de las llamadas "bombas tontas" (explosivos poco precisos en sus explosiones, destruyendo edificios enteros al caer sobre sus objetivos).

Preguntados al respecto por la CNN, las FDI no desmintieron la existencia de Lavender, pero sí negaron su uso para neutralizar terroristas. En un comunicado posterior enfatizaron que "los sistemas de información son meras herramientas en el proceso de identificación de objetivos" y que "Israel trata de reducir el daño a los civiles en la medida de lo posible en las circunstancias operativas en el momento de un ataque"

Mostrar comentarios

Códigos Descuento