Estamos donde tú estás. Síguenos en:

Facebook Youtube Twitter Spotify Instagram

Acceso suscriptores

Viernes, 4 de Julio de 2025
Guerra en Gaza

Lavender: la inteligencia artificial que dirige los bombardeos de Israel en Gaza

Interferencia

gaza_octubre_2023._fuente_wikipedia.jpg

Gaza octubre 2023. Fuente Wikipedia.
Gaza octubre 2023. Fuente: Wikipedia.

El sistema fue utilizado principalmente durante las primeras semanas de la guerra y marcó como objetivos humanos a cerca de 37 mil palestinos con un margen de error de un 10% sin supervisión humana. Sin embargo, el ejército israelí, para asesinar a miembros de Hamás y la Yihad Islámica Palestina, permitió bajas civiles que van desde las 15 a las 300 personas dependiendo del rango del militante. 

En 2021 se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World bajo el seudónimo de Brigadier General Y.S. 

En el libro, el autor, quien es el actual comandante de la unidad de élite de inteligencia israelí 8200, justifica el diseño de una máquina con la capacidad de procesar rápidamente miles de datos y generar miles de "objetivos" potenciales para ataques militares durante un conflicto bélico. 

Según escribe el autor, aquella tecnología resolvería lo que describió como un "cuello de botella humano tanto para localizar nuevos objetivos como para la toma de decisiones para aprobarlos como tal".

Resulta que una maquina así realmente existe según reveló una investigación de +972 y Local Call. Los medios citados, señalan que el ejército israelí desarrolló un programa basado en inteligencia artificial conocido como Lavender

El ejército israelí atacó sistemáticamente a las personas mientras se encontraban en sus casas y principalmente de noche (con toda su familia presente), pues desde el punto de vista de la inteligencia, era más fácil localizar a las personas en sus casas particulares y no durante el curso de la actividad militar. 

Conforme al testimonio de seis oficiales de inteligencia israelíes, que sirvieron en el ejército durante la actual guerra en Gaza y estuvieron involucrados en primera persona con el uso de la IA para generar objetivos para el asesinato, Lavender ha sido una pieza clave en el bombardeo sin precedentes en contra de palestinos, precisamente durante las primeras etapas de la guerra. 

Esto, al punto que, según las fuentes, su influencia en las operaciones militares fue tal que trataban los resultados de la máquina "como si fuera una decisión humana". 

Formalmente, el sistema fue diseñado para marcar a todos los agentes sospechosos de las alas militantes de Hamás y la Jihad Islámica Palestina, incluidos los de bajo rango, como potenciales objetivos de bombardeo. 

Las mismas fuentes, señalaron que el ejército dependió casi por completo de Lavender que registró hasta 37 mil palestinos, incluidos sus hogares, como presuntos militantes para posibles ataques aéreos. 

En las primeras fases de la guerra, el ejército dio amplia aprobación a los oficiales para que adoptaran los objetivos de Lavender sin necesidad de comprobar minuciosamente las decisiones del programa y sin examinar los datos de inteligencia en los que se basó. 

Una de las fuentes consultadas, afirmó que normalmente solo dedicaban 20 segundos a cada objetivo antes de autorizar un bombardeo solo para asegurarse que los blancos fueran hombres. Lo anterior, sabiendo que el margen de error del sistema rondaba el 10% además de ser capaz de marcar personas con una relación vaga con grupos militantes o incluso, sin conexión absoluta. 

Esta acción bélica, según indican las fuentes, provocó que miles de palestinos (en su mayoría mujeres, niños y personas que no participaban del combate) fueran alcanzados por los ataques aéreos israelíes durante las primeras semanas de guerra producto de las decisiones del sistema. 

Asimismo, el ejército israelí atacó sistemáticamente a las personas mientras se encontraban en sus casas y principalmente de noche (con toda su familia presente), pues desde el punto de vista de la inteligencia, era más fácil localizar a las personas en sus casas particulares y no durante el curso de la actividad militar. 

De hecho, otros sistemas involucrados, incluido uno llamado where's daddy?, se usaron específicamente para rastrear individuos y llevar atentados con bombas cuando ingresaban a sus residencias familiares. 

Esta acción bélica, según indican las fuentes, provocó que miles de palestinos (en su mayoría mujeres, niños y personas que no participaban del combate) fueran alcanzados por los ataques aéreos israelíes durante las primeras semanas de guerra producto de las decisiones del sistema. 

Una de las fuentes involucradas afirmó que: "No estábamos interesados ​​en matar a los agentes [de Hamás] sólo cuando estaban en un edificio militar o participando en una actividad militar [...] Por el contrario, las FDI los bombardearon en sus casas sin dudarlo, como primera opción. Es mucho más fácil bombardear la casa de una familia. El sistema está diseñado para buscarlos en estas situaciones”.

Asimismo, Lavender no es el único sistema de IA utilizado por los israelíes, pues otro programa, The Gospel, marca los edificios y estructuras desde los que el ejército afirma que operan los militantes; a diferencia de Lavender, que marca personas para crear una "lista negra". 

"No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]", dijo C., uno de los oficiales de inteligencia. En esa misma línea, otra fuente señaló que habían autorizado personalmente el bombardeo de cientos de casas privadas de presuntos agentes jóvenes marcados por Lavender y que muchos de esos ataques mataron a civiles y familias como "daños colaterales". 

Por otra parte, según las fuentes, cuando se atacaban a supuestos militantes jóvenes marcados por Lavender, el ejército prefería utilizar misiles no guiados, también conocidos como dumb bombs, capaces de destruir edificios enteros encima de sus ocupantes y causantes de numerosas víctimas. 

"No conviene desperdiciar bombas caras en gente sin importancia; es muy caro para el país y hay escasez [de esas bombas]", dijo C., uno de los oficiales de inteligencia. En esa misma línea, otra fuente señaló que habían autorizado personalmente el bombardeo de cientos de casas privadas de presuntos agentes jóvenes marcados por Lavender y que muchos de esos ataques mataron a civiles y familias como "daños colaterales". 

En una medida sin precedentes, según dos de las fuentes, el ejército decidió durante las primeras semanas de la guerra que, por cada joven agente de Hamás que Lavender marcara, estaba permitido matar hasta 15 o 20 civiles. En el pasado esto era distinto, pues los militares no autorizaban ningún "daño colateral" durante los asesinatos de militantes de bajo rango.

Además, las fuentes añadieron que, en el caso de que el objetivo fuera un alto funcionario de Hamás con rango de comandante de batallón o brigada, el ejército autorizó en varias ocasiones el asesinato de más de 100 civiles en el ataque a un solo comandante. 

No hubo una política de "margen cero"

Según un oficial superior, los oficiales no estaban obligados a revisar de forma independiente la evaluación del sistema para ahorrar tiempo y permitir la producción en masa de objetivos humanos. 

Las fuentes explicaron que Lavender a veces marcaba erróneamente a personas que tenían patrones de comunicación similares a los operativos conocidos de Hamas o de la Yihad Islámica en Palestina, incluidos trabajadores de la policía y de la defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y apodo idéntico al de un operativo, y habitantes de Gaza que utilizaron un dispositivo que alguna vez perteneció a un operativo de Hamas. 

"Todo era estadístico, todo estaba ordenado, estaba muy seco", dijo B. Aquella falta de supervisión estaba permitida pese a que los cálculos internos mostraban un margen de error del 10%, en otras palabras, se sabía que ese porcentaje de los objetivos humanos previstos para el asesinato no eran en absoluto miembros del ala militar de Hamás.

Las fuentes explicaron que Lavender a veces marcaba erróneamente a personas que tenían patrones de comunicación similares a los operativos conocidos de Hamas o de la Yihad Islámica en Palestina, incluidos trabajadores de la policía y de la defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y apodo idéntico al de un operativo, y habitantes de Gaza que utilizaron un dispositivo que alguna vez perteneció a un operativo de Hamas. 

“No existía una política de 'margen cero'. Los errores se trataron estadísticamente”, dijo una fuente que utilizó Lavender. “Debido al alcance y la magnitud, el protocolo fue que incluso si no estás seguro de que la máquina está bien, sabes que estadísticamente está bien. Así que hazlo”.

“Hay algo en el enfoque estadístico que te fija en una determinada norma y estándar. Ha habido una cantidad ilógica de [bombardeos] en esta operación. Esto no tiene paralelo en mi memoria. Y tengo mucha más confianza en un mecanismo estadístico que un soldado que perdió a un amigo hace dos días. Todos los presentes, incluido yo, perdimos personas el 7 de octubre. La máquina lo hizo con frialdad. Y eso lo hizo más fácil”, afirma B. 

Otra fuente de inteligencia que defendió la dependencia de las listas creadas por Lavender, argumentó que valía la pena invertir el tiempo de un oficial de inteligencia sólo para verificar la información si el objetivo era un alto comandante de Hamás. "Pero cuando se trata de un militante joven, no conviene invertir mano de obra ni tiempo en él", sostuvo la fuente, y agregó "en la guerra, no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a aprovechar el margen de error que supone utilizar inteligencia artificial, arriesgándote a sufrir daños colaterales y a la muerte de civiles, y a arriesgarte a atacar por error, y a vivir con ello”.

El portavoz de las FDI negó el uso de inteligencia artificial para incriminar objetivos, diciendo que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación”. La declaración continúa: “En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia], que verifique que los objetivos identificados son objetivos legítimos para el ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional.

“En un día sin objetivos [cuya calificación de características era suficiente para autorizar un ataque], atacamos desde un umbral más bajo. Nos presionaban constantemente: "Tráigannos más objetivos". Realmente nos gritaron. Terminamos [matando] a nuestros objetivos muy rápidamente”.

El portavoz de las FDI negó el uso de inteligencia artificial para incriminar objetivos, diciendo que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación”. La declaración continúa: “En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia], que verifique que los objetivos identificados son objetivos legítimos para el ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional.

Sin embargo, las fuentes dijeron que el único protocolo de supervisión humana vigente antes de bombardear las casas de presuntos militantes "jóvenes" marcados por Lavender era realizar una única verificación: garantizar que el objetivo seleccionado por la IA sea un hombre y no una mujer. La suposición en el ejército era que, si se trataba de una mujer, la máquina probablemente habría cometido un error, porque no hay mujeres entre las filas de las alas militares de Hamás y la Jihad Islámica.

Más de 200 civiles asesinados por un comandante de Hamás

Una fuente de inteligencia que participó en ataques más mortíferos aseguró que para asesinar a Ayman Nofal, el comandante de la Brigada Central de Gaza de Hamas, el ejército autorizó el asesinato de aproximadamente 300 civiles basándose en una localización imprecisa de Nofal. 

Otra fuente de inteligencia dijo que el ejército destruyó un edificio alto en Rafah matando a “docenas de civiles”, para intentar matar a Mohammed Shabaneh, el comandante de la Brigada Rafah de Hamas (que no está claro si murió o no en el ataque).

"Había una política completamente permisiva con respecto a las víctimas de las operaciones [de bombardeo], tan permisiva que en mi opinión tenía un elemento de venganza", afirmó D., una fuente de inteligencia. “El núcleo de esto fueron los asesinatos de altos mandos [de Hamás y de la Yihad Islámica en Palestina] por quienes estaban dispuestos a matar a cientos de civiles. Hicimos un cálculo: cuántos para un comandante de brigada, cuántos para un comandante de batallón, etcétera”.

A menudo, dijo la fuente, los altos comandantes se esconden en túneles que pasan debajo de edificios civiles y, por lo tanto, la decisión de asesinarlos con un ataque aéreo necesariamente mata a civiles.

"Había una política completamente permisiva con respecto a las víctimas de las operaciones [de bombardeo], tan permisiva que en mi opinión tenía un elemento de venganza", afirmó D., una fuente de inteligencia. “El núcleo de esto fueron los asesinatos de altos mandos [de Hamás y de la Yihad Islámica en Palestina] por quienes estaban dispuestos a matar a cientos de civiles. Hicimos un cálculo: cuántos para un comandante de brigada, cuántos para un comandante de batallón, etcétera”.

"Había regulaciones, pero eran muy indulgentes", dijo E., otra fuente de inteligencia. “Hemos matado a personas con daños colaterales de dos dígitos, si no de tres dígitos. Estas son cosas que no habían sucedido antes”.

"Me pasó muchas veces que atacamos una casa, pero la persona ni siquiera estaba en casa", dijo una fuente. "El resultado es que mataste a una familia sin ningún motivo". "A veces [el objetivo] estaba en casa más temprano, y luego por la noche se iba a dormir a otro lugar, por ejemplo, bajo tierra, y no lo sabías", dijo una de las fuentes. “Hay ocasiones en las que vuelves a verificar la ubicación y hay ocasiones en las que simplemente dices: 'Está bien, él estuvo en la casa en las últimas horas, así que puedes simplemente bombardear'”. 



Los Más

Ya que estás aquí, te queremos invitar a ser parte de Interferencia. Suscríbete. Gracias a lectores como tú, financiamos un periodismo libre e independiente. Te quedan dos artículos gratuitos este mes.



Los Más

Comentarios

Comentarios

Impresionante. Que barbarie

Añadir nuevo comentario