Cubaperiodistas recomienda

“Lavender”, la máquina de Inteligencia Artificial que dirige los bombardeos israelíes en Gaza

En 2021 se publicó en inglés un libro titulado The Human-Machine Team: How to Create Synergy Between Human and Artificial Intelligence That Will Revolutionize Our World (El equipo humano-máquina: cómo crear sinergia entre la inteligencia humana y la artificial para revolucionar nuestro mundo) bajo el seudónimo de “General de Brigada Y.S.”. El autor –un hombre que hemos confirmado es el actual comandante de la unidad de élite de inteligencia israelí 8200– defiende el diseño de un dispositivo especial que pueda procesar con rapidez cantidades masivas de datos para generar miles de potenciales “objetivos” de ataques militares en medio de una guerra. Dicha tecnología, escribe, solventaría lo que identifica como “demoras, tanto en la localización de nuevos objetivos como en la toma de decisiones que los aprueben”.

Pues resulta que ese dispositivo existe realmente. Una nueva investigación de +972 Magazine y Local Call revela que el ejército israelí ha desarrollado un programa basado en IA conocido como Lavender, que exponemos aquí por primera vez. Según seis oficiales de inteligencia israelíes que han servido en el ejército durante la actual guerra contra la Franja de Gaza y que han intervenido de primera mano en el uso de IA para generar objetivos de asesinato, Lavender ha jugado un papel esencial en el bombardeo sin precedentes de palestinos y palestinas, especialmente durante las primeras fases de la guerra. De hecho, de acuerdo con estas fuentes, su influencia en las operaciones militares está siendo tan determinante que tratan los resultados del dispositivo de IA “como si de decisiones humanas se tratase”.

El sistema Lavender está diseñado formalmente para señalar a todos los supuestos operativos de las alas militares de Hamás y Yihad Islámica Palestina (YIP), incluidos los de bajo rango, como objetivos potenciales a bombardear. Las fuentes han señalado a +972 y a Local Call que durante las primeras semanas de la guerra, el ejército dependió casi por completo de Lavender y que llegó a señalar hasta 37.000 palestinos como presuntos militantes –y sus viviendas– para posibles ataques aéreos.

Durante las primeras fases de la guerra el Ejército dio su aprobación general a los oficiales para que adoptaran las listas de objetivos de Lavender, sin requisito previo de comprobar en profundidad por qué el dispositivo adoptaba tales decisiones ni de examinar la veracidad de los datos de inteligencia en los que se basaban. Una fuente ha afirmado que el personal humano únicamente suele servir para dar la “aprobación automática” de las decisiones del dispositivo, añadiendo que normalmente sólo dedican unos “20 segundos” a cada objetivo antes de autorizar un bombardeo, y únicamente para asegurarse de que el objetivo señalado por Lavender es un hombre. Todo ello a pesar de saber que el sistema comete lo que se consideran errores en aproximadamente el 10 % de los casos, y de ser conscientes de que en ocasiones señala a personas que sólo tienen una ligera conexión con grupos militantes o ninguna en absoluto.

Además, de manera sistemática, el Ejército israelí ataca a los objetivos humanos contra los que dirige cada embestida cuando se encuentran en sus casas –generalmente por la noche, con toda la familia presente– y no en el transcurso de actividades militares. Según las fuentes, eso se debe a que –desde lo que consideran un punto de vista de inteligencia– es más fácil localizar a las personas en sus domicilios privados. Otros sistemas automatizados, entre ellos uno llamado ¿Dónde está papá?, del que también se da cuenta aquí por primera vez, se utilizan específicamente para localizar a individuos señalados como objetivos y perpetrar atentados una vez han accedido a las viviendas familiares.

El resultado, según exponen las fuentes, es que miles de personas palestinas –en su mayoría mujeres y niños, o personas que no participaban en los combates– especialmente durante las primeras semanas de la guerra, han sido aniquiladas por ataques aéreos israelíes decididos por un programa de IA.

A., oficial de inteligencia, indica: “No nos interesaba matar a los operativos [de Hamás] sólo cuando estaban en un edificio militar o desempeñaban una actividad militar. Al contrario, la primera opción de las Fuerzas de Defensa Israelíes (FDI) era bombardearles en sus casas. Es mucho más fácil bombardear la casa de una familia. El sistema está construido para buscarlos en estas situaciones”.

La máquina Lavender acompaña a otro sistema de IA, The Gospel, cuya información ya fue revelada en una investigación previa de +972 y Local Call en noviembre de 2023, así como en las propias publicaciones del ejército israelí. Una diferencia fundamental entre ambos sistemas radica en la definición del objetivo: mientras que The Gospel señala edificios y estructuras desde los que, según afirma el ejército, operan militantes, Lavender señala a individuos que incorpora a una lista negra.

Además, según las fuentes, cuando se trata de apuntar a supuestos militantes subalternos marcados por Lavender, el Ejército utiliza preferentemente misiles no guiados conocidos comúnmente como bombas tontas (a diferencia de las bombas de precisión inteligentes), que pueden destruir edificios enteros sobre sus ocupantes y causar importantes bajas. “No quieres malgastar bombas caras en gente sin importancia; le sale muy caro al país y escasean [esas bombas]”, señala C., uno de los oficiales de inteligencia. Otra fuente afirma que han autorizado personalmente bombardear cientos de domicilios particulares de presuntos agentes subalternos señalados por Lavender, y que en muchos de esos ataques han muerto civiles y familias enteras registradas como “daños colaterales”.

En una medida sin precedentes, según dos de las fuentes, el Ejército decidió, durante las primeras semanas de la guerra, que por cada agente subalterno de Hamás señalado por Lavender se permitía matar hasta 15 o 20 civiles; en el pasado, el Ejército no autorizaba ningún daño colateral durante los asesinatos de militantes de bajo rango. Las fuentes añaden que cuando el objetivo ha sido un alto cargo de Hamás, con rango de comandante de batallón o brigada, el ejército ha autorizado en varias ocasiones la muerte de más de 100 civiles en el curso del asesinato de un solo mando.

Nuestra investigación está organizada de acuerdo con las seis fases cronológicas de la producción de objetivos altamente automatizados del Ejército israelí en las primeras semanas de la guerra de Gaza. Primero, se explica la propia máquina Lavender, que ha señalado mediante IA a decenas de miles de palestinos. En segundo lugar se expone el sistema ¿Dónde está papá?, con el que se se rastrean objetivos e indica al ejército cuando entrar en las casas familiares. En tercer lugar, se describe cómo se han elegido las bombas tontas para atacar esas viviendas. En cuarto lugar, se explica cómo el Ejército israelí ha flexibilizado el número permitido de civiles que podían morir durante el bombardeo de un objetivo. En quinto lugar, se describe cómo el software automatizado ha calculado de forma inexacta la cantidad de no combatientes en cada vivienda. Y en sexto lugar, se muestra cómo en varias ocasiones se han atacado casas, normalmente por la noche, en las que el individuo señalado ni siquiera estaba dentro, porque los oficiales militares no verificaban la información en tiempo real.

PASO 1: GENERACIÓN DE OBJETIVOS
Una vez puesto el automático, la generación de objetivos se vuelve loca”

En el Ejército israelí el término objetivo humano se refería en el pasado a un alto operativo militar que según las normas del Departamento de Derecho Internacional del Ejército, puede ser asesinado en su domicilio particular aunque haya civiles alrededor. Fuentes de inteligencia han explicado a +972 y a Local Call que durante las guerras anteriores de Israel, dado que se trataba de una forma “especialmente brutal” de asesinar a alguien –a menudo se mataba a toda una familia junto al objetivo–, tales objetivos humanos se señalaban con meticulosidad y sólo se bombardeaba a altos mandos militares en sus casas, para mantener el principio de proporcionalidad acorde al derecho internacional.

Pero después del 7 de octubre, cuando combatientes dirigidos por Hamás lanzaron un asalto mortífero contra comunidades del sur de Israel que acabó con unas 1 200 personas y con 240 secuestradas, el Ejército israelí, según las fuentes, adoptó un enfoque radicalmente distinto. En el marco de la Operación Espadas de Hierro, decidió señalar a todos los operativos del ala militar de Hamás como objetivos humanos independientemente de su rango o jerarquía militar. Y eso lo cambió todo.

Esta nueva política ha planteado un problema técnico a la inteligencia israelí. En las guerras anteriores, para autorizar el asesinato de un solo objetivo humano, un oficial tenía que pasar por un complejo y largo proceso para incriminarlo: cotejar pruebas de que la persona era efectivamente un miembro de alto rango del ala militar de Hamás, averiguar dónde vivía, su información de contacto y, por último, saber cuándo estaba en casa en tiempo real. Cuando la lista de objetivos sólo contaba con unas pocas docenas de altos cargos, el personal de inteligencia podía encargarse individualmente del trabajo que suponía incriminarlos y localizarlos. Sin embargo, cuando la lista se amplió para incluir a decenas de miles de operativos de rango inferior, el Ejército israelí decidió que tenía que delegar en un software automatizado y en la IA. Como han testificado nuestras fuentes, el resultado ha sido que se ha dejado a un lado la función del personal humano en la incriminación de palestinos como operativos militares y, en su lugar, la IA ha hecho la mayor parte del trabajo. Según cuatro de las fuentes que han hablado con +972 y Local CallLavender –desarrollado para crear objetivos humanos en la guerra actual– ha señalado a unos 37 000 palestinos como presuntos militantes de Hamás (la mayoría subalternos) para asesinarlos (en declaraciones a +972 Local Call, el portavoz de las Fuerzas de Defensa de Israel (FDI) ha negado la existencia de tal listado).

El oficial superior de inteligencia B. explica que “no sabíamos quiénes eran los agentes subalternos porque Israel no los rastreaba de forma rutinaria [antes de la guerra]”, y aclara la razón que subyace tras el desarrollo de este particular dispositivo de creación de objetivos para la guerra actual: “Querían permitirnos atacar [a los operativos subalternos] automáticamente. Ese es el quid de la cuestión. Una vez puesto el automático, la generación de objetivos se vuelve loca”.

Las fuentes señalan que la autorización para adoptar automáticamente las listas de objetivos de Lavender, que hasta entonces sólo se habían utilizado como herramienta auxiliar, se concedió unas dos semanas después de iniciada la guerra, después de que el personal de inteligencia comprobara manualmente la precisión de una muestra aleatoria de varios cientos de objetivos seleccionados por el sistema de IA. Cuando esa muestra determinó que los resultados de Lavender habían alcanzado un 90 % de precisión en la identificación de la afiliación de un individuo con Hamás, el Ejército autorizó el uso generalizado del sistema. A partir de ese momento, tal y como apuntan las fuentes, si Lavender decidía que un individuo era militante de Hamás, les pedían básicamente que lo consideraran como una orden, sin ningún requisito para comprobar de manera independiente por qué la máquina había hecho esa elección, ni para examinar los datos de inteligencia en los que se basaba.

A las 5 de la mañana, [la aviación] venía y bombardeaba todas las casas que habíamos señalado, explica B.. Eliminamos a miles de personas. No las evaluamos una por una: lo pusimos todo en sistemas automatizados y en cuanto uno de [los individuos señalados] estaba en casa, se convertía inmediatamente en objetivo. Le bombardeábamos a él y a su casa.

Para mí fue muy sorprendente que nos pidieran que bombardeáramos una casa para matar a un soldado raso cuya relevancia en los combates era tan baja, dice una fuente sobre el uso de IA para señalar supuestos militantes de bajo rango. Yo apodaba a esos objetivos objetivos basura. Aun así, me parecían más éticos que los objetivos que bombardeábamos sólo por disuasión como rascacielos evacuados y derribados sólo para causar destrucción.

Los letales resultados de esta laxitud en las restricciones durante la primera fase de la guerra fueron asombrosos. Según datos del Ministerio de Sanidad palestino en Gaza, en los que el Ejército israelí se ha basado casi exclusivamente desde el comienzo de la guerra, Israel mató a unos 15 000 palestinos y palestinas –casi la mitad de los muertos hasta ahora– en las seis primeras semanas de la guerra, hasta que se acordó un alto el fuego de una semana el 24 de noviembre.

“Cuanta más información y más variada, mejor”
El programa Lavender analiza la información recopilada sobre la mayoría de los 2,3 millones de residentes de la Franja de Gaza mediante un sistema de vigilancia masiva que posteriormente evalúa y clasifica la probabilidad de que cada persona en particular milite en el ala militar de Hamás o de Yihad Islámica Palestina (YIP). Según las fuentes, la máquina asigna a casi todas las personas de Gaza una calificación del 1 al 100, que indica la probabilidad de que sean combatientes.

Según explican las fuentes, Lavender aprende a identificar características de los agentes conocidos de Hamás y YIP, cuya información se ha introducido en la máquina como datos de entrenamiento, y a localizar esas mismas características –también denominadas rasgos– entre la población general. Un individuo que presente varias características incriminatorias diferentes alcanzará una calificación alta y, por tanto, se convertirá automáticamente en un objetivo potencial para asesinar.

En The Human-Machine Team, el libro al que se hace referencia al principio de este artículo, el actual comandante de la Unidad 8200 aboga por un sistema de este tipo sin hacer referencia a Lavender por su nombre. (Tampoco se nombra al propio comandante, pero cinco fuentes de la unidad 8200 confirmaron que el comandante es el autor, según informó también Haaretz). Al describir al personal humano como una “obstrucción” que limita la capacidad del Ejército durante una operación militar, el comandante se lamenta: “Nosotros [como humanos] no podemos procesar tanta información. No importa cuántas personas tengas encargadas de producir objetivos durante la guerra: seguirás sin poder producir los suficientes al día”.

La solución a este problema, sostiene, es la IA. El libro ofrece una breve guía para construir una “máquina de objetivos” similar en su descripción a Lavender, basada en IA y algoritmos de aprendizaje automático. La guía incluye varios ejemplos de los “cientos y miles” de características que pueden aumentar la calificación de un individuo, como estar en un grupo de whatsapp con un militante conocido, cambiar de móvil cada pocos meses, y cambiar de dirección con frecuencia.

“Cuanta más información y más variada, mejor”, escribe el comandante. “Información visual, información del móvil, conexiones a redes sociales, información del campo de batalla, contactos telefónicos, fotos”. Aunque al principio los humanos seleccionan estas características, prosigue el comandante, con el tiempo el dispositivo llega a identificarlas por sí solo. Esto, dice,permite a los ejércitos crear “decenas de miles de objetivos”, aunque la decisión real sobre si atacarlos o no siga siendo humana.

El libro no es el único lugar en que un alto mando militar israelí insinúa la existencia de dispositivos para definir objetivos humanos como Lavender. +972 Local Call han obtenido imágenes de una conferencia privada pronunciada por el comandante del centro secreto de Ciencia de Datos e IA de la Unidad 8200, “Coronel Yoav”, en la semana de IA de la Universidad de Tel Aviv en 2023, de la que informaron en su momento los medios israelíes.

En la conferencia, el comandante se refirió a una nueva y sofisticada máquina de objetivos utilizada por el Ejército israelí que detecta “personas peligrosas” basándose en su parecido con las listas existentes de militantes conocidos con las que fue entrenada. “Utilizando el sistema conseguimos identificar a comandantes de escuadrones de Hamás”, dijo el ‘coronel Yoav’, refiriéndose a la operación militar israelí de mayo de 2021 en Gaza, cuando se utilizó esyte dispositivo por primera vez.

Las diapositivas de la presentación en la conferencia, también obtenidas por +972 Local Call, contienen ilustraciones de cómo funciona la máquina: se le suministran datos existentes sobre los operativos de Hamás, aprende a fijarse en sus rasgos y después clasifica a otros palestinos en función de su parecido con los combatientes.

Clasificamos los resultados y determinamos el umbral [a partir del cual atacar un objetivo]”, señalaba el “coronel Yoav” en su conferencia, subrayando que “al final, son las personas de carne y hueso las que toman las decisiones. En el ámbito de la defensa, éticamente hablando, ponemos mucho énfasis en esto. Estas herramientas están pensadas para ayudar [a los oficiales de inteligencia] a romper sus barreras.

En la práctica, sin embargo, fuentes que han utilizado Lavender en los últimos meses afirman que la gestión y precisión humanas se han substituido por la creación masiva de objetivos y a favor de la letalidad.

No había una política de “error cero”
B., oficial superior que ha utilizado Lavender, se hace eco ante +972 y Local Call de que en la guerra actual, los oficiales no estaban obligados a revisar de forma independiente las evaluaciones del sistema de IA con el fin de ahorrar tiempo y permitir la producción masiva de objetivos humanos sin trabas.

“Todo era estadístico, todo estaba ordenado; era muy aséptico”, dice B. admitiendo que se ha permitido esta falta de supervisión a pesar de que las comprobaciones internas mostraban que los cálculos de Lavender se consideraban precisos sólo en el 90 % de los casos; en otras palabras, se sabía de antemano que el 10 % de los objetivos humanos programados para ser asesinados no eran en absoluto miembros del ala militar de Hamás.

Por ejemplo, las fuentes explican que la máquina Lavender a veces marca erróneamente a personas que tienen patrones de comunicación similares a los de conocidos operativos de Hamás o de YIP, incluidos trabajadores de la policía y de la defensa civil, familiares de militantes, residentes que casualmente tenían un nombre y un apodo idénticos a los de un operativo, y gazatíes que utilizaban un dispositivo que había pertenecido a un operativo de Hamás.

¿Cuán próxima tiene que ser una persona a Hamás para que una máquina de inteligencia artificial la considere afiliada a la organización?, denuncia una fuente crítica con la inexactitud de Lavender. Es un límite impreciso. Una persona que no recibe un salario de Hamás pero que le ayuda con todo tipo de cosas, ¿es un operativo de Hamás? ¿Es un operativo de Hamás alguien que estuvo en Hamás en el pasado pero que hoy ya no forma parte de esa organización? Cada uno de estos rasgos –características que una máquina marcaría como sospechosas– es inexacto.

Problemas similares se plantean respecto a la capacidad de los dispositivos para evaluar el teléfono utilizado por una persona señalada como objetivo a asesinar. “En la guerra, los palestinos cambian de teléfono constantemente”, explica la fuente. “La gente pierde el contacto con sus familias, dan su teléfono a un amigo o a su esposa, tal vez lo pierden. No se puede confiar al cien por cien en el mecanismo automático que determina qué número [de teléfono] pertenece a quién”.

Según las fuentes, el Ejército sabe que la mínima supervisión humana existente no detecta estos fallos. “No ha habido una política de error cero. Los errores se tratan estadísticamente”, admite una fuente que ha utilizado Lavender. “Debido al alcance y a la magnitud, el protocolo es que aunque no se sepa con seguridad que la máquina está bien, se sabe que estadísticamente está bien. Así que vas a por ello”.

Se ha demostrado”, dice B., fuente de alto rango. “Hay algo en el enfoque estadístico que fija una cierta norma estándar. Ha habido una cantidad ilógica de [bombardeos] en esta operación. Esto no tiene parangón, que yo recuerde. Y confío mucho más en un mecanismo estadístico que en un soldado que ha perdido a un amigo hace dos días. Todo el mundo allí, incluido yo, perdió gente el 7 de octubre. La máquina lo hizo fríamente. Y eso lo hizo más fácil.

Otra fuente de inteligencia, que defiende depender de listas de sospechosos palestinos a asesinar generadas por Lavender, argumenta que únicamente merece la pena invertir el tiempo de un oficial de inteligencia en verificar la información cuando el objetivo es un alto mando de Hamás. “Pero cuando se trata de un militante subalterno no hace falta invertir ni tiempo ni personal en ello”[…] . “En la guerra no hay tiempo para incriminar a todos los objetivos. Así que estás dispuesto a asumir el margen de error por usar IA, arriesgarte a daños colaterales y a que mueran civiles; arriesgarte a atacar por error y a vivir con ello”.

B. dice que la razón de esta automatización es el constante impulso de generar más objetivos para asesinar.

En un día sin objetivos [cuyo índice de características fuera suficiente para autorizar un ataque], atacábamos con un umbral más bajo. Nos presionaban constantemente: ‘traednos más objetivos’. Nos gritaban mucho. Acabamos matando a nuestros objetivos muy rápidamente.

Explica que al reducir el umbral de calificación de Lavender, éste señala a más personas como objetivos a atacar.

En su punto álgido, el sistema llegó a generar 37 000 personas como objetivos humanos potenciales, según B. Pero las cifras cambiaban todo el tiempo porque depende de dónde pongas el listón de lo que es un operativo de Hamás. Ha habido momentos en los que la definición de un operativo de Hamás se ha ampliado, y entonces la máquina empezaba a proporcionar todo tipo de personal de defensa civil, agentes de policía, sobre los que sería una pena desperdiciar bombas. Ayudan al gobierno de Hamás pero la verdad es que no ponen en peligro a nuestros soldados.

Una fuente que ha trabajado con el equipo de ciencia de datos militares que entrenó a Lavender indica que en la máquina también se han introducido datos de empleados del Ministerio de Seguridad Interna dirigido por Hamás a los que no se considera combatientes. “Me molestó que para entrenar a Lavender se utilizara el término operativo de Hamás de forma poco precisa y se incluyera en el conjunto de datos del entrenamiento a individuos que eran trabajadores de la defensa civil”.

La fuente no oculta que aunque considere que esas personas merecen ser asesinadas, el entrenamiento del sistema basado en sus perfiles de comunicación ha hecho que Lavender tenga más probabilidades de seleccionar civiles por error si sus algoritmos se aplican a la población general. “Dado que se trata de un sistema automático no manejado manualmente por humanos, el significado de esta decisión es drástico: significa que se está incluyendo como objetivos potenciales a muchas personas con perfiles de comunicación civil”.

“Sólo comprobamos que el objetivo fuera un hombre”
El Ejército israelí rechaza rotundamente estas afirmaciones. En declaraciones a +972 Local Call, el portavoz de las FDI ha negado el uso de inteligencia artificial para incriminar objetivos, alegando que se trata simplemente de “herramientas auxiliares que ayudan a los oficiales en el proceso de incriminación”. El comunicado prosigue:

En cualquier caso, se requiere un examen independiente por parte de un analista [de inteligencia] que verifique que los objetivos identificados son blancos legítimos de ataque, de acuerdo con las condiciones establecidas en las directivas de las FDI y el derecho internacional.

Sin embargo, las fuentes afirman que el único protocolo de supervisión humana que se ha aplicado antes de bombardear las casas de presuntos militantes menores marcados por Lavender consiste en realizar una única comprobación: asegurarse de que el objetivo seleccionado por la IA sea un hombre y no una mujer. En el Ejército se parte de la base de que si el objetivo es una mujer, lo más probable es que la máquina haya cometido un error porque entienden que no hay mujeres entre las filas de las alas militares de Hamás y YIP.

“Un ser humano tiene que [verificar el objetivo] durante sólo unos segundos”, dice B., explicando que esto ha pasado a formar parte del protocolo tras constatar que el sistema Lavender “acertaba” la mayoría de las veces.

Al principio hacíamos comprobaciones para asegurarnos de que la máquina no se confundía. Pero llegó un momento en que confiamos en el sistema automático y sólo comprobábamos que [el objetivo] era un hombre, con eso bastaba. No se tarda tanto en saber si alguien tiene voz de hombre o de mujer.

Para llevar a cabo la comprobación hombre/mujer, B. afirma que en la guerra actual,

invertía 20 segundos por cada objetivo en esta fase, y ha llevado a cabo docenas de comprobaciones cada día. Yo como humano tengo cero valor añadido; solo soy un sello de aprobación. Ahorra mucho tiempo. Si [el operativo] aparece en el mecanismo automatizado, y yo compruebo que es un hombre, hay permiso para bombardearlo previo análisis de daños colaterales.

En la práctica, según las fuentes, esto significaba que en el caso de los hombres civiles que Lavender ha señalado por error, no ha existido ningún mecanismo de supervisión para detectar el error. Según B., un error habitual se produce “cuando el objetivo [de Hamás] da [su teléfono] a su hijo, a su hermano mayor o a un hombre cualquiera. Esa persona sería bombardeada en su casa con su familia. Esto ha ocurrido a menudo. Esos han sido la mayoría de los errores causados por Lavender”, según B.

PASO 2: VINCULAR LOS OBJETIVOS A LOS HOGARES FAMILIARES
La mayoría de las personas asesinadas eran mujeres y niños”

La siguiente etapa en el procedimiento de asesinato del Ejército israelí consiste en identificar dónde atacar los objetivos que genera Lavender.

El portavoz de las FDI afirma en respuesta a este artículo que

Hamás sitúa a sus operativos y activos militares en el corazón de la población civil, utiliza sistemáticamente a la población civil como escudos humanos y lleva a cabo combates desde el interior de estructuras civiles, incluidos lugares sensibles como hospitales, mezquitas, escuelas e instalaciones de la ONU. Las FDI están obligadas y actúan de acuerdo con el derecho internacional, dirigiendo sus ataques únicamente contra objetivos militares y operativos militares.

Las seis fuentes con las que hemos hablado se hacen eco de esta afirmación y afirman que el extenso sistema de túneles de Hamás pasa deliberadamente por debajo de hospitales y escuelas; que los militantes de Hamás utilizan ambulancias para desplazarse y que innumerables activos militares se han situado cerca de edificios civiles. Las fuentes argumentan que muchos ataques israelíes matan a civiles como resultado de estas tácticas de Hamás, una caracterización que, según advierten los grupos de derechos humanos, pretende eludir la responsabilidad de Israel por causar las bajas.

Sin embargo, en contraste con las declaraciones oficiales del Ejército israelí, las fuentes explican que una de las principales razones del número sin precedentes de víctimas mortales de los actuales bombardeos de Israel es que el ejército ha atacado sistemáticamente a sus objetivos en sus domicilios privados, junto a sus familias, en parte porque desde el punto de vista de la inteligencia resulta más fácil señalar las casas familiares cuando se utilizan sistemas automatizados.

De hecho, varias fuentes subrayan que, a diferencia de los numerosos casos de operativos de Hamás que participaban en actividades militares desde zonas civiles, en el caso de los ataques sistemáticos para matar, el Ejército decide de manera rutinaria bombardear a los presuntos militantes cuando se encuentran en el interior de viviendas civiles desde las que no se realiza ninguna actividad militar. Esta elección, afirman, ilustra cómo está diseñado el sistema israelí de vigilancia generalizada en Gaza.

Las fuentes declaran a +972 y Local Call que, dado que todo el mundo en Gaza tenía una casa particular con la que se le podía asociar, los sistemas de vigilancia del ejército podían vincular fácil y automáticamente a los individuos con las casas familiares. Para identificar en tiempo real el momento en que los agentes entran en sus casas, se han desarrollado varios programas informáticos automáticos adicionales. Estos programas rastrean a miles de individuos simultáneamente, identifican cuándo están en casa y envían una alerta automática al oficial de objetivos, que señala la casa para bombardearla. Uno de estos softwares de seguimiento que damos a conocer aquí por primera vez se llama ¿Dónde está papá?.

Pones cientos [de objetivos] en el sistema y esperas a ver a quién puedes matar”, dice una fuente con conocimiento del sistema. “Se llama caza amplia: copias y pegas las listas que produce el sistema de objetivos.

La evidencia de esta política se aprecia también claramente en los datos: durante el primer mes de la guerra, más de la mitad de las víctimas mortales –6 120 personas– pertenecían a 1 340 familias, muchas de las cuales fueron completamente aniquiladas mientras se encontraban dentro de sus casas, según cifras de la ONU . La proporción de familias enteras bombardeadas en sus casas en la guerra actual es mucho mayor que en la operación israelí de 2014 contra Gaza (que era hasta esta última la guerra más mortífera de Israel en la Franja), lo que sugiere aún más la envergadura de esta política.

Otra fuente señala que cuando disminuía el ritmo de asesinatos se añadían más objetivos a sistemas como ¿Dónde está papá? para localizar a personas que entraban en sus casas y que, por tanto, podían ser bombardeadas. La decisión de a quién incluir en los sistemas de seguimiento la pueden tomar oficiales de rango relativamente bajo en la jerarquía militar.

Un día añadí totalmente por mi cuenta unos 1 200 nuevos objetivos al sistema [de seguimiento], porque el número de ataques [que estábamos llevando a cabo] había disminuido, cuenta la fuente. Para mí tenía sentido. En retrospectiva, parece que tomé una decisión comprometida. Y se trata de decisiones que no se toman a alto nivel.

Las fuentes confirman que en las dos primeras semanas de la guerra se introdujeron inicialmente “varios miles” de objetivos en programas de localización como ¿Dónde está papá?. Entre ellos estaban todos los miembros de la unidad de élite de las fuerzas especiales de Hamás, la Nujba, todos los operativos antitanque de Hamás y cualquiera que hubiera entrado en Israel el 7 de octubre. Pero al poco tiempo, la lista de asesinados se amplió drásticamente.

Al final eran todos [señalados por Lavender], explica una fuente. Decenas de miles. Esto ocurrió unas semanas más tarde, cuando las brigadas israelíes entraron en Gaza, y ya había menos personas no implicadas [es decir, civiles] en las zonas del norte”. Según esta fuente, incluso algunos menores fueron señalados por Lavender como objetivos de los bombardeos. “Normalmente, los operativos tienen más de 17 años pero esa no era una condición.

Lavender y sistemas como ¿Dónde está papá? se han combinado así con efectos letales, matando a familias enteras, según las fuentes. A. explica que agregando un nombre de las listas generadas por Lavender al sistema de seguimiento domiciliario ¿Dónde está papá?, la persona señalada será puesta bajo vigilancia constante y puede ser atacada tan pronto como ponga un pie en su casa, derrumbándola sobre todos los que haya dentro.

Digamos que calculamos que hay un [operativo] de Hamás más 10 [civiles en la casa], dijo A. Por lo general, estos 10 serán mujeres y niños. Es absurdo pero al final resulta que la mayoría de la gente a la que has matado eran mujeres y niños.

PASO 3: ELEGIR UN ARMA
Normalmente llevábamos a cabo los ataques con ‘bombas tontas’”

Una vez que Lavender ha marcado un objetivo para el asesinato, que el personal del Ejército ha verificado que son hombres y que el software de seguimiento ha localizado el objetivo en su casa, la siguiente etapa es elegir la munición con la que bombardearlos.

En diciembre de 2023, la CNN informó que, de acuerdo con estimaciones de la inteligencia estadounidense, alrededor del 45 % de las municiones utilizadas por la fuerza aérea israelí en Gaza eran bombas tontas, que se sabe que causan más daños colaterales que las bombas guiadas. En respuesta a la información de la CNN, un portavoz del Ejército citado en el artículo declaró:

Como militares comprometidos con el derecho internacional y con un código de conducta moral, estamos dedicando vastos recursos a minimizar el daño a los civiles a los que Hamás ha obligado a asumir el papel de escudos humanos. Nuestra guerra es contra Hamás, no contra el pueblo de Gaza.

Sin embargo, tres fuentes de inteligencia aseguran a +972 y Local Call que los militantes jóvenes señalados por Lavender que han sido asesinados lo han sido con bombas tontas con el único fin de ahorrar armamento más caro. Se infiere, explica una fuente, que el Ejército no atacaría un objetivo menor si viviera en un edificio alto por no malgastar una bomba de piso para matarlo, que es más precisa y costosa (con un efecto colateral más limitado). Pero si un objetivo menor vive en un edificio de pocos pisos, el ejército está autorizado a matarlo con una bomba tonta a él y a todos los que estén dentro.

Así ha ocurrido con todos los objetivos menores, afirma C., quien ha utilizado varios programas automatizados en la guerra actual. La única pregunta es: ¿se puede atacar el edificio con daños colaterales? Porque normalmente los ataques los llevamos a cabo con bombas tontas, y eso significa literalmente destruir toda la casa encima de sus ocupantes. Pero incluso si un ataque se desvía, no importa: inmediatamente pasas al siguiente objetivo. Gracias al sistema, los objetivos nunca terminan. Tienes otros 36 000 esperando.

PASO 4: AUTORIZAR BAJAS CIVILES
Atacamos sin apenas considerar los daños colaterales”

Una fuente declara que al atacar a operativos jóvenes, incluidos aquellos señalados por sistemas de inteligencia artificial como Lavender, el número de civiles que se les permitía matar junto a cada objetivo se fijó durante las primeras semanas de la guerra en 20. Otra fuente afirma que el número establecido era 15. Estos “grados de daño colateral”, como los designan los militares, se han aplicado ampliamente a todos los militantes jóvenes sospechosos, dicen las fuentes, independientemente de su rango, importancia militar y edad, y sin ningún examen específico caso por caso para sopesar la ventaja militar de asesinarlos frente al daño previsto que se pueda causar en civiles.

Según A., que en la guerra actual ha sido oficial en una dependencia de operaciones de objetivos, el departamento de derecho internacional del ejército nunca antes había dado una “aprobación tan amplia” a un grado de daño colateral tan elevado.

No se trata sólo de que se pueda matar a cualquier persona que sea soldado de Hamás, lo cual está claramente permitido y es legítimo en términos del derecho internacional, dice A.. Pero te dicen directamente: ‘estás autorizado a matarlo junto con muchos civiles.

Cada persona que ha llevado el uniforme de Hamás en los dos años últimos podía ser bombardeada junto a 20 [civiles asesinados como] daños colaterales, incluso sin un permiso especial, continúa A. En la práctica, el principio de proporcionalidad no existe.

Según A., ésta ha sido la política durante la mayor parte del tiempo en que ha estado al cargo. Los militares únicamente redujeron el grado de daño colateral mucho más tarde. “En este cálculo, también podrían ser 20 niños para un operativo joven… Lo cierto es que antes no era así”, explica A. Cuando se le pregunta sobre el fundamento de seguridad en que se basa esta política, A. responde: “Letalidad”.

El grado de daño colateral predeterminado ha contribuido a acelerar la creación masiva de objetivos utilizando la máquina Lavender porque se ahorra tiempo. B. afirma que el número de civiles que se les permitió matar en la primera semana de la guerra por cada militante joven sospechoso señalado con IA era 15, pero que esta cifra “ha ido aumentando y disminuyendo” con el tiempo.

Al principio atacamos casi sin considerar los daños colaterales, señala B. sobre la primera semana después del 7 de octubre. En la práctica no contábamos a las personas [en cada casa bombardeada], porque lo cierto es que no podíamos saber si estaban en la casa o no. Una semana después comenzaron las restricciones en los daños colaterales. La cifra descendió de 15 a 5, lo que nos hizo muy difícil atacar porque si toda la familia estaba en casa, no podíamos bombardearla. Luego volvieron a aumentar el número.

Sabíamos que mataríamos a más de 100 civiles”
Según las fuentes, ahora el Ejército israelí ya no genera objetivos humanos jóvenes masivos para bombardear viviendas de civiles, en parte debido a la presión estadounidense. El hecho de que la mayoría de las casas en la Franja de Gaza ya estuvieran destruidas o dañadas, y que casi toda la población haya sido desplazada, también ha alterado la capacidad del Ejército para depender de bases de datos de inteligencia y programas automatizados de localización de viviendas.

E. afirma que el bombardeo masivo de combatientes jóvenes tuvo lugar sólo en la primera o segunda semana de la guerra y luego se detuvo principalmente para no desperdiciar bombas. “Existe una economía de las municiones”, afirma. “Siempre temieron que hubiera [una guerra] en el norte [con Hezbolá en Líbano]. Han dejado de atacar a este tipo de personas [jóvenes]”.

Sin embargo, los ataques aéreos contra altos comandantes de Hamás siguen su curso y las fuentes señalan que para dichos ataques, el Ejército está autorizando el asesinato de cientos de civiles por cada objetivo, una política oficial que no tiene precedente histórico alguno en Israel, ni siquiera en las recientes operaciones militares estadounidenses.

En el ataque al comandante del Batallón Shuja’iya, sabíamos que mataríamos a más de 100 civiles”, recuerda B. sobre el bombardeo del 2 de diciembre que, según el portavoz de las FDI, tenía como objetivo asesinar a Wisam Farhat. “Para mí, psicológicamente, fue inusual. Más de 100 civiles: fue cruzar una línea roja.

Amjad Al Sheij, joven palestino de Gaza, denunció que muchos de sus familiares murieron en ese bombardeo. Residente de Shuja’iya, al este de Ciudad Gaza, ese día estaba en un supermercado local cuando escuchó cinco explosiones que rompieron los vidrios de las ventanas. “Corrí a la casa de mi familia pero ya no había edificios”, declara Al Sheij a +972 Local Call.

La calle se llenó de gritos y humo. Bloques residenciales enteros se convirtieron en montañas de escombros y cráteres profundos. La gente empezó a buscar entre el cemento con las manos y yo también, buscando señales de la casa de mi familia.

La esposa y la hija pequeña de Al Sheij sobrevivieron protegidas de los escombros por un armario que les cayó encima, pero encontró a otros 11 miembros de su familia, entre ellos sus hermanas, hermanos y los hijos pequeños de estos, muertos bajo los escombros. Según el grupo de derechos humanos B’Tselem, el bombardeo de ese día destruyó decenas de edificios, mató a decenas de personas y enterró a centenares bajo las ruinas de sus hogares.

Asesinaron a familias enteras”
Fuentes de inteligencia confirmaron a +972 y Local Call que participaron en ataques aún más mortíferos. Para asesinar a Ayman Nufal, comandante de la Brigada Central de Gaza de Hamás, una fuente afirma que el Ejército autorizó el 17 de octubre el asesinato de unos 300 civiles y la destrucción de varios edificios en ataques aéreos en el campo de refugiados de Al Bureij, apoyándose en una ubicación imprecisa de Nufal. Imágenes por satélite y vídeos del lugar muestran la destrucción de varios grandes edificios de apartamentos de varias plantas.

En el ataque se arrasaron entre 16 y 18 casas, dijo Amru Al Jatib, residente del campamento. No podíamos distinguir entre un apartamento y otro; se mezclaron todos entre los escombros y encontramos partes de cuerpos humanos por todas partes.

Al Jatib recordó posteriormente que se sacaron unos 50 cadáveres de entre los escombros y que unas 200 personas resultaron heridas, muchas de ellas de gravedad. Pero eso fue sólo el primer día. Los residentes del campamento pasaron cinco días sacando muertos y heridos.

Nael Al Bahisi, paramédico, fue uno de los primeros en llegar al lugar. Contó entre 50 y 70 víctimas ese primer día.

En un momento dado comprendimos que el objetivo del ataque era el comandante de Hamás, Ayman Nufal. Le asesinaron a él y a otra mucha gente que desconocía que él se hallaba allí. Mataron a familias enteras con niños.

Otra fuente de inteligencia nos confiesa que a mediados de diciembre, para intentar asesinar a Mohammed Shabaneh, comandante de la Brigada Rafah de Hamas (que no está claro si murió o no en el ataque), el ejército destruyó un edificio alto en Rafah y asesinó a “docenas de civiles”. La fuente afirma que los altos comandantes suelen esconderse en túneles que atraviesan edificios civiles por debajo y, que, por lo tanto, la decisión de asesinarlos con un ataque aéreo necesariamente mata a civiles.

“La mayoría de los heridos eran niños y niñas”, dijo Wael Al Sir, de 55 años, que presenció el ataque a gran escala y que algunos habitantes de Gaza creen que fue un intento de asesinato. Según indicó a +972 y Local Call, el bombardeo del 20 de diciembre destruyó un “bloque residencial entero” y mató al menos a 10 niños.

Había una política completamente permisiva con respecto a las víctimas de las operaciones [de bombardeo], tan permisiva que en mi opinión contenía un elemento de venganza, afirma D., una fuente de inteligencia. El objetivo central era asesinar altos mandos [de Hamás y de YIP] para lo cual estaban dispuestos a matar a cientos de civiles. Hicimos un cálculo: cuántos civiles para un comandante de brigada, cuántos para un comandante de batallón, etcétera.

Había regulaciones pero eran muy indulgentes, dije E., otra de nuestras fuentes de inteligencia. Hemos matado a personas como daños colaterales de dos dígitos si no de tres. Estas son cosas que no habían sucedido antes.

Una tasa de “daños colaterales” tan elevada es excepcional no sólo en comparación con lo que el Ejército israelí consideraba anteriormente aceptable, sino también en comparación con las guerras de EE UU en Iraq, Siria y Afganistán.

El general Peter Gersten, subcomandante de Operaciones e Inteligencia en la operación para luchar contra ISIS en Iraq y Siria, declaró a una revista de defensa estadounidense en 2021 que un ataque con daños colaterales a 15 civiles se desviaba del procedimiento; para llevarlo a cabo tenía que obtener un permiso especial del jefe del Comando Central de EEUU, el general Lloyd Austin, hoy secretario de Defensa.

Con Osama Bin Laden se aceptaría un valor de bajas de no combatientes [NCV por sus siglas en inglés] de 30 pero si se tratase de un comandante de bajo nivel, su NCV normalmente era cero, dijo Gersten. Hemos estado en cero durante la mayor parte del tiempo.

Nos dijeron: ‘Lo que puedas bombardear, lo bombardeas’”
Todas las fuentes entrevistadas para esta investigación han declarado que las masacres de Hamás el 7 de octubre y el secuestro de rehenes influyeron enormemente en la política incendiaria del Ejército y en el grado de los daños colaterales. “Al principio el ambiente era doloroso y vengativo”, señala B., al que el ejército reclutó inmediatamente después del 7 de octubre para servir en una dependencia de operaciones de objetivos.

Las reglas eran muy indulgentes. Derribaron cuatro edificios cuando supieron que el objetivo señalado estaba en uno de ellos. Fue una locura. Se produjo una desajuste: por un lado, la gente aquí estaba frustrada porque no estábamos atacando lo suficiente; por otro, al final del día te dabas cuenta de que habían muerto otros mil habitantes de Gaza, la mayoría civiles.

Había histeria en las filas profesionales, explica D., también reclutado inmediatamente después del 7 de octubre. Nadie tenía ni idea de cómo reaccionar. Lo único que supieron hacer fue empezar a bombardear como locos para intentar desmantelar las capacidades de Hamás.

D. subraya que no se les dijo explícitamente que el objetivo del ejército era la “venganza” pero apunta que

en el momento en que todo objetivo relacionado con Hamás pasa a ser legítimo y se aprueban casi todos los daños colaterales, queda claro que se va a asesinar a miles de personas. Incluso aunque oficialmente todos los objetivos estuvieran conectados con Hamás, cuando la política es tan permisiva pierde todo significado.

A. también utiliza el término “venganza” para describir la atmósfera dentro del ejército tras el 7 de octubre. “Nadie pensó en qué hacer después, cuando acabe la guerra, o si será posible vivir en Gaza y qué harán con todo ello. Nos dijeron: ahora tenemos que arruinar a Hamás cueste lo que cueste. Todo lo que podáis bombardear, lo bombardeáis”.

B., fuente de inteligencia de alto rango, señala que en retrospectiva esta política “desproporcionada” de asesinar palestinos y palestinas en Gaza también pone en peligro a los israelíes. Esta fue una de las razones por las que decidió aceptar nuestra entrevista.

A corto plazo estamos más seguros porque dañamos a Hamás. Pero no así a largo plazo. Creo que todas las familias consternadas de Gaza –que son casi todas– tendrán más motivación para [unirse a] Hamás de aquí a 10 años. Y les será será mucho más fácil reclutarlos.

En declaraciones a +972 Local Call, el Ejército israelí ha negado casi todo lo que nos han transmitido las fuentes y pretende que

cada objetivo se examina individualmente, que se hace una evaluación individual de la utilidad militar y de los daños colaterales que se prevén en cada ataque. (…) Las FDI no llevan a cabo ataques cuando el daño colateral previsto es excesivo en relación con la ventaja militar.

PASO 5: CÁLCULO DEL DAÑO COLATERAL
El modelo no estaba conectado con la realidad”

Según fuentes de inteligencia, el cálculo del Ejército israelí respecto al número de civiles que se prevé que matarán en cada casa junto a un objetivo (un procedimiento analizado en una investigación previa de +972 y Local Call) se lleva a cabo con la ayuda de herramientas automáticas e inexactas. En las guerras anteriores, el personal de inteligencia dedicaba mucho tiempo a verificar cuántas personas había en una casa que iba a ser bombardeada, y el número de civiles que podían matar figuraba como parte de un “archivo de objetivos”. Sin embargo, después del 7 de octubre se abandonó esta verificación exhaustiva a favor de la automatización.

En octubre, The New York Times informó sobre un sistema operado desde una base especial en el sur de Israel que recopila información de teléfonos móviles de la Franja de Gaza y que ha proporcionado a los militares una estimación en tiempo real del número de palestinos y palestinas que han huido del norte de la Franja de Gaza hacia el sur. El general de brigada Udi Ben Muha declaró a The New York Times que “no es un sistema cien por cien perfecto pero brinda la información necesaria para tomar una decisión”. El sistema funciona por colores: el rojo marca las zonas donde hay mucha gente, y el verde y el amarillo las zonas que han sido relativamente despejadas de residentes.

Las fuentes que han hablado con +972 Local Call describen un sistema similar para calcular los daños colaterales que se ha utilizado para decidir si bombardear o no un edificio de Gaza. Dicen que el software calculaba el número de civiles que residían en cada casa antes de la guerra (evaluando el tamaño del edificio y revisando su lista de residentes) y luego reducía esos números según la proporción de residentes que supuestamente habían evacuado el vecindario.

Por ejemplo, si el Ejército estimara que la mitad de los residentes de un barrio se habían ido, el programa contaría una casa que normalmente tenía 10 residentes como una que tiene cinco. Para ahorrar tiempo, según manifiestan las fuentes, el ejército no vigilaba las casas para comprobar cuántas personas vivían realmente allí, como se hacía en operaciones anteriores para determinar si la estimación del programa era exacta realmente.

Este modelo no se corresponde con la realidad, afirma una fuente. No había ninguna correlación entre los que estaban en la casa ahora, durante la guerra, y los que figuraban como viviendo allí antes de la guerra. [En una ocasión] bombardeamos una casa sin saber que dentro había varias familias escondidas juntas.

La fuente sostiene que a pesar de que el Ejército sabía que tales errores podían ocurrir, el modelo, aunque impreciso, se adoptó igualmente porque era más rápido. Como tal, sostiene la fuente, “el cálculo de los daños colaterales es completamente automático y estadístico” y produce incluso cifras que no son números enteros.

PASO 6: BOMBARDEAR UNA CASA FAMILIAR
“Matabas a una familia sin ningún motivo”

Las fuentes que han hablado con nosotros han expuesto que a veces ha transcurrido un intervalo de tiempo sustancial entre el momento en que los sistemas de seguimiento como ¿Dónde está papá? alertan a un oficial de que un objetivo ha entrado en su casa y el momento en que se produce el bombardeo en sí, lo que ha provocado la muerte de familias enteras sin llegar a alcanzar siquiera al objetivo del ejército. “Me ha pasado muchas veces que cuando atacábamos una casa la persona ni siquiera estaba en su interior”, dijo una fuente. “El resultado es que has matado a una familia sin ningún motivo”. Fueron tres las fuentes de inteligencia que nos contaron cómo habían sido testigos de un incidente en el que el ejército israelí bombardeó la casa privada de una familia, para acabar comprobando más tarde que el objetivo del asesinato ni siquiera estaba dentro de la casa: no se había realizado ninguna verificación adicional en tiempo real.

A veces [el objetivo] primero estaba en casa y luego por la noche se iba a dormir a otro lugar, por ejemplo bajo tierra, y no lo sabías, dice una de las fuentes. A veces vuelves a verificar la ubicación y a veces simplemente dices: Venga, va, ha estado en la casa en las últimas horas, así que puedes bombardear.

Otra fuente describe un incidente similar que le afectó y le motivó para acceder a ser entrevistado para esta investigación.

Entendimos que el objetivo estaba en su casa a las 20:00 h. Al final, la fuerza aérea bombardeó la casa a las 3 de la madrugada. Luego descubrimos que [en ese lapso de tiempo] se las arregló para trasladarse a otra casa con su familia. Había otras dos familias con niños en el edificio que bombardeamos”.

En las guerras anteriores contra Gaza, tras asesinar objetivos humanos, la inteligencia israelí llevaba a cabo procedimientos de evaluación de daños por bombas (BDA, por sus siglas en inglés), una verificación rutinaria posterior al ataque para comprobar si el mando superior había siso asesinado y cuántos civiles habían caído a la vez. Como revelamos en una investigación anterior de +972 y Local Call, esto implicaba hacer escuchas telefónicas de familiares que perdieron a sus seres queridos. Sin embargo, las fuentes afirman que en la guerra actual, al menos en relación con los militantes jóvenes señalados por IA, este procedimiento se ha abolido para ahorrar tiempo. Las fuentes afirman desconocer cuántos civiles mueren realmente en cada ataque, y en el caso de los presuntos combatientes de bajo rango de Hamás y Yihad Islámica señalados por AI, ni siquiera saben si habían conseguido asesinar al propio objetivo.

En una investigación anterior publicada en enero, una fuente de inteligencia declaró a Local Call:

No sabes exactamente ni a cuántos has matado ni a quién. Sólo cuando se trata de altos funcionarios de Hamás se sigue el procedimiento de BDA. En el resto de los casos, da igual. Recibes un informe de la fuerza aérea sobre si el edificio ha sido bolado y eso es todo. No tienes idea de cuántos daños colaterales has producido; inmediatamente pasas al siguiente objetivo. El énfasis se pone en crear tantos objetivos como sea posible lo más rápido posible.

El Ejército israelí puede dejar atrás cada ataque sin preocuparse por el número de víctimas, pero Amjad Al Sheij, el residente de Shuja’iya que perdió a 11 miembros de su familia en el bombardeo del 2 de diciembre, todavía sigue buscando cadáveres junto a sus vecinos.

Aún ahora hay cadáveres bajo los escombros, afirma. Catorce edificios residenciales fueron bombardeados con sus residentes dentro. Algunos de mis familiares y vecinos todavía están enterrados.

Tomado de Viento Sur

Foto de portada: Combo de imágenes donde se muestra el ataque a Hadi Ali Mustafa, un miembro de Hamás, en el Líbano, el 13 de marzo de 2024. Fuente: @FDIONLINE

Foto del avatar
Redacción Cubaperiodistas
Sitio de la Unión de Periodistas de Cuba

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *