Israel utiliza inteligencia artificial (IA) para bombardear rápidamente objetivos en Gaza: “Están dirigiendo una fábrica de asesinatos en masa”


‘El Evangelio’: así se llama un programa de inteligencia artificial (IA) que el ejército israelí utiliza para encontrar y bombardear rápidamente objetivos en Gaza. Se probó por primera vez en 2021 y aumentó el número de objetivos de 50 por año a 100 por día. Sin embargo, los expertos advierten que no hay control sobre los datos que genera el programa. Y una fuente con conocimiento de cómo Israel usa El Evangelio lo llama una “fábrica de asesinatos en masa, con énfasis en la cantidad y no en la calidad”.

MIRAR. Israel retoma la lucha contra Hamás en la Franja de Gaza

Ya en los primeros días de la ofensiva israelí tras los ataques del 7 de octubre, la intensidad de los bombardeos en la Franja de Gaza fue sorprendente. El resultado es fácil de adivinar: según el Ministerio de Salud palestino, ya se han producido más de 15.000 muertes, una cifra que, según los expertos, podría ser exacta.

©AFP

Resulta que una misteriosa unidad de inteligencia militar controlada por inteligencia artificial está detrás de los atentados. Periodistas del periódico británico ‘The Guardian’, del sitio de noticias israelí-palestino ‘+972 Magazine’ y del sitio de investigación ‘Local Call’ recopilaron información y pudieron hablar con expertos sobre cómo exactamente el ejército israelí utiliza ‘El Evangelio’. Y eso plantea muchas preguntas.

Velocidad del rayo

El programa determina rápidamente los objetivos “mediante la extracción rápida y automática de inteligencia”, según el ejército israelí. Luego, esos objetivos son vistos por una persona real.

El exjefe del ejército Aviv Kochavi dijo en una entrevista antes de la guerra que se trataba de una máquina “que produce enormes cantidades de datos de manera mucho más efectiva que los humanos y los traduce en objetivos para ataques”. Señaló que se había utilizado en la guerra de 11 días con Hamás en 2021 y que aumentó el número de objetivos de 50 por año a 100 por día, la mitad de los cuales fueron atacados. También le permitió apuntar no sólo a militantes de Hamás de alto rango, sino también a miembros de niveles inferiores.

foto_noticias
© foto_noticias

No se sabe qué datos utiliza el programa para determinar objetivos, pero los expertos sospechan que incluye imágenes de drones, comunicaciones interceptadas y datos de vigilancia.

Según Israel, el ataque se llevó a cabo con gran precisión y se intentó evitar víctimas civiles. “Utilizamos un algoritmo para determinar cuántos ciudadanos hay en un determinado lugar. Nos da una señal verde, amarilla o roja, como un semáforo”, afirma una fuente de ‘The Guardian’.

Permiso

Varias fuentes confirman que si se concede permiso para atacar, por ejemplo, la casa de un miembro de Hamás, la unidad sabe de antemano cuántos civiles se espera que mueran. Ésa es la puntuación de «daños colaterales» que figura en el expediente de cada objetivo.

Una fuente que trabajó en la unidad hasta 2021 testifica que la decisión final de atacar la toma el comandante de la unidad de turno, “algunos de los cuales son más fáciles de disparar que otros”. También dijo que había casos en los que había dudas sobre un objetivo y, en su opinión, habían muerto «un número desproporcionado de civiles».

Lista de Verificación

Otra fuente explica cómo se determinan los objetivos automáticamente y se utiliza una lista de verificación. “Realmente parece una fábrica. Trabajamos rápido y no hay tiempo para profundizar en el objetivo. Por lo tanto, somos evaluados en función del número de goles que logramos generar”.

foto_noticias
© foto_noticias

Una tercera fuente dice que el ejército israelí dirige «una fábrica de asesinatos en masa». “El énfasis está en la cantidad, no en la calidad. Un humano mira los objetivos de cada ataque, pero no tiene que dedicarle demasiado tiempo”.

Los expertos están preocupados por el nuevo desarrollo. Richard Moyes, de Article 36, una ONG que quiere proteger a los civiles de las armas, señala, entre otras cosas, que los comandantes no necesariamente saben cómo AI elabora las listas de objetivos y no pueden hacer preguntas adicionales. «El peligro es que, a medida que las personas se vuelven más dependientes de estos sistemas, se convierten en engranajes de un proceso mecanizado y pierden la capacidad de tener en cuenta los riesgos para los ciudadanos».

Lesión

Según Moyes, también hay poca evidencia de que la IA reduzca el número de víctimas civiles al determinar los objetivos con mayor precisión. «Basta con mirar el daño que es visible en la Franja de Gaza».

Foto Noticias
© Foto Noticias

Israel sabía con años de antelación que Hamás estaba planeando un ataque sangriento: “El mayor error de juicio en la historia de Israel”



ttn-es-34