El poderoso sistema de Inteligencia Artificial del ejército israelí que sugiere a quién matar en Gaza

El dispositivo identifica a posibles miembros de Hamás con datos muy cuestionables, asesinando a sus objetivos y a quienes se encuentran cerca.

Destrucción en Gaza. Foto: Reuters.

Él ejército israelí utiliza la tecnología militar más avanzada del mundo, incluidas armas respaldadas por Inteligencia artificial (IA). Uno de los más poderosos es Lavanda (lavanda) que tiene la capacidad de reconocer un objetivo para bombardearlo. Desde la guerra contra Bucle Del 7 de octubre de 2023, hasta el 24 de noviembre, el dispositivo identificó a 37.000 palestinos y mató a 15.000 de ellos, según medios israelíes como +972 Magazine y Local Call.

El sistema está diseñado para Atacar a las víctimas en sus hogares y especialmente de noche., por lo que puede reclamar la muerte de quienes lo rodean. En este sentido, el Automatización de objetivos militares humanos. Es una completa novedad en el mundo de la guerra y un falso positivo puede significar la muerte de inocentessegún una nota del medio El País.

Encuentra más vídeos

Sin embargo, desde Fuerzas de Defensa de Israel (FDI) Rechazaron la idea de que la máquina defina “si alguien es un terrorista”. En este sentido, detallaron que estas tecnologías “Son meras herramientas para los analistas en el proceso de identificación de objetivos”aunque las fuentes citadas –pertenecientes al Ejército y a servicios de inteligencia israelíes como la Unidad 8200– afirman que los oficiales siguen las recomendaciones de Lavender pero sin hacer comprobaciones.

Algunos de los parámetros para reconocer a un miembro de Hamás O el Jihad Islámica Están relacionados con monitorear si un individuo cambia de teléfono con frecuencia –algo que sucede muy a menudo en un contexto de conflicto– o el hecho de que sea hombre, ya que las mujeres no tienen cargos oficiales dentro del grupo armado.

Destrucción del hospital Al Shifa, Franja de Gaza. Foto: Reuters.

Como todos los sistemas que funcionan según estadísticas, Lavender tiene márgenes de error: al menos el 10% de sus víctimas no eran militantes de Hamás. Si se tienen en cuenta las mismas cifras admitidas por el Ejército israelí, cada objetivo indicado por el software implica numerosos asesinatos en un solo bombardeo.

Este sistema se combina con otro que tiene Israel como ¿Dónde está papá? (¿Dónde está papá?, en inglés) que rastrea individuos marcados y los bombardea al llegar a casa y con Evangelio (El evangelio) que Identifica edificios donde supuestamente opera Hamás. De esta manera, Lavender procesa información de los más de 2,3 millones de habitantes de Gaza y ofrece una puntuación del 1 al 100 para cada uno que depende del menor o mayor probabilidad de que sean miembros del grupo armado. Aquellos que obtienen la puntuación más alta mueren junto con quienes los rodean.

Te puede interesar:

La impresionante contribución millonaria de Jeff Bezos al proyecto de IA contra el cambio climático

¿Es legal utilizar armas como la Lavanda en una guerra?

“El ejército israelí utiliza la IA para aumentar los procesos de toma de decisiones de los operadores humanos. “Este uso es conforme al derecho internacional humanitario, tal como lo han aplicado las Fuerzas Armadas modernas en muchas guerras asimétricas desde el 11 de septiembre de 2001”, afirmó la jurista Magda Pacholska, investigadora del Instituto TMC Asser y especialista en la combinación de tecnologías disruptivas. y el derecho militar.

Además, el profesional agregó que el Ejército israelí utilizó este sistema de IA en la Operación Guardián de los Muros en 2021. Otros países como Francia, Estados Unidos y Países Bajos También lo utilizaron aunque contra estructuras materiales. “La novedad es que, esta vez, utiliza estos sistemas contra objetivos humanos”. subrayó el experto.

Destrucción del hospital Al Shifa, Franja de Gaza. Foto: Reuters. Destrucción del hospital Al Shifa, Franja de Gaza. Foto: Reuters.

Por otro lado, Arthur Holland Michel, encargado de informar sobre el uso de armas autónomas en conflictos armados para la ONU, afirmó que “lo que es diferente, y ciertamente sin precedentes, en el caso de Lavender en Gaza, es la escala y la velocidad a la que se utiliza el sistema. “La cantidad de personas que han sido identificadas en tan sólo unos meses es asombrosa”. “Otra diferencia crucial es que El tiempo entre la identificación del objetivo por parte del algoritmo y el ataque contra él parece haber sido a menudo muy corto. Eso indica que no hay mucha investigación en humanos en el proceso. Desde el punto de vista legal, esto podría ser problemático”, aseguró.

Luis Arroyo Zapatero, rector honorario de la Universidad de Castilla-La Mancha y especialista en Derecho Penal Internacional, afirmó que matar a civiles e infraestructuras civiles en una guerra es un crimen “contra la humanidad”. “Las muertes causadas como daño colateral son puros asesinatos. El sistema Lavender es directamente una máquina de matar civiles.ya que admite muertes colaterales de civiles de entre 10 y 100 personas más allá del objetivo preciso”, añadió el experto.

Situación en Gaza por el conflicto entre Israel y Hamás. Foto: REUTERS. Situación en Gaza por el conflicto entre Israel y Hamás. Foto: Reuters.

Además de bombardear sin discriminación, el Ejército israelí lleva tiempo vigilando a la población palestina, recopilando todo tipo de datos. Según el Washington Post, existe un programa:Lobo Azul– eso Registra los rostros de los residentes de Cisjordania, ya sean niños, adultos o ancianos, y los asocia con un nivel de “peligrosidad”. De esta forma, cuando los soldados ven gente en la calle, pueden observar un código que indica si arrestarlos o no. En Gaza se utiliza un sistema similar, según The New York Times.

“Reconocimiento facial en todas partes, drones, tecnología de espionaje…Este Estado es realmente una incubadora de tecnologías de vigilancia. Si vendes un producto, tienes que demostrar su eficacia en escenarios reales y en tiempo real. Eso es lo que está haciendo Israel”, dijo Cody O’Rourke, de la ONG Good Shepherd Collective, de Beit Sahour, una ciudad palestina al este de Belén. Además, el voluntario estadounidense que vive en Palestina desde hace dos décadas dijo que está en una lista negra y que por eso siempre lo retrasan en los puestos de control militares israelíes.

“Israel lleva décadas deslegitimando el proceso de paz con los palestinos, aunque nunca ha estado interesado en lograr la paz. Necesita que el mundo legitime su ocupación y utiliza la tecnología para mantener esa ocupación como tarjeta de presentación.”, escribió Antony Loewenstein en su libro El laboratorio palestino (Capitán Swing, 2024).

 
For Latest Updates Follow us on Google News
 

PREV Miseria en 10 años del líder “obrero” en Venezuela, dice ONG – DW – 30/04/2024 – .
NEXT Trump multado por insultos durante juicio penal – Juventud Rebelde – .