Bombardeos asistidos por la Inteligencia Artificial

El uso de la inteligencia artificial “Lavender” en la ofensiva israelí sobre Gaza: Revelaciones inquietantes de una nueva investigación

Una reciente investigación publicada por la revista israelí +972 ha revelado detalles alarmantes sobre el uso de inteligencia artificial en la actual ofensiva militar de Israel en la Franja de Gaza. Según el informe, el ejército israelí ha estado utilizando una plataforma de inteligencia artificial conocida como “Lavender”, la cual ha jugado un papel central en la campaña de bombardeos llevada a cabo contra la población palestina.

La información proviene de seis oficiales de inteligencia israelíes, quienes trabajaron directamente con sistemas de inteligencia artificial durante la operación. Según sus declaraciones, el programa Lavender ha sido empleado como una herramienta automatizada para identificar y seleccionar objetivos humanos, en su mayoría presuntos militantes de Hamas y otros grupos armados, que luego eran sometidos a ataques aéreos sin intervención significativa de personal humano en la fase de selección inicial.

Automatización del conflicto

El reporte describe a Lavender como un sistema que cruza datos masivos sobre comunicaciones, movimientos, afiliaciones, redes sociales y otros indicadores, con el fin de asignar una probabilidad de militancia a cada individuo. El sistema habría generado hasta 37.000 nombres de palestinos como blancos potenciales, incluyendo sus hogares, que posteriormente fueron atacados por la fuerza aérea israelí.

Lo más inquietante del informe es la fuerte dependencia del ejército de esta tecnología, lo que implicaría que decisiones letales fueron tomadas con base en sugerencias algorítmicas, con una verificación humana mínima o superficial. De acuerdo con las fuentes consultadas, la revisión por parte de oficiales era, en muchos casos, apenas una formalidad que duraba segundos, confiando plenamente en la precisión del sistema.

Implicaciones éticas y humanitarias

Este tipo de uso de inteligencia artificial plantea serias preocupaciones éticas y legales. La idea de delegar decisiones de vida o muerte a una máquina, por más sofisticada que sea, genera interrogantes sobre la responsabilidad, la proporcionalidad y la precisión de los ataques. Organizaciones internacionales de derechos humanos han advertido que la automatización de objetivos militares puede derivar en violaciones al derecho internacional humanitario, especialmente si no se distingue adecuadamente entre combatientes y civiles.

Además, la amplitud del número de objetivos sugeridos —decenas de miles— hace pensar que el umbral de sospecha aplicado por Lavender pudo haber sido demasiado bajo, lo que podría explicar la alta cifra de víctimas civiles reportadas en esta ofensiva, entre ellas mujeres, niños y ancianos.

Una guerra del futuro… hoy

El uso de tecnologías como Lavender refleja una tendencia creciente a la militarización de la inteligencia artificial, algo que expertos en tecnología, ética y defensa han venido advirtiendo desde hace años. Mientras que sus defensores argumentan que estos sistemas pueden aumentar la eficiencia y reducir el riesgo para los soldados, sus críticos denuncian que la deshumanización del conflicto puede conducir a errores masivos y a una menor rendición de cuentas.

Por ahora, ni el ejército israelí ni el gobierno han respondido oficialmente a las acusaciones detalladas por la revista +972. Sin embargo, las revelaciones han generado un nuevo llamado desde diversos sectores internacionales a examinar el uso de tecnologías autónomas en el contexto de la guerra, y a exigir transparencia, regulación y supervisión estricta de su implementación.

Autor

Compartir
Shareable URL
Prev Post

Anexión en Cisjordania: la advertencia israelí contra una Palestina independiente

Next Post

Continúa la ofensiva israelí y aumentan las víctimas en Gaza

Seguir leyendo