Para identificar más fácilmente objetivos de ataques aéreos en Medio Oriente, el ejército de Estados Unidos utilizó inteligencia artificial (IA) durante el mes de febrero. El uso de esta tecnología se ha intensificado desde el ataque de Hamás a Israel el 7 de octubre.
Aprendizaje automático y visión por computadora al servicio del ejército
Bombarderos y aviones de combate estadounidenses llevaron a cabo ataques aéreos contra siete instalaciones en Irak y Siria el 2 de febrero. Más tarde ese mes, se llevaron a cabo ataques similares para neutralizar combatientes y depósitos de armas en Yemen, así como buques de guerra en el Mar Rojo. El punto común entre estas dos operaciones: un pronunciado uso de la inteligencia artificial.
El ejército estadounidense ha utilizado la visión por computadora para analizar áreas de riesgo y determinar si es necesario atacarlas. Gracias a los algoritmos de aprendizaje automático desarrollados por el Pentágono es posible identificar armas, vehículos militares, etc. En definitiva, cualquier objeto que pueda considerarse una amenaza. En febrero se ordenaron nada menos que 85 ataques aéreos tras el uso de inteligencia artificial.
Schuyler Moore, director de tecnología del Comando Central de EE. UU., dijo Bloomberg que estas soluciones se utilizaron como medio de recomendación. En concreto, la IA no elige en lugar del humano, que siempre tiene la última palabra para validar el objetivo. Los distintos ejercicios realizados a finales del año pasado demostraron que estos sistemas eran menos eficientes que los militares a la hora de determinar la fecha y hora del ataque o la mejor arma a utilizar en una operación.
Las soluciones desarrolladas por el Ejército de Estados Unidos forman parte del Proyecto Maven, una iniciativa del Pentágono lanzada en 2017 para acelerar la adopción de la IA a nivel militar. Inicialmente, Google era socio del proyecto, pero el gigante tecnológico se retiró, enfrentándose a fuertes desafíos éticos internos.
El Pentágono no se rindió y reveló en 2022 su plan para desarrollar una IA militar responsable. Una iniciativa para buscar la confianza de las Fuerzas Armadas y de la ciudadanía. En octubre pasado, el Departamento de Defensa de los Estados Unidos decidió acelerar el proceso tras el estallido de la guerra entre Israel y Gaza. Si bien estas herramientas sólo se utilizaron en pruebas, la superpotencia decidió utilizarlas en misiones reales, en tierra.