La inteligencia artificial (IA) está transformando rápidamente muchas industrias, desde la medicina hasta el comercio, pero una de las áreas más críticas y controvertidas es la militar. El uso de la IA en conflictos plantea cuestiones que van mucho más allá de la eficacia operativa: riesgos de una escalada incontrolada, violaciones del derecho internacional humanitario, delegación de decisiones de vida o muerte a sistemas automatizados y, en última instancia, la preocupante perspectiva de excluir completamente a los humanos de las cadenas de mando y control militares.
Actualmente, muchas tecnologías militares basadas en IA están diseñadas como herramientas de apoyo a la toma de decisiones, no como sistemas completamente autónomos que eligen por sí mismos cuándo y a quién atacar. La inteligencia artificial se utiliza principalmente para analizar enormes cantidades de datos, identificar posibles objetivos, apoyar la logística y acelerar procesos de toma de decisiones que un ser humano por sí solo no sería capaz de gestionar con la misma velocidad.
Sin embargo, lo que está surgiendo en el conflicto entre Irán, Israel y Estados Unidos muestra cómo esta distinción se está volviendo cada vez más sutil y potencialmente peligrosa. El caso de la escuela Minab, alcanzada por un misil Tomahawk que causó cientos de víctimas civiles, muestra cómo la integración entre los sistemas de análisis automático y las decisiones operativas puede amplificar los errores ya presentes en los datos. Según las reconstrucciones, el mando militar utilizó información de inteligencia obsoleta, quizás integrada o procesada por sistemas de análisis basados en inteligencia artificial, para acelerar la operación militar. En un escenario donde la IA ayuda a generar, filtrar o clasificar objetivos, la velocidad de toma de decisiones aumenta, pero al mismo tiempo se reduce el tiempo de verificación humana.
Por tanto, el problema no es sólo técnico sino sistémico. La IA no decide formalmente dar en el blanco, pero influye en la cadena de decisiones que conduce a esta elección. Herramientas como Maven Smart System, que agrega datos de satélites, sensores y comunicaciones, le permiten identificar patrones y sugerir objetivos a una velocidad sin precedentes. Pero si los datos iniciales son incorrectos o incompletos, la IA corre el riesgo de amplificar el error a escala industrial, haciendo que tragedias como la de Minab sean más probables.
Lo más preocupante es que todo esto está sucediendo mientras se consolida un complejo militar-industrial centrado en la IA, en el que los gobiernos y las grandes empresas tecnológicas compiten por la supremacía estratégica. Los sistemas desarrollados por empresas como Anthropic u OpenAI, integrados en plataformas de análisis de datos de empresas como Palantir Technologies, se utilizan cada vez más para inteligencia, planificación militar y simulaciones operativas. Si bien oficialmente siguen siendo herramientas de apoyo, la línea entre “ayudar” y “determinar” una decisión militar rápidamente se desdibuja cuando es la IA la que filtra y organiza la información en la que se basa el ataque.