El Departamento de Defensa de EE. UU. está explorando activamente la aplicación de la inteligencia artificial en el campo militar y está cooperando con empresas líderes en inteligencia artificial como OpenAI y Anthropic. Esta colaboración tiene como objetivo aumentar la eficiencia del Departamento de Defensa respetando estrictamente el principio de no utilizar tecnología de inteligencia artificial para armas letales. El artículo explora el papel de la IA en la toma de decisiones militares, así como la controversia ética sobre el poder de toma de decisiones sobre armas autónomas de la IA, y demuestra la actitud cautelosa y la estricta supervisión del Pentágono de la aplicación de la tecnología de IA.
A medida que la tecnología de inteligencia artificial avanza rápidamente, los principales desarrolladores de IA como OpenAI y Anthropic están trabajando arduamente para trabajar con el ejército de los EE. UU., buscando mejorar la eficiencia del Pentágono y al mismo tiempo garantizar que su tecnología de IA no se utilice para armas letales. La Dra. Radha Plumb, directora digital y de IA del Pentágono, dijo en una entrevista con TechCrunch que la IA no se utiliza actualmente en armas, pero proporciona al Departamento de Defensa ventajas significativas en la identificación, seguimiento y evaluación de amenazas.
Nota sobre la fuente de la imagen: la imagen es generada por IA y el proveedor de servicios de autorización de imágenes Midjourney
El Dr. Plumb mencionó que el Pentágono está acelerando la ejecución de la "cadena de muerte", un proceso que implica identificar, rastrear y neutralizar amenazas, involucrando sensores, plataformas y sistemas de armas complejos. La IA generativa muestra su potencial en las etapas de planificación y estrategia de la cadena de destrucción. Señaló que la IA puede ayudar a los comandantes a responder rápida y eficazmente ante amenazas. En los últimos años, el Pentágono se ha acercado cada vez más a los desarrolladores de IA. En 2024, empresas como OpenAI, Anthropic y Meta relajaron sus políticas de uso para permitir que las agencias de inteligencia y defensa de EE. UU. utilicen sus sistemas de IA, pero aún prohibieron el uso de estas tecnologías de IA para fines que dañen a los humanos. Este cambio ha llevado a una rápida expansión de la cooperación entre las empresas de IA y los contratistas de defensa. Meta, por ejemplo, se asoció en noviembre con empresas como Lockheed Martin y Booz Allen para aplicar su modelo Llama AI al sector de defensa. Anthropic ha llegado a una cooperación similar con Palantir. Aunque los detalles técnicos específicos de estas colaboraciones no están claros, el Dr. Plumb dijo que la aplicación de la IA en la etapa de planificación puede entrar en conflicto con las políticas de uso de múltiples desarrolladores líderes. Ha habido una acalorada discusión en la industria sobre si las armas de IA deberían tener la capacidad de tomar decisiones de vida o muerte. El director ejecutivo de Anduril, Palmer Luckey, mencionó que el ejército estadounidense tiene un largo historial de compra de sistemas de armas autónomos. Sin embargo, el Dr. Plumb desestimó esto y enfatizó que, en cualquier caso, alguien debe estar involucrado en la toma de la decisión de usar la fuerza. Señaló que la idea de que los sistemas automatizados tomen decisiones de vida o muerte de forma independiente es demasiado binaria y la realidad es mucho más compleja. El sistema de inteligencia artificial del Pentágono es una colaboración entre humanos y máquinas, con altos líderes involucrados en el proceso de toma de decisiones. Aspectos destacados: La IA está brindando al Pentágono ventajas significativas en la identificación y evaluación de amenazas, impulsando una toma de decisiones militares más eficiente. Los desarrolladores de IA están trabajando cada vez más estrechamente con el Pentágono, pero siempre han insistido en que la tecnología de IA no se utilice para dañar a los humanos. Continúan las discusiones sobre si las armas de IA deberían tener capacidades de toma de decisiones de vida o muerte, y el Pentágono enfatiza que los humanos siempre están involucrados.En definitiva, la IA tiene amplias perspectivas de aplicación en el ámbito militar, pero sus cuestiones éticas y de seguridad también deben tratarse con cautela. Cómo evitar el abuso de la tecnología de inteligencia artificial y al mismo tiempo garantizar la seguridad nacional será una cuestión importante que requerirá atención y resolución continuas en el futuro.