Los principales desarrolladores de inteligencia artificial, como OpenAI y Anthropic, están buscando una forma de vender su software al ejército de Estados Unidos. Quieren ayudar al Pentágono a ser más eficiente, pero sin que su IA cause daño a las personas. Actualmente, estas herramientas no se utilizan como armas, pero están dando al Departamento de Defensa una “ventaja significativa” para identificar, rastrear y evaluar amenazas, según la Dra. Radha Plumb, responsable digital y de IA del Pentágono.
Plumb explicó que están mejorando la rapidez con la que pueden ejecutar el “kill chain”, que es el proceso militar para identificar y eliminar amenazas. La IA generativa está siendo útil en las fases de planificación y estrategia de este proceso. La relación entre el Pentágono y los desarrolladores de IA es relativamente nueva. En 2024, OpenAI, Anthropic y Meta cambiaron sus políticas de uso para permitir que las agencias de inteligencia y defensa de EE. UU. usen sus sistemas de IA, pero aún prohíben que su IA cause daño a humanos.
A pesar de esto, ha comenzado una especie de “cita rápida” entre empresas de IA y contratistas de defensa. Meta se asoció con Lockheed Martin y Booz Allen para llevar sus modelos de IA a las agencias de defensa. Anthropic se unió a Palantir, y OpenAI hizo un trato similar con Anduril. Otras empresas, como Cohere, también están colaborando con Palantir.
A medida que la IA generativa demuestra su utilidad en el Pentágono, podría llevar a Silicon Valley a relajar sus políticas de uso de IA y permitir más aplicaciones militares. Plumb mencionó que la IA generativa puede ayudar a jugar diferentes escenarios, lo que permite a los comandantes pensar creativamente sobre las opciones de respuesta ante amenazas.
No está claro qué tecnología está utilizando el Pentágono para este trabajo, ya que usar IA generativa en el “kill chain” podría violar las políticas de uso de varios desarrolladores de modelos. Por ejemplo, la política de Anthropic prohíbe usar sus modelos para causar daño a la vida humana. En respuesta a preguntas sobre esto, el CEO de Anthropic, Dario Amodei, defendió el trabajo militar, argumentando que no tiene sentido rechazar el uso de IA en defensa.
Recientemente, ha surgido un debate sobre si se deben permitir armas de IA que tomen decisiones de vida o muerte. Algunos argumentan que el ejército de EE. UU. ya tiene armas que lo hacen. Sin embargo, Plumb rechazó la idea de que el Pentágono use armas completamente autónomas, afirmando que siempre habrá humanos involucrados en la decisión de usar la fuerza.
El término “autonomía” ha generado debates en la industria tecnológica sobre cuándo los sistemas automatizados se vuelven verdaderamente independientes. Plumb sugirió que el uso de sistemas de IA en el Pentágono es una colaboración entre humanos y máquinas, donde los líderes toman decisiones activas durante todo el proceso.
Las asociaciones militares no siempre han sido bien recibidas por los empleados de Silicon Valley. El año pasado, varios empleados de Amazon y Google fueron despedidos tras protestar contra los contratos militares de sus empresas. Sin embargo, la respuesta de la comunidad de IA ha sido más moderada. Algunos investigadores, como Evan Hubinger de Anthropic, creen que el uso de IA en las fuerzas armadas es inevitable y que es crucial trabajar directamente con el ejército para asegurar un uso responsable.