A finales de septiembre, Brandon Tseng, cofundador de Shield AI, afirmó que las armas en EE. UU. nunca serían completamente autónomas, lo que significa que un algoritmo de inteligencia artificial tomaría la decisión final de matar a alguien. “El Congreso no quiere eso”, dijo Tseng a TechCrunch. “Nadie quiere eso”. Sin embargo, cinco días después, Palmer Luckey, cofundador de Anduril, mostró una apertura hacia las armas autónomas, cuestionando los argumentos en contra de ellas. Luckey comentó en una charla en la Universidad Pepperdine que los adversarios de EE. UU. utilizan frases atractivas, pero planteó que la moralidad de un arma como una mina terrestre, que no puede distinguir entre un autobús escolar y un tanque ruso, es cuestionable.
Shannon Prior, portavoz de Anduril, aclaró que Luckey no abogaba por que los robots decidieran matar por sí mismos, sino que estaba preocupado por “personas malas usando inteligencia artificial mala”. En el pasado, Silicon Valley ha sido cauteloso. Trae Stephens, cofundador de Luckey, mencionó que las tecnologías que están desarrollando permiten a los humanos tomar decisiones responsables sobre estos temas, asegurando que siempre haya una parte responsable en decisiones que puedan involucrar letalidad.
La postura del gobierno de EE. UU. es ambigua. Actualmente, el ejército no compra armas completamente autónomas, pero no prohíbe a las empresas fabricarlas ni venderlas a otros países. El año pasado, EE. UU. publicó nuevas pautas sobre la seguridad de la inteligencia artificial en el ámbito militar, que requieren la aprobación de altos funcionarios para cualquier nueva arma autónoma, aunque estas pautas son voluntarias. Funcionarios estadounidenses han dicho que “no es el momento adecuado” para considerar una prohibición vinculante sobre armas autónomas.
El mes pasado, Joe Lonsdale, cofundador de Palantir e inversor en Anduril, también mostró disposición para considerar armas completamente autónomas. En un evento del Hudson Institute, expresó su frustración por que esta cuestión se plantee como un simple sí o no. Propuso un escenario hipotético en el que China utiliza armas de IA, mientras que EE. UU. debe “presionar el botón cada vez que dispare”. Lonsdale instó a los responsables de políticas a adoptar un enfoque más flexible sobre el uso de IA en armas.
Activistas y grupos de derechos humanos han intentado sin éxito establecer prohibiciones internacionales sobre armas letales autónomas, a las que EE. UU. se ha negado a firmar. Sin embargo, la guerra en Ucrania podría haber cambiado la situación, proporcionando datos de combate y un campo de pruebas para los fundadores de tecnología de defensa. Actualmente, las empresas integran IA en sistemas de armas, aunque aún requieren que un humano tome la decisión final de matar.
Mientras tanto, funcionarios ucranianos han abogado por más automatización en las armas, con la esperanza de obtener una ventaja sobre Rusia. “Necesitamos máxima automatización”, dijo Mykhailo Fedorov, ministro de transformación digital de Ucrania, en una entrevista con The New York Times. Para muchos en Silicon Valley y Washington, el mayor temor es que China o Rusia implementen primero armas completamente autónomas, obligando a EE. UU. a actuar. En un debate de la ONU sobre armas de IA el año pasado, un diplomático ruso fue evasivo al respecto, indicando que las prioridades de la Federación Rusa son diferentes.
Lonsdale afirmó que el sector tecnológico debe educar a la Marina, al Departamento de Defensa y al Congreso sobre el potencial de la IA para “esperar estar un paso adelante de China”. Las empresas de Lonsdale y Luckey están trabajando para que el Congreso les preste atención. Anduril y Palantir han gastado más de 4 millones de dólares en cabildeo este año, según OpenSecrets.