Una de las pocas oficinas del gobierno de EE. UU. dedicada a evaluar la seguridad de la inteligencia artificial (IA) está en peligro de ser desmantelada si el Congreso no decide autorizarla. El Instituto de Seguridad de IA de EE. UU. (AISI), un organismo federal que estudia los riesgos en los sistemas de IA, fue creado el noviembre pasado como parte de la Orden Ejecutiva sobre IA del presidente Joe Biden. El AISI opera dentro del NIST, una agencia del Departamento de Comercio que desarrolla guías para el uso de diversas tecnologías.
Aunque el AISI tiene un presupuesto, un director y una asociación de investigación con su contraparte en el Reino Unido, el Instituto de Seguridad de IA del Reino Unido, podría cerrarse con la simple derogación de la orden ejecutiva del presidente Biden. Chris MacKenzie, director senior de comunicaciones de Americans for Responsible Innovation, un grupo de presión de IA, advirtió que si otro presidente derogara la Orden Ejecutiva sobre IA, desmantelaría el AISI. Donald Trump ha prometido derogar esta orden, por lo que autorizar formalmente el AISI en el Congreso garantizaría su existencia, sin importar quién esté en la Casa Blanca.
Además de asegurar el futuro del AISI, autorizar esta oficina podría llevar a un financiamiento más estable y a largo plazo para sus iniciativas por parte del Congreso. Actualmente, el AISI cuenta con un presupuesto de alrededor de 10 millones de dólares, una cantidad relativamente pequeña considerando la concentración de importantes laboratorios de IA en Silicon Valley. MacKenzie explicó que los legisladores tienden a dar prioridad a entidades formalmente autorizadas por el Congreso, ya que estas tienen un respaldo amplio y están destinadas a perdurar más allá de la administración actual.
Hoy, una coalición de más de 60 empresas, organizaciones sin fines de lucro y universidades instó al Congreso a promulgar una legislación que codifique el AISI antes de que termine el año. Entre los firmantes se encuentran OpenAI y Anthropic, que han firmado acuerdos con el AISI para colaborar en investigación, pruebas y evaluación de IA. Tanto el Senado como la Cámara de Representantes han avanzado en proyectos de ley bipartidistas para autorizar las actividades del AISI, aunque han enfrentado oposición de algunos legisladores conservadores, como el senador Ted Cruz (R-Texas), quien ha pedido que se reduzcan los programas de diversidad en la versión del Senado del proyecto de ley del AISI.
Es cierto que el AISI es una organización relativamente débil desde el punto de vista de la aplicación de normas, ya que sus estándares son voluntarios. Sin embargo, grupos de expertos y coaliciones de la industria, así como gigantes tecnológicos como Microsoft, Google, Amazon e IBM, que firmaron la carta mencionada, ven al AISI como la vía más prometedora para establecer estándares de IA que puedan servir de base para futuras políticas.
También hay preocupación entre algunos grupos de interés sobre que permitir que el AISI se cierre podría arriesgar el liderazgo de EE. UU. en IA frente a naciones extranjeras. Durante una cumbre de IA en Seúl en mayo de 2024, líderes internacionales acordaron formar una red de Institutos de Seguridad de IA que incluiría agencias de Japón, Francia, Alemania, Italia, Singapur, Corea del Sur, Australia, Canadá y la Unión Europea, además del Reino Unido y EE. UU.
Jason Oxman, presidente y CEO del Consejo de la Industria de Tecnología de la Información, una asociación comercial de la industria de TI, declaró que los miembros del Congreso pueden asegurar que EE. UU. no se quede atrás en la carrera global de IA al autorizar permanentemente el Instituto de Seguridad de IA y proporcionar certeza sobre su papel crítico en el avance de la innovación y adopción de IA en EE. UU. Urgió al Congreso a atender el llamado de acción de la industria, la sociedad civil y la academia para aprobar la legislación bipartidista necesaria antes de que termine el año.