Un ciclo electoral agotador ha llegado a su fin. Donald Trump será el 47º presidente de los Estados Unidos, y con los republicanos controlando el Senado —y posiblemente la Cámara— sus aliados están listos para traer cambios significativos a los niveles más altos del gobierno. Esto tendrá un impacto notable en la industria de la inteligencia artificial (IA), que ha estado en gran medida en contra de las políticas federales. Trump ha afirmado repetidamente que planea desmantelar el marco de políticas de IA de Biden desde el “primer día” y se ha alineado con personas influyentes que han criticado las regulaciones, excepto las más ligeras.
La política de IA de Biden se implementó a través de una orden ejecutiva, conocida como la Orden Ejecutiva de IA, aprobada en octubre de 2023. La falta de acción del Congreso sobre la regulación llevó a esta orden, cuyos principios son voluntarios, no obligatorios. La Orden Ejecutiva de IA abarca desde el avance de la IA en la salud hasta el desarrollo de directrices para mitigar los riesgos de robo de propiedad intelectual. Sin embargo, dos de sus disposiciones más significativas —que han generado la ira de algunos republicanos— se refieren a los riesgos de seguridad de la IA y sus impactos en la seguridad en el mundo real. Una disposición exige a las empresas que desarrollan modelos de IA potentes que informen al gobierno sobre cómo están entrenando y asegurando estos modelos, y que proporcionen los resultados de pruebas diseñadas para detectar vulnerabilidades. La otra disposición instruye al Instituto Nacional de Estándares y Tecnología (NIST) a redactar directrices que ayuden a las empresas a identificar y corregir fallos en los modelos, incluidos sesgos.
La Orden Ejecutiva de IA logró mucho. En el último año, el Departamento de Comercio estableció el Instituto de Seguridad de IA de EE. UU. (AISI), un organismo para estudiar los riesgos en los sistemas de IA, incluidos aquellos con aplicaciones de defensa. También lanzó nuevo software para mejorar la confiabilidad de la IA y probó nuevos modelos de IA a través de acuerdos con OpenAI y Anthropic. Los críticos aliados a Trump argumentan que los requisitos de informes de la orden son onerosos y efectivamente obligan a las empresas a revelar sus secretos comerciales. Durante una audiencia en la Cámara en marzo, la representante Nancy Mace (R-SC) dijo que podrían “ahuyentar a posibles innovadores e impedir más avances como ChatGPT”. En una audiencia del Senado en julio, el compañero de fórmula de Trump, JD Vance, expresó su preocupación de que “los intentos de sobre-regulación preventiva” “consolidarían a los incumbentes tecnológicos que ya tenemos”. Vance también ha apoyado el antimonopolio, incluyendo los esfuerzos de la presidenta de la FTC, Lina Khan, quien está liderando investigaciones sobre las adquisiciones de empresas de tecnología por parte de grandes empresas de IA.
Varios republicanos han equiparado el trabajo del NIST sobre IA con la censura del discurso conservador. Acusan a la administración Biden de intentar dirigir el desarrollo de la IA con nociones liberales sobre desinformación y sesgo; el senador Ted Cruz (R-TX) criticó recientemente los “estándares de ‘seguridad’ de IA ‘woke'” del NIST como un “plan para controlar el discurso” basado en “daños sociales amorfos”. “Cuando sea reelegido”, dijo Trump en un mitin en Cedar Rapids, Iowa, el pasado diciembre, “cancelaré la orden ejecutiva de inteligencia artificial de Biden y prohibiré el uso de IA para censurar el discurso de los ciudadanos estadounidenses desde el primer día”.
Entonces, ¿qué podría reemplazar la Orden Ejecutiva de IA de Biden? Poco se puede deducir de las órdenes ejecutivas de IA que Trump firmó durante su último mandato, que fundaron institutos nacionales de investigación en IA y dirigieron a las agencias federales a priorizar la I+D en IA. Sus órdenes exigían que las agencias “protegieran las libertades civiles, la privacidad y los valores estadounidenses” al aplicar la IA, ayudaran a los trabajadores a adquirir habilidades relevantes para la IA y promovieran el uso de tecnologías “confiables”.
Durante su campaña, Trump prometió políticas que “apoyarían el desarrollo de IA basado en la libertad de expresión y el florecimiento humano”, pero se negó a entrar en detalles. Algunos republicanos han dicho que quieren que el NIST se enfoque en los riesgos de seguridad física de la IA, incluida su capacidad para ayudar a adversarios a construir armas biológicas (lo cual también aborda la orden de Biden). Sin embargo, también han evitado respaldar nuevas restricciones sobre la IA, lo que podría poner en peligro partes de la guía del NIST.
De hecho, el destino del AISI, que está dentro del NIST, es incierto. Aunque tiene un presupuesto, director y asociaciones con institutos de investigación en IA de todo el mundo, el AISI podría ser disuelto con una simple derogación de la orden de Biden. En una carta abierta en octubre, una coalición de empresas, organizaciones sin fines de lucro y universidades pidió al Congreso que promulgara una legislación que codificara el AISI antes de fin de año.
Trump ha reconocido que la IA es “muy peligrosa” y que requerirá enormes cantidades de energía para desarrollarse y funcionar, lo que sugiere una disposición a enfrentar los crecientes riesgos de la IA. Con esto en mente, Sarah Kreps, científica política que se centra en la política de defensa de EE. UU., no espera que surjan regulaciones importantes sobre la IA de la Casa Blanca en los próximos cuatro años. “No sé si las opiniones de Trump sobre la regulación de la IA llegarán al nivel de antipatía que lo lleve a derogar la Orden Ejecutiva de IA de Biden”, dijo a TechCrunch.
Dean Ball, investigador en la Universidad George Mason, coincide en que la victoria de Trump probablemente presagia un régimen regulatorio ligero, uno que dependerá de la aplicación de la ley existente en lugar de la creación de nuevas leyes. Sin embargo, Ball predice que esto podría alentar a los gobiernos estatales, particularmente en bastiones demócratas como California, a intentar llenar el vacío. Los esfuerzos liderados por los estados están en marcha. En marzo, Tennessee aprobó una ley que protege a los artistas de voz de la clonación por IA. Este verano, Colorado adoptó un enfoque basado en riesgos para el despliegue de IA. Y en septiembre, el gobernador de California, Gavin Newsom, firmó docenas de proyectos de ley relacionados con la seguridad de la IA, algunos de los cuales exigen que las empresas publiquen detalles sobre su entrenamiento de IA. Los legisladores estatales han introducido cerca de 700 propuestas de legislación sobre IA solo este año. “Cómo responderá el gobierno federal a estos desafíos es incierto”, dijo Ball.
Hamid Ekbia, profesor en la Universidad de Syracuse que estudia asuntos públicos, cree que las políticas proteccionistas de Trump podrían tener implicaciones regulatorias para la IA. Espera que la administración Trump imponga controles de exportación más estrictos a China, por ejemplo, incluidos los controles sobre las tecnologías necesarias para desarrollar IA. La administración Biden ya tiene en marcha varias prohibiciones sobre la exportación de chips y modelos de IA. Sin embargo, algunas empresas chinas están utilizando supuestas lagunas para acceder a las herramientas a través de servicios en la nube.
“La regulación global de la IA sufrirá como consecuencia [de los nuevos controles], a pesar de las circunstancias que exigen más cooperación global”, dijo Ekbia. “Las ramificaciones políticas y geopolíticas de esto pueden ser enormes, permitiendo usos más autoritarios y opresivos de la IA en todo el mundo”. Si Trump impone aranceles sobre la tecnología necesaria para construir IA, también podría restringir el capital necesario para financiar la I+D en IA, dice Matt Mittelsteadt, otro investigador en la Universidad George Mason. Durante su campaña, Trump propuso un arancel del 10% sobre todas las importaciones de EE. UU. y del 60% sobre los productos fabricados en China.
“Quizás el mayor impacto provenga de las políticas comerciales”, dijo Mittelsteadt. “Se espera que cualquier posible arancel tenga un impacto económico masivo en el sector de la IA”. Por supuesto, es temprano. Y aunque Trump en su mayoría evitó abordar la IA en la campaña, gran parte de su plataforma —como su plan para restringir las visas H-1B y abrazar el petróleo y el gas— podría tener efectos secundarios en la industria de la IA.
Sandra Wachter, profesora de ética de datos en el Instituto de Internet de Oxford, instó a los reguladores, independientemente de sus afiliaciones políticas, a no perder de vista los peligros de la IA por sus oportunidades. “Estos riesgos existen independientemente de dónde te sitúes en el espectro político”, dijo. “Estos daños no creen en la geografía y no les importa la línea de partido. Solo espero que la gobernanza de la IA no se reduzca a un tema partidista; es un tema que nos afecta a todos, en todas partes. Todos debemos trabajar juntos para encontrar buenas soluciones globales”.