¿Puede Estados Unidos regular la inteligencia artificial de manera efectiva? Aún no está claro. En los últimos meses, los responsables de políticas han logrado avances, pero también han enfrentado obstáculos, lo que muestra lo difícil que es crear leyes que controlen esta tecnología. En marzo, Tennessee se convirtió en el primer estado en proteger a los artistas de voz de la clonación no autorizada por inteligencia artificial. Este verano, Colorado adoptó un enfoque basado en niveles de riesgo para la política de IA. En septiembre, el gobernador de California, Gavin Newsom, firmó varias leyes relacionadas con la seguridad de la IA, algunas de las cuales exigen que las empresas revelen detalles sobre su entrenamiento de IA. Sin embargo, Estados Unidos aún carece de una política federal de IA comparable a la Ley de IA de la UE. A nivel estatal, la regulación sigue enfrentando grandes obstáculos. Después de una larga lucha con intereses especiales, Newsom vetó el proyecto de ley SB 1047, que habría impuesto amplias exigencias de seguridad y transparencia a las empresas que desarrollan IA. Otro proyecto de ley en California que apuntaba a los distribuidores de deepfakes en redes sociales fue suspendido este otoño a la espera de un juicio.
A pesar de esto, hay motivos para el optimismo, según Jessica Newman, co-directora del AI Policy Hub en UC Berkeley. En un panel sobre gobernanza de IA en TechCrunch Disrupt 2024, Newman señaló que muchos proyectos de ley federales, aunque no fueron escritos pensando en la IA, aún se aplican a ella, como las leyes de protección al consumidor y anti-discriminación. “A menudo escuchamos que Estados Unidos es como un ‘Lejano Oeste’ en comparación con la UE”, dijo Newman, “pero creo que eso está exagerado y la realidad es más matizada”.
La Comisión Federal de Comercio ha obligado a las empresas que recolectan datos de manera encubierta a eliminar sus modelos de IA y está investigando si la venta de startups de IA a grandes empresas tecnológicas viola las regulaciones antimonopolio. Además, la Comisión Federal de Comunicaciones ha declarado ilegales las llamadas robóticas con voces generadas por IA y ha propuesto una regla para que se divulgue el contenido generado por IA en la publicidad política. El presidente Joe Biden también ha intentado establecer ciertas reglas sobre IA. Hace aproximadamente un año, Biden firmó una orden ejecutiva sobre IA que apoya las prácticas de informes y evaluación voluntarias que muchas empresas de IA ya estaban implementando. Una consecuencia de esta orden fue la creación del Instituto de Seguridad de IA (AISI), un organismo federal que estudia los riesgos en los sistemas de IA. El AISI, que opera dentro del Instituto Nacional de Estándares y Tecnología, tiene asociaciones de investigación con importantes laboratorios de IA como OpenAI y Anthropic. Sin embargo, el AISI podría disolverse con una simple derogación de la orden ejecutiva de Biden. En octubre, una coalición de más de 60 organizaciones pidió al Congreso que aprobara una legislación para codificar el AISI antes de fin de año. “Creo que todos nosotros, como estadounidenses, compartimos el interés de mitigar los posibles inconvenientes de la tecnología”, dijo Elizabeth Kelly, directora del AISI.
¿Hay esperanza para una regulación integral de la IA en Estados Unidos? El fracaso del SB 1047, que Newman describió como un proyecto de ley de “toque ligero” con la participación de la industria, no es muy alentador. El senador estatal de California, Scott Wiener, autor del SB 1047, se enfrentó a la oposición de muchos en Silicon Valley, incluidos tecnólogos destacados como el científico jefe de IA de Meta, Yann LeCun. A pesar de esto, Wiener, quien también participó en el panel de Disrupt, dijo que no habría redactado el proyecto de ley de manera diferente y confía en que una regulación amplia de la IA prevalecerá eventualmente. “Creo que sentó las bases para futuros esfuerzos”, afirmó. “Esperemos que podamos hacer algo que reúna a más personas, porque la realidad que todos los grandes laboratorios ya han reconocido es que los riesgos [de la IA] son reales y queremos probarlos”.
De hecho, Anthropic advirtió la semana pasada sobre una posible catástrofe de IA si los gobiernos no implementan regulaciones en los próximos 18 meses. Los opositores han intensificado su retórica. El lunes pasado, el fundador de Khosla Ventures, Vinod Khosla, calificó a Wiener de “totalmente desinformado” y “no calificado” para regular los verdaderos peligros de la IA. Microsoft y Andreessen Horowitz también emitieron un comunicado en contra de las regulaciones de IA que podrían afectar sus intereses financieros. Sin embargo, Newman sugiere que la presión para unificar el creciente mosaico de reglas de IA a nivel estatal eventualmente dará lugar a una solución legislativa más sólida. En lugar de un consenso sobre un modelo de regulación, los responsables de políticas estatales han introducido cerca de 700 proyectos de ley sobre IA solo este año. “Mi impresión es que las empresas no quieren un entorno de un sistema regulatorio fragmentado donde cada estado sea diferente”, dijo, “y creo que habrá una presión creciente para tener algo a nivel federal que brinde más claridad y reduzca parte de esa incertidumbre”.