En septiembre, el Reino Unido, Estados Unidos, Israel y la Unión Europea firmaron el primer tratado internacional sobre inteligencia artificial (IA). Este acuerdo legal obliga a los países a implementar medidas de protección contra cualquier amenaza que la IA pueda representar para los derechos humanos, la democracia y el estado de derecho. Aunque este es un paso positivo hacia la creación de estándares internacionales para la gobernanza de la IA, aún existe una gran brecha entre la rápida innovación en IA y la capacidad de los gobiernos para regular esta tecnología. Esto representa riesgos significativos para las democracias y los individuos, y en el centro de estos riesgos se encuentra la gestión de datos.
Los países que lideren la adopción segura de la IA serán los que obtengan los mayores beneficios de esta tecnología. Para que el Reino Unido logre su objetivo de convertirse en una superpotencia global en IA, necesita encontrar el equilibrio adecuado entre proporcionar supervisión regulatoria y fomentar la innovación. Esto implica establecer políticas claras de IA que protejan los datos y los derechos de los propietarios de contenido.
Hasta ahora, Europa tiene una ventaja en IA debido a la claridad en la regulación, lo cual es vital para el futuro desarrollo de la tecnología. La Ley de IA de la UE, que entró en vigor en agosto de este año, es la primera ley integral de IA en el mundo. Esta ley exige que las empresas cumplan con requisitos de seguridad, transparencia y calidad, dependiendo del nivel de riesgo asociado con sus aplicaciones de IA.
Fuera de la Ley de IA de la UE, también están surgiendo otras regulaciones importantes, y el Reino Unido y Estados Unidos están trabajando en el desarrollo de sus propios marcos regulatorios para la IA. Se espera que la Ley de IA de la UE sirva como modelo para futuras regulaciones en este ámbito. Según IDC, el 60% de los gobiernos en todo el mundo adoptarán un enfoque de gestión de riesgos para enmarcar sus políticas de IA para 2028.
El Reino Unido tiene una gran oportunidad para liderar en la regulación de la IA junto a otras potencias importantes como la UE. Sin embargo, esto requerirá acciones audaces y políticas efectivas que fomenten la competencia y defiendan los derechos de los ciudadanos y creadores de contenido.
Para lograr políticas de IA efectivas, el gobierno debe abordar los principales problemas en la regulación de la IA, especialmente en lo que respecta a los datos. Actualmente, los modelos de lenguaje grandes (LLMs) pueden utilizar datos de propiedad privada siempre que estén anonimizados. Esto otorga demasiado poder a unas pocas grandes empresas tecnológicas y no protege adecuadamente la propiedad intelectual. Es necesario afirmar más derechos sobre los datos y proteger los derechos de los propietarios de datos y creadores de contenido.
Para garantizar la privacidad de los datos y la propiedad intelectual, los gobiernos deben introducir disposiciones regulatorias como la divulgación obligatoria de las fuentes de datos utilizadas para entrenar los LLMs, así como el consentimiento y la compensación por el uso de información protegida por derechos de autor y datos privados. Proteger la privacidad de los datos y la propiedad intelectual debe ser nuestra prioridad en la era de la IA, aunque parece ser un tema poco discutido.
Además, es importante considerar de manera más integral quién debe tener voz en el futuro de la IA. Limitar las discusiones sobre la regulación de la IA a las grandes empresas tecnológicas puede ser peligroso. Esta tecnología impacta a toda nuestra sociedad, y debemos asegurarnos de que se escuchen una variedad de puntos de vista. No debemos crear dinámicas de mercado poco saludables al concentrar un poder excesivo en manos de unos pocos actores que tienen una influencia desproporcionada sobre cómo se desarrolla y regula la IA.
Uno de los mayores desafíos para regular la IA es que los modelos de IA generativa de código abierto más utilizados ofrecen un control limitado sobre quién puede acceder a los datos utilizados en estos LLMs y cómo se han utilizado. Hacer que estos modelos sean accesibles para muchos desarrolladores o usuarios aumenta el riesgo de uso indebido por parte de actores malintencionados, así como el número de actores que deben ser considerados en cualquier enfoque regulatorio.
Para minimizar el riesgo de uso indebido de la IA, los gobiernos deben fomentar la adopción de modelos de IA privados, especialmente en sectores como servicios financieros, atención médica, seguros y el sector público, donde la protección de datos es crucial. Con la IA privada, los usuarios pueden construir un modelo de IA a medida para obtener los resultados necesarios y entrenarlo con los datos que tienen, asegurando que sus datos nunca salgan de su control. Esto permitirá a las organizaciones mantener seguras sus innovaciones y los datos de clientes, pacientes o ciudadanos, al tiempo que reduce el riesgo de uso indebido o filtración de datos.
La seguridad de los datos es el principal tema que los reguladores deben abordar hoy para regular la IA. Esto no solo implica proteger los datos que alimentan los algoritmos de IA, sino también asegurar los derechos de los creadores de contenido y consumidores.
En estos tiempos de transformación, necesitamos un entorno que permita una innovación amplia, gobernada por marcos regulatorios claros que ofrezcan oportunidades justas para todos. Las implicaciones de la IA afectan todos los rincones de nuestra sociedad, y debemos asegurarnos de que todos puedan participar en cómo nuestras vidas serán impactadas por ella.
El Reino Unido puede desempeñar un papel de liderazgo en el escenario global de la IA, pero para hacerlo, necesita equilibrar cuidadosamente la apertura a la innovación con la supervisión regulatoria, mientras toma medidas rápidas para abordar los riesgos más urgentes de la IA y proteger los derechos de los ciudadanos y propietarios de contenido.