La Unión Europea ha estado trabajando durante años en un conjunto de reglas sobre inteligencia artificial conocido como la Ley de IA de la UE. En los próximos meses y años, se hablará mucho más sobre esta regulación, ya que se acercan fechas importantes para su cumplimiento. A continuación, te presentamos un resumen de la ley y sus objetivos.
La UE busca fomentar la confianza de los ciudadanos en la inteligencia artificial (IA) para impulsar la innovación en este campo. La idea es que las tecnologías de IA sean “centradas en el ser humano” y que las empresas tengan reglas claras para desarrollar sus aplicaciones de aprendizaje automático. Aunque la automatización puede aumentar la productividad, también puede generar riesgos si los resultados son deficientes o si la IA no respeta los derechos individuales.
El objetivo de la Ley de IA es promover el uso de la IA y desarrollar un ecosistema local, estableciendo condiciones que reduzcan los riesgos de fallos graves. Los legisladores creen que tener reglas claras aumentará la confianza de los ciudadanos en la IA. Aunque al principio hubo preocupaciones de que regular la IA podría perjudicar la innovación en Europa, hoy en día el debate se centra en cómo regularla adecuadamente.
No todas las aplicaciones de IA están reguladas por esta ley, ya que muchas quedan fuera de su alcance. Las aplicaciones de IA que sí están incluidas se clasifican según su nivel de riesgo. Existen casos de uso que se consideran de “riesgo inaceptable”, como técnicas manipulativas, que están prohibidos. Sin embargo, hay excepciones a estas prohibiciones.
Las aplicaciones de “alto riesgo”, como las utilizadas en infraestructura crítica, educación y salud, deben someterse a evaluaciones de conformidad antes de ser lanzadas al mercado. Esto significa que los desarrolladores deben demostrar que cumplen con requisitos en áreas como calidad de datos, transparencia y ciberseguridad. Además, los sistemas de alto riesgo utilizados por entidades públicas deben registrarse en una base de datos pública de la UE.
También hay una categoría de “riesgo medio”, que se aplica a sistemas de IA como chatbots, donde se requiere informar a los usuarios que están interactuando con contenido generado por IA. Todas las demás aplicaciones de IA se consideran de bajo riesgo y no están reguladas, aunque se anima a los desarrolladores a seguir buenas prácticas.
La Ley de IA también incluye requisitos específicos para modelos de IA de “propósito general”, que son fundamentales para muchas aplicaciones de IA. Estos modelos han ganado una posición importante en el mercado y pueden influir en los resultados de la IA a gran escala. La rápida evolución de la IA generativa ha llevado a cambios en la legislación, y los legisladores han propuesto reglas adicionales para estos modelos.
La Ley de IA entró en vigor en toda la UE el 1 de agosto de 2024, y se establecieron plazos para el cumplimiento de diferentes componentes de la ley. Esto incluye reglas sobre casos de uso prohibidos y requisitos de transparencia. La idea es dar tiempo a las empresas para adaptarse y a los reguladores para definir cómo se verá el cumplimiento en este contexto innovador.
La supervisión de los modelos de IA de propósito general se centraliza a nivel de la UE, mientras que la aplicación de las reglas para otros sistemas de IA se descentraliza, lo que significa que las autoridades de cada país miembro serán responsables de evaluar el cumplimiento. Las sanciones por violaciones pueden ser significativas, alcanzando hasta el 7% de la facturación global en casos de uso prohibido.
En resumen, la Ley de IA de la UE busca establecer un marco regulatorio que fomente la innovación y la confianza en la inteligencia artificial, mientras se gestionan los riesgos asociados a su uso. A medida que la tecnología evoluciona, también lo harán las reglas que la rigen.