La inteligencia artificial (IA) está en todas partes: en las noticias, en tu trabajo y en tu teléfono. Parece que no puedes escapar de ella. Sin embargo, hay algo que quizás no hayas notado: la nueva Ley de IA de la Unión Europea (UE), que busca garantizar la seguridad y el cumplimiento de los derechos fundamentales, al mismo tiempo que fomenta la innovación.
Si estás en la UE y utilizas IA en tu organización, ya sea como proveedor, usuario, importador, distribuidor o fabricante de sistemas de IA, deberás realizar cambios para cumplir con esta nueva legislación. Las regulaciones también se aplican a empresas fuera de la UE que sirvan al mercado europeo.
Las sanciones por no cumplir con la ley son severas, con multas que oscilan entre 750,000 y 35,000,000 euros, o entre el 1% y el 7% de la facturación anual global de la empresa, lo que sea mayor, dependiendo de la gravedad de la infracción. Una multa de 35 millones de euros es una cantidad considerable, por lo que es crucial entender bien la legislación.
La Ley de IA busca establecer un marco legal para asegurar el “desarrollo confiable” de los sistemas de IA, priorizando su uso seguro, la transparencia y principios éticos. La regulación clasifica los sistemas en cuatro categorías: riesgo inaceptable, alto riesgo, riesgo limitado y riesgo mínimo.
Los sistemas de riesgo inaceptable son aquellos que la UE considera peligrosos para las personas y están prohibidos, enfrentando las multas más altas por incumplimiento. Ejemplos incluyen el puntaje social y la manipulación del comportamiento.
Los sistemas de alto riesgo no están prohibidos, pero deben cumplir con estrictos requisitos, ya que pueden afectar los derechos y la seguridad de las personas. Ejemplos son las evaluaciones de crédito y salud, y los sistemas de acceso a empleo o educación. Los desarrolladores y usuarios de estos modelos tienen varias obligaciones, como supervisión humana y gestión de riesgos.
Los sistemas de riesgo limitado requieren transparencia, asegurando que los usuarios sepan que están interactuando con un modelo de IA, como los chatbots. Los sistemas de riesgo mínimo son aquellos que no caen en ninguna de las categorías anteriores, como los filtros de spam.
Existen algunas excepciones para los sistemas prohibidos. La ley permite ciertos sistemas de identificación biométrica para la aplicación de la ley, pero en general, la tecnología estará prohibida para empresas no afiliadas a la ley.
Si tu negocio utiliza IA, deberás trabajar en la implementación de estas regulaciones. Actualiza o crea tus políticas y procedimientos de IA, ya que serán revisados en caso de problemas. Realiza una auditoría completa de los sistemas de IA y crea un inventario, identificando los modelos que usas y evaluando su riesgo.
Es fundamental capacitar a tu personal y aumentar la conciencia sobre el uso de estos sistemas. La Ley de IA probablemente cambiará con el tiempo, así que mantente informado y adapta tus políticas según sea necesario.