El CEO de Meta, Mark Zuckerberg, ha prometido que algún día la inteligencia artificial general (IAG), que se define como una IA capaz de realizar cualquier tarea que un humano puede hacer, estará disponible para todos. Sin embargo, en un nuevo documento de políticas, Meta sugiere que hay ciertas situaciones en las que podría no lanzar un sistema de IA altamente capaz que desarrolló internamente. Este documento, llamado Marco de IA Fronteriza, identifica dos tipos de sistemas de IA que la empresa considera demasiado arriesgados para ser liberados: los sistemas de “alto riesgo” y los de “riesgo crítico”.
Meta define que tanto los sistemas de “alto riesgo” como los de “riesgo crítico” pueden ayudar en ciberseguridad, ataques químicos y biológicos. La diferencia es que los sistemas de “riesgo crítico” podrían resultar en un “resultado catastrófico que no se puede mitigar en el contexto de implementación propuesto”. Por otro lado, los sistemas de alto riesgo podrían facilitar un ataque, pero no de manera tan confiable como los sistemas de riesgo crítico.
¿A qué tipo de ataques nos referimos? Meta da algunos ejemplos, como la “compromiso automatizado de extremo a extremo de un entorno corporativo protegido por buenas prácticas” y la “proliferación de armas biológicas de alto impacto”. La lista de posibles catástrofes en el documento de Meta no es exhaustiva, pero incluye aquellas que la empresa considera “las más urgentes” y plausibles como resultado directo de liberar un sistema de IA potente.
Sorprendentemente, según el documento, Meta clasifica el riesgo del sistema no basándose en una prueba empírica específica, sino en la opinión de investigadores internos y externos, que son revisados por “decisores de alto nivel”. ¿Por qué? Meta afirma que no cree que la ciencia de la evaluación sea “suficientemente robusta como para proporcionar métricas cuantitativas definitivas” para decidir el nivel de riesgo de un sistema.
Si Meta determina que un sistema es de alto riesgo, la empresa limitará el acceso a este internamente y no lo lanzará hasta implementar medidas para “reducir el riesgo a niveles moderados”. En cambio, si un sistema se considera de riesgo crítico, Meta implementará protecciones de seguridad no especificadas para evitar que el sistema sea extraído y detendrá su desarrollo hasta que se pueda hacer menos peligroso.
El Marco de IA Fronteriza de Meta, que la empresa dice que evolucionará con el cambiante panorama de la IA, parece ser una respuesta a las críticas sobre el enfoque “abierto” de la compañía en el desarrollo de sistemas. Meta ha adoptado una estrategia de hacer su tecnología de IA disponible abiertamente, aunque no de código abierto en el sentido comúnmente entendido, en contraste con empresas como OpenAI que optan por restringir sus sistemas detrás de una API.
Para Meta, el enfoque de lanzamiento abierto ha sido tanto una bendición como una maldición. La familia de modelos de IA de la compañía, llamada Llama, ha acumulado cientos de millones de descargas. Sin embargo, Llama también ha sido utilizada por al menos un adversario de EE.UU. para desarrollar un chatbot de defensa.
Al publicar su Marco de IA Fronteriza, Meta también podría estar buscando contrastar su estrategia de IA abierta con la de la firma china DeepSeek. DeepSeek también hace que sus sistemas estén disponibles abiertamente, pero su IA tiene pocas salvaguardias y puede ser fácilmente dirigida para generar resultados tóxicos y dañinos. “[W]e creemos que al considerar tanto los beneficios como los riesgos al tomar decisiones sobre cómo desarrollar y desplegar IA avanzada”, escribe Meta en el documento, “es posible entregar esa tecnología a la sociedad de una manera que preserve los beneficios de esa tecnología mientras se mantiene un nivel de riesgo apropiado”.