Finalmente hay una definición “oficial” de inteligencia artificial de código abierto. La Open Source Initiative (OSI), una organización que se dedica a definir y cuidar todo lo relacionado con el código abierto, ha lanzado la versión 1.0 de su Definición de IA de Código Abierto (OSAID). Este documento es el resultado de varios años de colaboración con universidades y la industria, y busca ofrecer un estándar para que cualquiera pueda determinar si una IA es de código abierto o no.
La importancia de tener un consenso sobre esta definición radica en que ayuda a que los responsables de políticas y los desarrolladores de IA estén en la misma sintonía. Según Stefano Maffulli, vicepresidente de OSI, “los reguladores ya están observando este espacio”. La OSI se ha esforzado por involucrar a una variedad de partes interesadas, no solo a los habituales en tecnología, para obtener sus opiniones.
Para que un modelo de IA sea considerado de código abierto bajo la OSAID, debe proporcionar suficiente información sobre su diseño para que alguien pueda recrearlo “sustancialmente”. También debe revelar detalles sobre sus datos de entrenamiento, incluyendo su origen, cómo se procesaron y cómo se pueden obtener o licenciar. Maffulli explica que “una IA de código abierto es un modelo que te permite entender completamente cómo fue construido”, lo que significa que se tiene acceso a todos los componentes, como el código completo utilizado para el entrenamiento y filtrado de datos.
La OSAID también establece los derechos de uso que los desarrolladores pueden esperar con la IA de código abierto, como la libertad de usar el modelo para cualquier propósito y modificarlo sin necesidad de pedir permiso. “Lo más importante es que deberías poder construir sobre ello”, añade Maffulli.
Sin embargo, la OSI no tiene mecanismos de aplicación para hacer cumplir la OSAID. No puede presionar a los desarrolladores para que sigan esta definición, pero sí planea señalar modelos que se describen como “de código abierto” pero que no cumplen con los criterios establecidos. Maffulli espera que la comunidad de IA responda si alguien intenta abusar del término.
Históricamente, esto ha tenido resultados mixtos. Muchas startups y grandes empresas tecnológicas, como Meta, han utilizado el término “código abierto” para describir sus estrategias de lanzamiento de modelos de IA, pero pocos cumplen con los criterios de la OSAID. Por ejemplo, Meta exige que las plataformas con más de 700 millones de usuarios activos mensuales soliciten una licencia especial para usar sus modelos Llama.
Maffulli ha criticado abiertamente la decisión de Meta de llamar “código abierto” a sus modelos. Después de conversaciones con la OSI, Google y Microsoft acordaron dejar de usar el término para modelos que no son completamente abiertos, pero Meta no ha hecho lo mismo. Stability AI, que ha publicitado sus modelos como “abiertos”, requiere que las empresas con más de un millón de dólares en ingresos obtengan una licencia empresarial.
Un estudio realizado en agosto por investigadores de la Signal Foundation y el AI Now Institute encontró que muchos modelos “de código abierto” son en realidad solo de nombre. Los datos necesarios para entrenar los modelos se mantienen en secreto, el poder de cómputo necesario para ejecutarlos está fuera del alcance de muchos desarrolladores, y las técnicas para ajustarlos son complejas. En lugar de democratizar la IA, estos proyectos tienden a consolidar el poder centralizado.
Meta, por su parte, defiende su licencia para Llama, argumentando que sus términos actúan como salvaguardias contra implementaciones dañinas. La empresa también menciona que está adoptando un enfoque “cauteloso” para compartir detalles del modelo, a medida que evolucionan regulaciones como la ley de transparencia de entrenamiento de California.
La OSI no aborda en la OSAID el tema de los derechos de autor en relación con los modelos de IA, ni si otorgar una licencia de derechos de autor sería suficiente para garantizar que un modelo cumpla con la definición de código abierto. Aún no está claro si los modelos pueden ser protegidos por derechos de autor bajo la ley actual.
Maffulli reconoce que la definición necesitará actualizaciones en el futuro. Para ello, la OSI ha establecido un comité que se encargará de monitorear cómo se aplica la OSAID y proponer enmiendas para futuras versiones. “Este no es el trabajo de genios solitarios en un sótano”, concluye, “sino un trabajo que se realiza de manera abierta con una amplia variedad de interesados”.