OpenAI ha desarrollado una escala interna para medir el progreso de sus modelos de lenguaje hacia la inteligencia artificial general (AGI), según un informe de Bloomberg. La AGI se refiere a una inteligencia artificial con capacidades similares a las humanas y es el objetivo principal para los desarrolladores de IA. Anteriormente, OpenAI definió la AGI como “un sistema altamente autónomo que supera a los humanos en la mayoría de las tareas económicamente valiosas”. Esto está muy por encima de las capacidades actuales de la IA. Esta nueva escala busca proporcionar un marco estructurado para seguir los avances y establecer puntos de referencia en esa búsqueda.
La escala introducida por OpenAI divide el progreso en cinco niveles o hitos en el camino hacia la AGI. ChatGPT y sus chatbots rivales están en el Nivel 1. OpenAI afirmó estar a punto de alcanzar el Nivel 2, que sería un sistema de IA capaz de igualar a un humano con un doctorado en la resolución de problemas básicos. Esto podría referirse a GPT-5, que el CEO de OpenAI, Sam Altman, ha dicho que será un “avance significativo”. Después del Nivel 2, los niveles se vuelven cada vez más complejos. El Nivel 3 sería un agente de IA capaz de manejar tareas sin la presencia del usuario, mientras que un Nivel 4 de IA podría inventar nuevas ideas y conceptos. En el Nivel 5, la IA no solo podría hacerse cargo de tareas individuales, sino también de organizaciones enteras.
La idea de los niveles tiene sentido para OpenAI o cualquier desarrollador. De hecho, un marco integral no solo ayuda internamente a OpenAI, sino que también podría establecer un estándar universal para evaluar otros modelos de IA.
Aun así, lograr la AGI no sucederá de inmediato. Comentarios anteriores de Altman y otros en OpenAI sugieren que podría tomar tan solo cinco años, pero las estimaciones varían significativamente entre los expertos. La cantidad de poder de cómputo necesario y los desafíos financieros y tecnológicos son sustanciales.
Además, están las cuestiones éticas y de seguridad que plantea la AGI. Existe una preocupación real sobre lo que significaría una IA de ese nivel para la sociedad. Y los movimientos recientes de OpenAI pueden no tranquilizar a nadie. En mayo, la empresa disolvió su equipo de seguridad tras la salida de su líder y cofundador de OpenAI, Ilya Sutskever. El investigador de alto nivel Jan Leike también renunció, citando preocupaciones de que la cultura de seguridad de OpenAI estaba siendo ignorada. No obstante, al ofrecer un marco estructurado, OpenAI busca establecer puntos de referencia concretos para sus modelos y los de sus competidores, y tal vez ayudarnos a todos a prepararnos para lo que viene.