Una empresa llamada 01.ai ha logrado entrenar un modelo de inteligencia artificial por solo 3 millones de dólares utilizando 2,000 GPUs, aunque no se han revelado sus nombres. Según la compañía, su “ingeniería eficiente” les permite competir a nivel global. Además, han reducido los costos de inferencia a 10 centavos por cada millón de tokens procesados.
Las empresas tecnológicas en China enfrentan varios desafíos debido a una prohibición de exportación de Estados Unidos, que limita el acceso a hardware avanzado de fabricantes estadounidenses, como las GPUs de Nvidia, esenciales para entrenar modelos de IA a gran escala. Esto obliga a las empresas chinas a utilizar alternativas más antiguas o menos eficientes, dificultando su competitividad en la industria de IA que avanza rápidamente.
Kai-Fu Lee, fundador y CEO de 01.ai, comentó que su equipo logró entrenar su modelo de alto rendimiento, llamado Yi-Lightning, con un presupuesto de solo 3 millones de dólares. En comparación, OpenAI gastó entre 80 y 100 millones de dólares para entrenar GPT-4 y se rumorea que destinó hasta 1,000 millones de dólares para GPT-5.
Lee destacó que lo que sorprende a muchos en Silicon Valley no es solo el rendimiento de su modelo, sino el hecho de que lo entrenaron con un presupuesto tan bajo. Afirmó que, aunque creen en la ley de escalabilidad, una ingeniería detallada puede permitir entrenar un gran modelo sin necesidad de gastar miles de millones.
La empresa ha implementado innovaciones como la reducción de cuellos de botella computacionales, el desarrollo de almacenamiento en caché en múltiples capas y el diseño de un motor de inferencia especializado. Estas mejoras, según Lee, resultan en un uso más eficiente de la memoria y procesos de entrenamiento optimizados.
Con solo 2,000 GPUs, el equipo tuvo que encontrar la mejor manera de utilizarlas. Lee enfatizó que, como CEO, tuvo que priorizar el uso de los recursos, asegurando que tanto el entrenamiento como la inferencia fueran rápidos. El costo de inferencia de 01.ai es aproximadamente 1/30 del costo típico de modelos comparables, lo que resalta la eficiencia de su enfoque.
Aunque algunos pueden dudar de que se pueda entrenar un modelo de IA con recursos limitados y una “ingeniería excelente”, el modelo Yi-Lightning está clasificado en sexto lugar a nivel mundial en rendimiento, lo que sugiere que 01.ai ha encontrado una manera de ser competitiva con un presupuesto mínimo y acceso limitado a GPUs.