DeepSeek ha lanzado un nuevo modelo de inteligencia artificial de código abierto llamado R1, lo que provocó una caída en las acciones de Nvidia y un aumento en la popularidad de su aplicación entre los usuarios. El mes pasado, DeepSeek anunció que entrenó su modelo utilizando un centro de datos con aproximadamente 2,000 GPUs H800 de Nvidia en solo dos meses, con un costo de alrededor de 5.5 millones de dólares. La semana pasada, publicaron un documento que muestra que el rendimiento de su modelo más reciente es comparable al de los modelos de razonamiento más avanzados del mundo. Estos modelos se están entrenando en centros de datos que invierten miles de millones en los costosos y rápidos chips de IA de Nvidia.
La reacción en la industria tecnológica ante el modelo de alto rendimiento y bajo costo de DeepSeek ha sido intensa. Pat Gelsinger, ex CEO de Intel, expresó su entusiasmo en redes sociales, agradeciendo a DeepSeek. Gelsinger recordó tres lecciones importantes de la historia de la computación: 1) La computación sigue la ley de los gases; hacerla más barata expandirá su mercado. 2) La creatividad florece bajo restricciones. 3) Lo abierto gana. Gelsinger destacó que DeepSeek ayudará a reiniciar el mundo cada vez más cerrado del trabajo con modelos de IA fundamentales.
Gelsinger, quien dejó Intel en diciembre tras cuatro años, mencionó que Gloo, su nueva empresa, ha decidido no adoptar OpenAI debido a la impresionante capacidad de R1. Gloo está desarrollando un servicio de IA llamado Kallm, que ofrecerá un chatbot y otros servicios. Gelsinger afirmó que sus ingenieros ya están trabajando con R1 y que en dos semanas esperan haber reconstruido Kallm desde cero con su propio modelo de código abierto.
Gelsinger cree que DeepSeek hará que la IA sea tan asequible que no solo estará presente en todas partes, sino que también será de buena calidad. Expresó su deseo de tener mejor IA en dispositivos como su anillo Oura, audífonos y teléfonos. Sin embargo, la reacción de Gelsinger contrasta con la de otros que no están tan emocionados por la llegada de un competidor más asequible en el ámbito de los modelos de razonamiento. Algunos sugieren que DeepSeek pudo haber manipulado sus cifras o que el entrenamiento fue más costoso de lo que afirman. Otros creen que el próximo modelo de OpenAI, o3, superará a R1 cuando sea lanzado.
Gelsinger desestima estas preocupaciones, afirmando que la evidencia muestra que el entrenamiento de DeepSeek es de 10 a 50 veces más barato que el de otros modelos. Destacó que DeepSeek demuestra que la IA puede avanzar mediante la creatividad en la ingeniería, en lugar de simplemente aumentar la potencia del hardware. En cuanto a las implicaciones de que un desarrollador chino lidere este avance, Gelsinger considera que es un poco embarazoso para la comunidad tecnológica occidental recordar el poder de los ecosistemas abiertos.