Después del aumento de popularidad de DeepSeek, Nvidia ha comentado sobre este nuevo competidor en el mundo de la inteligencia artificial. Nvidia describe a DeepSeek como un “excelente avance en IA” y sugiere que sus GPUs siguen siendo fundamentales.
Si no has escuchado sobre DeepSeek durante el fin de semana, es probable que ya lo hayas hecho. Este chatbot de IA se ha vuelto famoso porque ofrece una alternativa real a ChatGPT a un precio mucho más bajo, lo que ha causado turbulencias en el mercado de valores, haciendo que las acciones tecnológicas cayeran. Nvidia, en particular, sufrió una caída histórica de $600 mil millones en su valor de acciones, la mayor caída en la historia.
DeepSeek, lanzado por una startup china del mismo nombre, es un chatbot de IA gratuito que busca competir con ChatGPT de OpenAI. También cuenta con nuevos modelos que tienen capacidades multimodales, especialmente en la creación y análisis de imágenes. Ha tomado por asalto el mundo de la IA y sigue siendo la aplicación número uno en la App Store de Apple en Estados Unidos y el Reino Unido.
La popularidad de la aplicación y el sitio web fue tal que DeepSeek experimentó una interrupción y un supuesto “ataque malicioso” el mismo día en que se hizo famoso. Mientras Sam Altman, CEO de OpenAI, respondió a la situación, también escuchamos a Nvidia, que es considerada la líder mundial en chips de IA y ha ganado relevancia con el crecimiento de la IA.
En un comunicado enviado a TechRadar, Nvidia afirmó: “DeepSeek es un excelente avance en IA y un ejemplo perfecto de escalado en tiempo de prueba. El trabajo de DeepSeek ilustra cómo se pueden crear nuevos modelos utilizando esa técnica, aprovechando modelos y computación ampliamente disponibles que cumplen con el control de exportaciones. La inferencia requiere un número significativo de GPUs de NVIDIA y redes de alto rendimiento. Ahora tenemos tres leyes de escalado: pre-entrenamiento y post-entrenamiento, que continúan, y un nuevo escalado en tiempo de prueba”.
Nvidia ha elogiado el modelo R1 de DeepSeek, destacando su rendimiento. También confirma que se pueden establecer nuevos modelos utilizando modelos y chips existentes en lugar de crear completamente nuevos. Nvidia quiere seguir siendo una parte clave de este desarrollo, señalando que este tipo de implementación requiere muchas GPUs de Nvidia y que DeepSeek utilizó GPUs específicas para China. Esto sugiere que DeepSeek necesitará más de sus chips en el futuro.
DeepSeek afirma haber utilizado un nuevo proceso de entrenamiento innovador para desarrollar sus modelos de lenguaje, mejorando a través de prueba y error, similar a cómo aprenden los humanos al recibir retroalimentación. También empleó una arquitectura de MoE (Mixture-of-Experts), lo que significa que activa solo una pequeña fracción de sus parámetros en un momento dado, reduciendo significativamente el costo computacional y haciéndolo más eficiente.
Sam Altman también elogió el modelo R1 de DeepSeek, “particularmente por lo que pueden ofrecer por el precio”. Reiteró que OpenAI “obviamente ofrecerá modelos mucho mejores”, pero dio la bienvenida a la competencia. Nvidia parece estar manteniendo sus planes futuros en secreto.
Aún queda por ver cuándo DeepSeek reabrirá las inscripciones y volverá a su rendimiento completo, pero si tienes curiosidad sobre su permanencia en el mercado, puedes leer las opiniones de mi colega Lance Ulanoff, editor en TechRadar, sobre sus posibilidades de mantenerse en Estados Unidos. También puedes consultar nuestra comparación entre DeepSeek y ChatGPT realizada por John-Anthony Disotto, uno de los expertos en IA de TechRadar.