Un nuevo modelo de inteligencia artificial llamado QwQ-32B-Preview ha sido lanzado. Este modelo, desarrollado por el equipo Qwen de Alibaba, tiene 32.5 mil millones de parámetros y puede manejar solicitudes de hasta 32,000 palabras. Se destaca en ciertas pruebas en comparación con los modelos de OpenAI, como o1-preview y o1-mini. Los parámetros son como las habilidades de resolución de problemas de un modelo; en general, más parámetros significan mejor rendimiento.
Según las pruebas de Alibaba, QwQ-32B-Preview supera a los modelos de OpenAI en las pruebas AIME y MATH. AIME utiliza otros modelos de IA para evaluar el rendimiento, mientras que MATH consiste en problemas matemáticos. Este nuevo modelo puede resolver acertijos lógicos y responder preguntas matemáticas desafiantes gracias a sus capacidades de razonamiento. Sin embargo, no es perfecto; puede cambiar de idioma inesperadamente, quedarse atrapado en bucles y tener dificultades en tareas que requieren “razonamiento de sentido común”.
A diferencia de la mayoría de las IA, QwQ-32B-Preview y otros modelos de razonamiento pueden verificar sus propias respuestas, lo que les ayuda a evitar errores comunes, aunque esto puede hacer que tarden más en encontrar soluciones. Al igual que o1, QwQ-32B-Preview planifica y realiza una serie de acciones para llegar a las respuestas.
Este modelo está disponible para descargar en la plataforma de desarrollo de IA Hugging Face, pero algunos componentes no han sido liberados, lo que dificulta replicarlo o entender completamente su funcionamiento. Además, como Alibaba y DeepSeek son empresas chinas, sus modelos deben cumplir con las regulaciones del gobierno, lo que significa que evitan responder a temas sensibles, como la situación de Taiwán o la Plaza de Tiananmen.
QwQ-32B-Preview está disponible bajo una licencia Apache 2.0, lo que permite su uso en aplicaciones comerciales. La atención hacia los modelos de razonamiento ha aumentado, ya que se cuestiona la efectividad de las teorías que sugieren que más datos y potencia computacional siempre mejoran las capacidades de un modelo. Informes recientes indican que los modelos de grandes laboratorios de IA, como OpenAI y Google, no están mejorando tan rápidamente como antes, lo que ha llevado a la búsqueda de nuevas técnicas y enfoques en el desarrollo de IA.