La inteligencia artificial (IA) está cada vez más presente en nuestras vidas, especialmente desde el lanzamiento de ChatGPT. Algunas personas la ven como una amenaza que está robando empleos y causando problemas de derechos de autor, mientras que otros la consideran una oportunidad para llevar a la humanidad a una nueva era de conocimiento. Lo que se ha logrado con esta nueva tecnología, desde herramientas como Midjourney hasta algoritmos inteligentes, es impresionante. Esta tecnología tiene un gran potencial, pero también genera preocupaciones sobre sus posibles efectos negativos, dependiendo de cómo se maneje y regule.
No es sorprendente que las empresas tecnológicas estén adoptando rápidamente la IA, incorporándola en sus productos para atraer a los consumidores. Desde laptops con IA hasta placas base que utilizan esta tecnología para mejorar el rendimiento del CPU, las empresas están buscando formas de incluir IA en sus productos, especialmente con eventos como CES y Computex a la vista. Sin embargo, a menudo, el valor real que esto aporta a los consumidores es cuestionable.
Un aspecto que me preocupa es la última generación de CPUs de empresas como AMD, Intel y Qualcomm. Estos productos no son malos; de hecho, Qualcomm ha hecho grandes avances en el mercado de chips para computadoras. Las últimas CPUs de Intel y AMD ofrecen un rendimiento impresionante, con mejoras en eficiencia, conectividad y ahorro de energía. Sin embargo, a menudo se les añade la etiqueta de “IA” sin que realmente aporten algo útil al producto.
Por ejemplo, se están incorporando unidades de procesamiento neural (NPU) en los chips, que son coprocesadores diseñados para acelerar operaciones que utilizan IA. Estas se utilizan en laptops de bajo consumo para activar funciones avanzadas de IA, como el asistente Copilot de Microsoft, aunque esto no cambia mucho en soluciones que dependen principalmente de la nube.
El rendimiento de la CPU en tareas de IA es, en realidad, muy limitado. Para tareas de IA, el procesamiento paralelo es crucial, y las tarjetas gráficas son las que mejor lo hacen en este momento. Elon Musk, por ejemplo, ha instalado 100,000 GPUs Nvidia H100 en el último sistema de entrenamiento de IA de xAI, lo que representa más de mil millones de dólares en tarjetas gráficas.
Además, muchas herramientas de IA populares requieren computación en la nube para funcionar correctamente. Modelos de lenguaje grandes como ChatGPT y Google Gemini necesitan tanta potencia de procesamiento que no se pueden ejecutar en una computadora local. Incluso algunas funciones de Photoshop requieren la nube para procesar imágenes.
Aunque hay excepciones, como las tecnologías de escalado localizadas de Nvidia y Intel, la mayoría de los programas de IA populares no se pueden ejecutar en una computadora doméstica. A pesar de esto, seguimos viendo nuevos laptops y chips con “IA”, muchos de los cuales, en mi opinión, no ofrecen mucho valor real.