Hola a todos, bienvenidos al boletín regular de IA de Noticias IA. Si quieres recibirlo cada miércoles, regístrate aquí. Notaste que la semana pasada no publicamos el boletín. ¿La razón? Un ciclo de noticias sobre IA muy caótico, intensificado por el repentino ascenso de la empresa china DeepSeek y la respuesta de la industria y el gobierno. Afortunadamente, estamos de vuelta, justo a tiempo, considerando las novedades del fin de semana de OpenAI.
El CEO de OpenAI, Sam Altman, estuvo en Tokio para charlar con Masayoshi Son, el CEO de SoftBank, una importante empresa japonesa que invierte en OpenAI. SoftBank ha prometido ayudar a financiar el enorme proyecto de infraestructura de centros de datos de OpenAI en EE. UU. Altman probablemente sintió que debía dedicarle unas horas a Son. ¿De qué hablaron estos dos magnates? Según informes, discutieron sobre cómo la IA puede reemplazar trabajos mediante “agentes”. Son mencionó que su empresa gastará 3 mil millones de dólares al año en productos de OpenAI y colaborará para desarrollar una plataforma llamada “Cristal Inteligencia”, con el objetivo de automatizar millones de trabajos de oficina. SoftBank afirmó que al automatizar sus tareas, transformará su negocio y creará nuevo valor. Pero, ¿qué piensan los trabajadores sobre toda esta automatización?
Al igual que Sebastian Siemiatkowski, CEO de Klarna, quien a menudo dice que la IA reemplazará a los humanos, Son parece creer que estos “agentes” solo traerán riqueza. Sin embargo, se ignora el costo de esta abundancia. Si la automatización de trabajos se generaliza, el desempleo masivo parece ser el resultado más probable. Es desalentador que las empresas líderes en IA, como OpenAI y SoftBank, elijan presentar conferencias de prensa que muestran corporaciones automatizadas con menos empleados. Son negocios, no organizaciones benéficas, y el desarrollo de IA no es barato. Quizás la gente confiaría más en la IA si quienes la implementan mostraran más preocupación por su bienestar. Es algo en lo que pensar.
Investigación profunda: OpenAI ha lanzado un nuevo “agente” de IA diseñado para ayudar a las personas a realizar investigaciones complejas utilizando ChatGPT, su plataforma de chatbot.
O3-mini: En otras noticias de OpenAI, la compañía lanzó un nuevo modelo de “razonamiento”, o3-mini, después de un adelanto en diciembre. No es el modelo más potente de OpenAI, pero o3-mini tiene mejor eficiencia y velocidad de respuesta.
La UE prohíbe IA riesgosa: Desde el domingo, los reguladores de la Unión Europea pueden prohibir el uso de sistemas de IA que consideren de “riesgo inaceptable”. Esto incluye la IA utilizada para puntajes sociales y publicidad subliminal.
Una obra sobre la cultura de “doom” de la IA: Hay una nueva obra sobre la cultura de “doom” relacionada con la IA, basada en la salida de Sam Altman como CEO de OpenAI en noviembre de 2023. Mis colegas Dominic y Rebecca comparten sus impresiones tras ver el estreno.
Tecnología para aumentar la producción agrícola: La “fábrica de luna” de Google anunció su último proyecto. Heritable Agriculture es una startup impulsada por datos y aprendizaje automático que busca mejorar el cultivo de productos.
Los modelos de razonamiento son mejores que la IA promedio para resolver problemas, especialmente en ciencias y matemáticas. Sin embargo, no son la solución definitiva. Un nuevo estudio de investigadores de Tencent investiga el problema del “pensamiento insuficiente” en los modelos de razonamiento, donde los modelos abandonan prematuramente cadenas de pensamiento prometedoras. Según los resultados, este patrón ocurre más a menudo con problemas difíciles, lo que lleva a los modelos a cambiar entre cadenas de razonamiento sin llegar a respuestas. El equipo propone una solución que emplea una “penalización por cambio de pensamiento” para alentar a los modelos a desarrollar cada línea de razonamiento antes de considerar alternativas, mejorando así su precisión.
Un equipo de investigadores respaldado por ByteDance, propietario de TikTok, y la empresa china Moonshot, lanzó un nuevo modelo abierto capaz de generar música de alta calidad a partir de indicaciones. El modelo, llamado YuE, puede crear canciones de hasta unos minutos de duración, con voces y pistas de acompañamiento. Está bajo una licencia Apache 2.0, lo que significa que se puede usar comercialmente sin restricciones. Sin embargo, hay desventajas. Ejecutar YuE requiere una GPU potente; generar una canción de 30 segundos toma seis minutos con una Nvidia RTX 4090. Además, no está claro si el modelo fue entrenado con datos protegidos por derechos de autor; sus creadores no lo han aclarado. Si se descubre que se utilizaron canciones protegidas en el entrenamiento del modelo, los usuarios podrían enfrentar futuros problemas de propiedad intelectual.
El laboratorio de IA Anthropic afirma haber desarrollado una técnica para defenderse de “jailbreaks” en IA, que son métodos para eludir las medidas de seguridad de un sistema de IA. La técnica, llamada Clasificadores Constitucionales, utiliza dos conjuntos de modelos de IA: un clasificador de “entrada” y un clasificador de “salida”. El clasificador de entrada agrega indicaciones a un modelo protegido con plantillas que describen jailbreaks y contenido no permitido, mientras que el clasificador de salida calcula la probabilidad de que una respuesta del modelo hable sobre información dañina. Anthropic dice que los Clasificadores Constitucionales pueden filtrar la “gran mayoría” de los jailbreaks. Sin embargo, esto tiene un costo: cada consulta es un 25% más exigente computacionalmente, y el modelo protegido tiene un 0.38% menos de probabilidad de responder preguntas inocuas.