Los agentes de IA están siendo considerados como la próxima gran innovación en inteligencia artificial, pero no hay una definición exacta de lo que son. Hasta ahora, las personas no se ponen de acuerdo sobre qué constituye exactamente un agente de IA. En su forma más simple, un agente de IA puede describirse como un software impulsado por inteligencia artificial que realiza una serie de tareas que antes hacía un agente de servicio al cliente, una persona de recursos humanos o un empleado de soporte técnico. Puedes pedirle que haga cosas y las hace por ti, a veces cruzando múltiples sistemas y yendo más allá de simplemente responder preguntas. Parece simple, ¿verdad? Sin embargo, la falta de claridad complica las cosas.
Incluso entre los gigantes tecnológicos, no hay consenso. Google los ve como asistentes basados en tareas según el trabajo: ayuda en la codificación para desarrolladores, ayuda a los mercadólogos a crear esquemas de color, o asistencia a un profesional de TI para rastrear un problema consultando datos de registro. Para Asana, un agente puede actuar como un empleado adicional, encargándose de tareas asignadas como cualquier buen compañero de trabajo. Sierra, una startup fundada por el ex co-CEO de Salesforce Bret Taylor y el veterano de Google Clay Bavor, ve a los agentes como herramientas de experiencia del cliente, ayudando a las personas a realizar acciones que van más allá de los chatbots del pasado para resolver conjuntos de problemas más complejos.
Esta falta de una definición cohesiva deja espacio para la confusión sobre lo que estos agentes realmente harán, pero independientemente de cómo se definan, los agentes están diseñados para ayudar a completar tareas de manera automatizada con la menor interacción humana posible. Rudina Seseri, fundadora y socia gerente de Glasswing Ventures, dice que es temprano y eso podría explicar la falta de acuerdo. “No hay una definición única de lo que es un ‘agente de IA’. Sin embargo, la visión más frecuente es que un agente es un sistema de software inteligente diseñado para percibir su entorno, razonar sobre él, tomar decisiones y actuar para lograr objetivos específicos de manera autónoma”, dijo Seseri a TechCrunch. Ella menciona que utilizan varias tecnologías de IA para lograrlo, como el procesamiento del lenguaje natural, el aprendizaje automático y la visión por computadora.
Aaron Levie, cofundador y CEO de Box, dice que con el tiempo, a medida que la IA se vuelva más capaz, los agentes de IA podrán hacer mucho más en nombre de los humanos, y ya hay dinámicas en juego que impulsarán esa evolución. “Con los agentes de IA, hay múltiples componentes en un ciclo de retroalimentación que mejorarán dramáticamente lo que los agentes de IA pueden lograr a corto y largo plazo: precio/rendimiento de GPU, eficiencia del modelo, calidad e inteligencia del modelo, mejoras en los marcos e infraestructura de IA”, escribió Levie en LinkedIn recientemente. Esta es una visión optimista de la tecnología que asume que habrá crecimiento en todas estas áreas, aunque eso no es necesariamente un hecho.
Rodney Brooks, pionero en robótica del MIT, señaló en una reciente entrevista con TechCrunch que la IA tiene que lidiar con problemas mucho más difíciles que la mayoría de las tecnologías, y no necesariamente crecerá de la misma manera rápida que, por ejemplo, los chips bajo la ley de Moore. “Cuando un humano ve a un sistema de IA realizar una tarea, inmediatamente lo generaliza a cosas similares y estima la competencia del sistema de IA; no solo el rendimiento en esa tarea, sino la competencia en torno a ella”, dijo Brooks durante esa entrevista. “Y suelen ser muy optimistas, y eso se debe a que usan un modelo del rendimiento de una persona en una tarea”.
El problema es que cruzar sistemas es difícil, y esto se complica por el hecho de que algunos sistemas heredados carecen de acceso básico a API. Aunque estamos viendo mejoras constantes a las que aludió Levie, lograr que el software acceda a múltiples sistemas mientras resuelve problemas en el camino podría resultar más desafiante de lo que muchos piensan. Si ese es el caso, todos podrían estar sobreestimando lo que los agentes de IA deberían ser capaces de hacer.
David Cushman, líder de investigación en HFS Research, ve la actual generación de bots más como lo hace Asana: asistentes que ayudan a los humanos a completar ciertas tareas con el fin de lograr algún tipo de objetivo estratégico definido por el usuario. El desafío es ayudar a una máquina a manejar contingencias de manera verdaderamente automatizada, y claramente no estamos cerca de eso todavía. “Creo que es el siguiente paso”, dijo. “Es donde la IA opera de manera independiente y efectiva a gran escala. Así que aquí es donde los humanos establecen las pautas, los límites, y aplican múltiples tecnologías para sacar al humano del proceso, cuando todo ha sido sobre mantener al humano en el proceso con la IA generativa”.
Jon Turow, socio en Madrona Ventures, dice que esto va a requerir la creación de una infraestructura de agentes de IA, una pila tecnológica diseñada específicamente para crear los agentes (como quiera que se definan). En una reciente publicación de blog, Turow describió ejemplos de agentes de IA que actualmente están funcionando y cómo se están construyendo hoy en día. En la opinión de Turow, la creciente proliferación de agentes de IA —y él también admite que la definición sigue siendo un poco esquiva— requiere una pila tecnológica como cualquier otra tecnología. “Todo esto significa que nuestra industria tiene trabajo por hacer para construir una infraestructura que apoye a los agentes de IA y las aplicaciones que dependen de ellos”, escribió en el artículo. “Con el tiempo, el razonamiento mejorará gradualmente, los modelos de frontera llegarán a dirigir más de los flujos de trabajo, y los desarrolladores querrán centrarse en el producto y los datos, las cosas que los diferencian. Quieren que la plataforma subyacente ‘simplemente funcione’ con escala, rendimiento y fiabilidad”.
Otra cosa a tener en cuenta es que probablemente se necesitarán múltiples modelos, en lugar de un solo modelo de lenguaje grande, para hacer que los agentes funcionen, y esto tiene sentido si piensas en estos agentes como una colección de diferentes tareas. “No creo que en este momento ningún modelo de lenguaje grande único, al menos públicamente disponible, modelo de lenguaje grande monolítico, sea capaz de manejar tareas de agente. No creo que puedan hacer todavía el razonamiento de múltiples pasos que realmente me emocionaría sobre un futuro de agentes. Creo que nos estamos acercando, pero simplemente no estamos allí todavía”, dijo Fred Havemeyer, jefe de investigación de IA y software de EE.UU. en Macquarie US Equity Research. “Creo que los agentes más efectivos probablemente serán múltiples colecciones de múltiples modelos diferentes con una capa de enrutamiento que envía solicitudes o indicaciones al agente y modelo más efectivo. Y creo que sería como un supervisor [automatizado] interesante, delegando un tipo de rol”.
En última instancia, para Havemeyer, la industria está trabajando hacia este objetivo de agentes que operan de manera independiente. “Como pienso en el futuro de los agentes, quiero ver y espero ver agentes que sean verdaderamente autónomos y capaces de tomar objetivos abstractos y luego razonar todos los pasos individuales en el medio de manera completamente independiente”, dijo a TechCrunch. Pero el hecho es que todavía estamos en un período de transición en lo que respecta a estos agentes, y no sabemos cuándo llegaremos a este estado final que Havemeyer describió. Aunque lo que hemos visto hasta ahora es claramente un paso prometedor en la dirección correcta, todavía necesitamos algunos avances y descubrimientos para que los agentes de IA operen como se están imaginando hoy en día. Y es importante entender que aún no hemos llegado a ese punto.