Amazon Web Services (AWS), la división de computación en la nube de Amazon, ha lanzado una nueva herramienta para combatir las “alucinaciones” en modelos de inteligencia artificial. Las alucinaciones son situaciones en las que un modelo de IA no se comporta de manera confiable. Este nuevo servicio, llamado “Verificación de Razonamiento Automatizado”, fue presentado en la conferencia re:Invent 2024 en Las Vegas. AWS afirma que esta herramienta es la “primera” y “única” protección contra alucinaciones, aunque hay que decir que es una afirmación un poco exagerada.
La Verificación de Razonamiento Automatizado es muy similar a la función de Corrección que Microsoft lanzó este verano, que también señala textos generados por IA que podrían ser incorrectos. Google tiene una herramienta en su plataforma Vertex AI que permite a los clientes “anclar” modelos utilizando datos de terceros o sus propios conjuntos de datos.
La Verificación de Razonamiento Automatizado está disponible a través del servicio de alojamiento de modelos Bedrock de AWS, específicamente con la herramienta Guardrails. Esta herramienta intenta entender cómo un modelo llegó a una respuesta y verificar si es correcta. Los clientes pueden subir información para establecer una “verdad base”, y la herramienta crea reglas que pueden ser refinadas y aplicadas al modelo. A medida que el modelo genera respuestas, la Verificación de Razonamiento Automatizado las verifica y, en caso de detectar una posible alucinación, utiliza la verdad base para proporcionar la respuesta correcta. Esto se presenta junto con la respuesta incorrecta para que los clientes puedan ver cuán errónea pudo haber sido la respuesta del modelo.
AWS ha mencionado que PwC ya está utilizando esta herramienta para diseñar asistentes de IA para sus clientes. Swami Sivasubramanian, vicepresidente de IA y datos en AWS, comentó que estas capacidades son lo que atrae a los clientes a Bedrock. Según él, con el lanzamiento de estas nuevas herramientas, AWS está innovando para resolver algunos de los principales desafíos que enfrenta la industria al implementar aplicaciones de IA generativa.
El número de clientes de Bedrock creció 4.7 veces en el último año, alcanzando decenas de miles de usuarios. Sin embargo, un experto mencionó que intentar eliminar las alucinaciones de la IA generativa es como intentar eliminar el hidrógeno del agua. Los modelos de IA “alucinan” porque no “saben” nada en realidad; son sistemas estadísticos que identifican patrones en datos y predicen qué datos vienen a continuación basándose en ejemplos previos. Por lo tanto, las respuestas de un modelo no son respuestas definitivas, sino predicciones de cómo deberían ser respondidas las preguntas, con un margen de error.
AWS asegura que la Verificación de Razonamiento Automatizado utiliza un razonamiento “lógicamente preciso” y “verificable” para llegar a sus conclusiones, pero no ha proporcionado datos que demuestren la fiabilidad de la herramienta.
En otras noticias de Bedrock, AWS anunció la “Destilación de Modelos”, una herramienta que transfiere las capacidades de un modelo grande a uno más pequeño, que es más barato y rápido de ejecutar. Esto es una respuesta a la Destilación de Microsoft en Azure AI Foundry. La Destilación de Modelos permite experimentar con varios modelos sin gastar mucho dinero. AWS explicó que, después de que el cliente proporciona ejemplos, Amazon Bedrock se encarga de generar respuestas y ajustar el modelo más pequeño, incluso creando más datos de ejemplo si es necesario.
Sin embargo, hay algunas limitaciones. La Destilación de Modelos solo funciona con modelos alojados en Bedrock de Anthropic y Meta. Los clientes deben seleccionar un modelo grande y uno pequeño de la misma “familia”; no pueden ser de diferentes proveedores. Además, los modelos destilados perderán algo de precisión, aunque AWS asegura que será menos del 2%.
Si esto no te desanima, la Destilación de Modelos ya está disponible en vista previa, junto con la Verificación de Razonamiento Automatizado. También está disponible en vista previa una nueva función de “colaboración multi-agente”, que permite a los clientes asignar tareas a la IA en proyectos más grandes. Esta función, parte de Bedrock Agents, proporciona herramientas para crear y ajustar la IA para tareas como revisar registros financieros y evaluar tendencias globales.
Los clientes incluso pueden designar un “agente supervisor” para dividir y dirigir tareas a las IA automáticamente. El supervisor puede dar acceso a información específica a ciertos agentes y determinar qué acciones pueden procesarse en paralelo y cuáles necesitan detalles de otras tareas antes de que un agente pueda avanzar. Una vez que todos los agentes especializados completan sus tareas, el agente supervisor puede reunir la información y sintetizar los resultados. Aunque suena interesante, habrá que ver cómo funciona en la práctica.