Las alucinaciones de IA son situaciones en las que una herramienta de inteligencia artificial genera respuestas que son incorrectas, irrelevantes o completamente inventadas. Por ejemplo, el modelo Bard de Google afirmó erróneamente que el telescopio espacial James Webb había capturado las primeras imágenes de un planeta fuera de nuestro sistema solar. Estas alucinaciones resultaron costosas para dos abogados de Nueva York, quienes fueron sancionados por un juez por citar seis casos ficticios en documentos preparados con la ayuda de ChatGPT.
Duncan Curtis, vicepresidente de GenAI y productos de IA en Sama, explica que incluso los mejores modelos de IA todavía alucinan alrededor del 2.5% del tiempo. Aunque este porcentaje parece bajo, se traduce en un gran número de alucinaciones, especialmente para herramientas populares como ChatGPT, que recibe hasta 10 millones de consultas al día. Esto significaría 250,000 alucinaciones diarias o 1.75 millones semanales. Curtis advierte que si las alucinaciones se consideran “correctas”, los modelos perpetuarán esos errores y se volverán menos precisos con el tiempo.
La IA generativa funciona prediciendo la siguiente palabra o frase más probable según los datos que ha procesado. Sin embargo, si no comprende bien la información que recibe, puede generar respuestas que suenen razonables pero que no sean correctas. Simona Vasytė, CEO de Perfection42, señala que para generar imágenes, la IA observa su entorno y “adivina” qué píxel colocar. A veces, estas adivinanzas son incorrectas, lo que resulta en alucinaciones.
Vasytė también menciona que los modelos de lenguaje grande (LLM) pueden encontrar información variada en Internet, lo que puede causar respuestas contradictorias y aumentar la posibilidad de alucinaciones. Curtis agrega que la principal causa de estas alucinaciones es la falta de datos de entrenamiento suficientes y un proceso de evaluación del modelo inadecuado. Errores en los datos, como información mal etiquetada, son razones importantes por las que los modelos hacen suposiciones incorrectas.
Es crucial eliminar las alucinaciones, ya que pueden llevar a errores costosos, especialmente en áreas críticas como la ley y las finanzas. Vasytė enfatiza que mientras existan alucinaciones de IA, no podemos confiar completamente en la información generada por los LLM. Olga Beregovaya, vicepresidenta de IA y traducción automática en Smartling, señala que las alucinaciones pueden generar problemas legales relacionados con el contenido que los modelos producen o traducen.
Air Canada es un ejemplo de una empresa que ha enfrentado problemas por alucinaciones. Su chatbot proporcionó una política de reembolso incorrecta, lo que llevó a un litigio. Curtis cree que este caso establece un precedente serio: si las empresas deben honrar políticas alucinadas, esto representa un riesgo financiero y regulatorio significativo.
Aunque eliminar las alucinaciones de IA es un reto, los expertos aseguran que se pueden reducir. Vasytė sugiere que utilizar conjuntos de datos de alta calidad y precisos resultará en menos alucinaciones. Curtis recomienda usar un conjunto de datos representativo que haya sido cuidadosamente anotado y etiquetado. Además, la generación aumentada por recuperación (RAG) puede ayudar a abordar el problema de las alucinaciones al permitir que las herramientas de IA generativa filtren solo los datos relevantes para generar respuestas más precisas.
Beregovaya sugiere un enfoque de verificación de hechos con intervención humana como la forma más segura de detectar y corregir alucinaciones. Sin embargo, esto ocurre después de que el modelo ya ha respondido. Para minimizar las alucinaciones, recomienda ser lo más específico posible en las solicitudes, guiando al modelo hacia respuestas más concretas y limitando las interpretaciones posibles.