Ingenieros de software, desarrolladores e investigadores académicos están preocupados por las transcripciones generadas por Whisper de OpenAI, según un informe de Associated Press. Aunque se ha hablado mucho sobre la tendencia de la inteligencia artificial generativa a “alucinar” (es decir, inventar información), resulta sorprendente que esto también ocurra en las transcripciones, donde se esperaría que el texto siga de cerca el audio original.
Investigadores comentaron que Whisper ha incluido desde comentarios raciales hasta tratamientos médicos inventados en sus transcripciones. Esto podría ser especialmente grave, ya que Whisper se está utilizando en hospitales y otros contextos médicos. Un investigador de la Universidad de Michigan que estudió reuniones públicas encontró alucinaciones en ocho de cada diez transcripciones de audio. Un ingeniero de aprendizaje automático analizó más de 100 horas de transcripciones de Whisper y descubrió alucinaciones en más de la mitad de ellas. Además, un desarrollador reportó haber encontrado alucinaciones en casi todas las 26,000 transcripciones que creó con Whisper.
Un portavoz de OpenAI mencionó que la empresa está “trabajando continuamente para mejorar la precisión de nuestros modelos, incluyendo la reducción de alucinaciones” y destacó que sus políticas de uso prohíben el uso de Whisper “en ciertos contextos de toma de decisiones críticas”. “Agradecemos a los investigadores por compartir sus hallazgos”, añadieron.