Un nuevo estudio ha demostrado que modelos de inteligencia artificial (IA) pueden replicar las respuestas de personas tras una entrevista de dos horas con un 85% de precisión. Investigadores de Stanford y Google DeepMind llevaron a cabo este trabajo, que podría cambiar la forma en que se realizan los estudios de investigación en el futuro.
Los “agentes de simulación” son modelos de IA que pueden imitar el comportamiento de una persona en diferentes contextos sociales, políticos o informativos. En el estudio, 1,052 participantes realizaron una entrevista de dos horas sobre diversos temas, desde su vida personal hasta sus opiniones sobre problemas sociales actuales. Las respuestas fueron grabadas y utilizadas para entrenar modelos de IA para cada individuo.
Para evaluar la efectividad de estos agentes de simulación, tanto ellos como los participantes humanos realizaron una serie de tareas, incluyendo pruebas de personalidad y juegos. Dos semanas después, se pidió a los participantes que replicaran sus propias respuestas. Sorprendentemente, los agentes de IA lograron simular las respuestas con un 85% de precisión.
Además, los agentes de simulación demostraron ser efectivos al predecir rasgos de personalidad en cinco experimentos de ciencias sociales. Esto sugiere que, aunque la personalidad parece algo intangible, es posible extraer la estructura de valores de una persona a partir de una cantidad relativamente pequeña de información.
El estudio, liderado por Joon Sung Park, un estudiante de doctorado en Stanford, busca dar más libertad a los investigadores de ciencias sociales al permitirles realizar estudios sin la necesidad de miles de participantes humanos. Esto podría facilitar la realización de experimentos que serían poco éticos con personas reales.
Sin embargo, surgen preocupaciones sobre el uso de estos agentes de simulación. Park advirtió que en el futuro podríamos ver “pequeños ‘tú’ tomando decisiones que tú habrías tomado”. Esto genera inquietudes sobre la seguridad, la privacidad y el robo de identidad, ya que los estafadores podrían utilizar la IA para crear réplicas digitales de personas y engañar a otros.
El hecho de que estos agentes de simulación se crearon con solo dos horas de datos de entrevista es alarmante, especialmente en comparación con la gran cantidad de información que otras empresas requieren para crear gemelos digitales.