OpenAI está cambiando la forma en que entrena sus modelos de inteligencia artificial para fomentar la “libertad intelectual”, sin importar cuán desafiantes o controvertidos sean los temas, según una nueva política de la empresa. Esto significa que ChatGPT podrá responder más preguntas, ofrecer más perspectivas y reducir los temas sobre los que no hablará. Estos cambios podrían ser parte del esfuerzo de OpenAI por ganarse la confianza de la nueva administración de Trump, pero también reflejan un cambio más amplio en Silicon Valley sobre lo que se considera “seguridad en IA”.
Recientemente, OpenAI actualizó su documento de especificaciones, que detalla cómo entrena a sus modelos de IA. En este documento, la empresa introdujo un nuevo principio: no mentir, ya sea haciendo afirmaciones falsas o omitiendo información importante. En una sección llamada “Busquemos la verdad juntos”, OpenAI afirma que quiere que ChatGPT no tome una postura editorial, incluso si algunos usuarios consideran que esto es moralmente incorrecto u ofensivo. Por ejemplo, la empresa dice que ChatGPT debe afirmar que “las vidas negras importan”, pero también que “todas las vidas importan”. En lugar de negarse a responder o tomar partido en temas políticos, OpenAI quiere que ChatGPT exprese su “amor por la humanidad” en general y luego ofrezca contexto sobre cada movimiento.
Estos cambios podrían interpretarse como una respuesta a las críticas conservadoras sobre las salvaguardias de ChatGPT, que a menudo se perciben como inclinadas hacia la izquierda. Sin embargo, un portavoz de OpenAI rechaza la idea de que se estén haciendo cambios para complacer a la administración de Trump, afirmando que su enfoque en la libertad intelectual refleja una “creencia de larga data en dar más control a los usuarios”.
No todos comparten esta visión. Algunos de los aliados más cercanos de Trump en Silicon Valley han acusado a OpenAI de practicar una censura deliberada en IA. Aunque OpenAI no se considera a sí misma como censuradora, su CEO, Sam Altman, ha reconocido que el sesgo de ChatGPT es un “defecto” que están trabajando para corregir.
La realidad es que los chatbots de IA tienden a inclinarse hacia la izquierda. OpenAI ha decidido reforzar su compromiso con la libertad de expresión, incluso eliminando advertencias de ChatGPT que informaban a los usuarios cuando violaban sus políticas. La empresa quiere que ChatGPT se sienta menos censurado para los usuarios.
En Silicon Valley, hay un cambio mayor en la forma en que se modera el contenido. Las empresas de IA ahora enfrentan el reto de generar respuestas automáticas a cualquier pregunta, lo que implica tomar posturas editoriales, incluso si no les gusta admitirlo. Algunos argumentan que permitir que ChatGPT represente todas las perspectivas, incluso las más controvertidas, es la postura correcta.
A medida que los modelos de IA se vuelven más inteligentes, las decisiones sobre cómo responder a preguntas delicadas se vuelven más importantes. OpenAI ha hecho avances significativos en la alineación de sus modelos de IA, lo que les permite ofrecer mejores respuestas a preguntas sensibles.
Mientras tanto, otras empresas tecnológicas también están retrocediendo de políticas de izquierda que dominaron Silicon Valley durante décadas. OpenAI parece estar cambiando su enfoque, especialmente a medida que se embarca en uno de los proyectos de infraestructura más grandes de EE. UU. con Stargate, un centro de datos de IA de 500 mil millones de dólares. La relación de OpenAI con la administración de Trump se vuelve cada vez más importante, así como su objetivo de competir con Google Search como la fuente dominante de información en internet.