Mientras que varios competidores de Google, como OpenAI, han ajustado sus chatbots de inteligencia artificial para abordar temas políticos sensibles en los últimos meses, Google ha optado por un enfoque más conservador. Al ser preguntado sobre ciertas cuestiones políticas, el chatbot de Google, Gemini, a menudo dice que “no puede ayudar con respuestas sobre elecciones y figuras políticas en este momento”, según pruebas realizadas por TechCrunch. Otros chatbots, como Claude de Anthropic, Meta AI y ChatGPT, respondieron consistentemente a las mismas preguntas.
En marzo de 2024, Google anunció que Gemini no respondería consultas relacionadas con elecciones antes de varios comicios en Estados Unidos, India y otros países. Muchas empresas de inteligencia artificial adoptaron restricciones temporales similares, temiendo reacciones negativas si sus chatbots cometían errores. Sin embargo, Google parece ser el que se queda atrás. Las elecciones importantes del año pasado ya han pasado, y la compañía no ha anunciado públicamente planes para cambiar cómo Gemini aborda ciertos temas políticos.
Un portavoz de Google no respondió a las preguntas de TechCrunch sobre si la empresa había actualizado sus políticas respecto al discurso político de Gemini. Lo que está claro es que Gemini a veces tiene dificultades o se niega a proporcionar información política precisa. Según las pruebas de TechCrunch, Gemini no pudo identificar al presidente y vicepresidente de EE. UU. en una ocasión. En un caso, se refirió a Donald J. Trump como el “expresidente” y luego se negó a responder una pregunta de seguimiento. Un portavoz de Google explicó que el chatbot se confundió por los mandatos no consecutivos de Trump y que están trabajando para corregir el error.
A pesar de los errores, Google parece estar siendo cauteloso al limitar las respuestas de Gemini a consultas políticas. Sin embargo, esta estrategia tiene desventajas. Muchos asesores de Trump en Silicon Valley sobre inteligencia artificial, como Marc Andreessen, David Sacks y Elon Musk, han alegado que empresas como Google y OpenAI han censurado a sus chatbots al limitar sus respuestas. Tras la victoria electoral de Trump, muchos laboratorios de IA han intentado encontrar un equilibrio al responder preguntas políticas sensibles, programando sus chatbots para ofrecer respuestas que presenten “ambos lados” de los debates. Estos laboratorios han negado que esto sea en respuesta a presiones de la administración.
OpenAI anunció recientemente que abrazará “la libertad intelectual… sin importar cuán desafiantes o controvertidos sean los temas” y trabaja para garantizar que sus modelos de IA no censuren ciertos puntos de vista. Mientras tanto, Anthropic afirmó que su modelo de IA más reciente, Claude 3.7 Sonnet, se niega a responder preguntas con menos frecuencia que los modelos anteriores, en parte porque puede hacer distinciones más matizadas entre respuestas dañinas y benignas. Esto no significa que los chatbots de otros laboratorios de IA siempre acierten en preguntas difíciles, especialmente las políticas. Pero Google parece estar un poco rezagado con Gemini.