Google ha hecho que su asistente de inteligencia artificial, Gemini, sea un poco más humano al permitirte interrumpir o cambiar de tema en medio de una conversación. El gigante tecnológico anunció el lanzamiento de Gemini Live para dispositivos móviles en su evento Made by Google 2024. A diferencia de los comandos específicos comunes en Google Assistant o Alexa, Gemini Live responde a un lenguaje casual e incluso puede simular especulaciones y lluvias de ideas. La idea es que las conversaciones con la IA se sientan más naturales.
Gemini Live es como estar al teléfono con un asistente personal muy rápido. La IA puede hablar y completar tareas al mismo tiempo. Esta capacidad de multitarea está disponible actualmente para los suscriptores de Gemini Advanced en dispositivos Android, pero Google dijo que pronto se expandirá a iOS. Las opciones personales también se extienden a cómo suena Gemini, con 10 nuevas opciones de voz de diferentes estilos. Google afirma que el motor de voz mejorado también ofrece interacciones más emocionalmente expresivas y realistas.
A pesar de las similitudes, Gemini Live no es solo la versión de Google del Modo de Voz Avanzado de ChatGPT de OpenAI. ChatGPT en Modo de Voz puede tener dificultades con conversaciones a largo plazo. Gemini Live está construido con una ventana de contexto más grande, lo que lo hace mejor para recordar lo que dijiste un poco antes.
Google también presentó una lista más larga de extensiones de Gemini, integrando la IA más profundamente con la suite de aplicaciones y servicios de Google. Las próximas extensiones incluirán integraciones con Google Keep, Tasks y funciones ampliadas en YouTube Music. La compañía describió cómo podrías pedirle a Gemini Live que recupere una receta de Gmail y agregue los ingredientes a una lista de compras en Keep, o crear una lista de reproducción de canciones de una era específica usando YouTube Music. Este nivel de integración permite que Gemini interactúe de manera más fluida con las aplicaciones y el contenido en el dispositivo del usuario, ofreciendo asistencia adaptada al contexto de sus actividades.
Sin embargo, Gemini Live aún no está donde la demostración en Google I/O 2024 sugirió que estaría. El procesamiento visual mostrado allí aún está en el futuro. Eso permitirá que Gemini vea y responda a los alrededores de los usuarios a través de fotos y videos tomados con el dispositivo móvil. Eso podría expandir significativamente la utilidad de Gemini Live. Las nuevas características del asistente de IA encajan bien con los esfuerzos de Google para integrar Gemini en cada parte de tu vida. La visión de Google es una conversación con Gemini que nunca termina.