Las gafas inteligentes Ray-Ban Meta de Meta están recibiendo varias actualizaciones impulsadas por inteligencia artificial, que incluyen la capacidad de mantener conversaciones continuas y traducir entre idiomas. Los propietarios de Ray-Ban Meta que forman parte del programa de acceso anticipado en EE. UU. y Canadá ya pueden descargar la versión de firmware v11, que añade “IA en vivo”.
Esta nueva función permite a los usuarios conversar de manera continua con el asistente de IA de Meta, conocido como Meta AI, recordando temas discutidos anteriormente. Los usuarios pueden interrumpir a Meta AI para hacer preguntas adicionales o cambiar de tema sin necesidad de decir “Hey Meta”.
La IA en vivo también es compatible con video en tiempo real. Los usuarios pueden preguntar sobre lo que están viendo en ese momento, como por ejemplo, qué hay en su vecindario. Esta capacidad fue un enfoque importante en la conferencia de desarrolladores Connect de Meta. La tecnología permite que la IA de Meta responda preguntas sobre lo que capta la cámara frontal de las gafas. Con esta actualización, Meta se posiciona como uno de los primeros gigantes tecnológicos en ofrecer video de IA en tiempo real en gafas inteligentes. Google ha mencionado que planea vender gafas de realidad aumentada con capacidades similares, pero aún no ha definido un cronograma concreto.
Meta también ha anunciado que en el futuro, la IA en vivo ofrecerá “sugerencias útiles” antes de que el usuario las pida, aunque no se han especificado qué tipo de sugerencias serán.
La versión de firmware v11 también introduce la traducción en vivo, que permite a los usuarios de Ray-Ban Meta traducir conversaciones en tiempo real entre inglés y español, francés o italiano. Cuando un usuario habla con alguien que utiliza uno de esos idiomas, escuchará lo que dice el hablante en inglés a través de los altavoces abiertos de las gafas y recibirá una transcripción en su teléfono emparejado.
Además, las gafas Ray-Ban Meta ahora cuentan con soporte para Shazam. Los usuarios pueden decir “Hey Meta, Shazam esta canción” para que las gafas intenten identificar la melodía que se está reproduciendo. Sin embargo, Meta advierte que las nuevas funciones, especialmente la IA en vivo y la traducción en vivo, pueden no ser siempre precisas. La compañía ha afirmado que seguirán aprendiendo y mejorando la experiencia para todos.