En la conferencia de desarrolladores I/O de Google, la compañía presentó sus avances en inteligencia artificial (IA) para desarrolladores y, en cierta medida, para los consumidores. Google reveló un motor de búsqueda renovado con IA, un modelo de IA con una ventana de contexto expandida a 2 millones de tokens, asistentes de IA en sus aplicaciones de Workspace como Gmail, Drive y Docs, herramientas para integrar su IA en aplicaciones de desarrolladores y una visión futura de la IA llamada Proyecto Astra, que puede responder a estímulos visuales, auditivos, de voz y texto combinados.
Aunque cada avance por sí solo era prometedor, la avalancha de noticias sobre IA fue abrumadora. Estos grandes eventos están diseñados para impresionar tanto a desarrolladores como a usuarios finales sobre la tecnología. Sin embargo, después de tanta información, incluso los consumidores con conocimientos técnicos pueden sentirse confundidos. ¿Qué es Astra? ¿Es lo que impulsa Gemini Live? ¿Gemini Live es similar a Google Lens? ¿Cómo se diferencia de Gemini Flash? ¿Google realmente está fabricando gafas de IA o es solo un rumor? ¿Qué son Gemma, LearnLM y Gems? ¿Cuándo llegará Gemini a tu bandeja de entrada o documentos? ¿Cómo se usan estas herramientas?
Lo que faltó en la presentación, a pesar del entusiasmo de los presentadores y los aplausos del público, fue una sensación de revolución inminente en la IA. Si la IA va a impactar la tecnología de manera tan profunda como lo hizo el iPhone con la computación personal, este no fue el evento donde se mostró. En cambio, la conclusión fue que todavía estamos en las primeras etapas del desarrollo de la IA.
Durante el evento, se percibía que incluso los empleados de Google sabían que el trabajo estaba incompleto. Por ejemplo, al demostrar cómo la IA podía compilar una guía de estudio y un cuestionario en minutos, notamos que las respuestas del cuestionario no estaban anotadas con las fuentes citadas. Cuando se preguntó sobre la precisión, un empleado admitió que la IA acierta en su mayoría y que una versión futura señalaría las fuentes para que las personas pudieran verificar las respuestas. Pero si tienes que verificar, ¿qué tan confiable es una guía de estudio de IA para prepararte para un examen?
En la demostración de Astra, una cámara montada sobre una mesa y conectada a una pantalla táctil permitía jugar Pictionary con la IA, mostrarle objetos, hacer preguntas sobre esos objetos, contar historias y más. Sin embargo, los casos de uso para estas habilidades en la vida cotidiana no eran evidentes, a pesar de los avances técnicos que, por sí solos, son impresionantes.
Por ejemplo, podrías pedirle a la IA que describiera objetos usando aliteración. En la presentación en vivo, Astra vio un conjunto de crayones y respondió “crayones creativos coloreados alegremente”. Un truco de fiesta interesante. En una demostración privada, desafiamos a Astra a adivinar el objeto en un dibujo garabateado, identificando correctamente una flor y una casa que dibujé en la pantalla táctil de inmediato. Pero cuando dibujé un insecto, la IA se confundió. ¿Es una flor? No. ¿Es el sol? No. El empleado guió a la IA a adivinar algo vivo. Añadí 2 patas más para un total de 8. ¿Es una araña? Sí. Un humano habría visto el insecto de inmediato, a pesar de mi falta de habilidad artística.
En el evento, Google no permitió grabaciones ni fotografías en la sala de demostración de Astra. También tenían Astra funcionando en un smartphone Android, pero no se podía ver la aplicación ni sostener el teléfono. Las demostraciones fueron divertidas y la tecnología que las hizo posibles vale la pena explorar, pero Google perdió la oportunidad de mostrar cómo su tecnología de IA impactará tu vida cotidiana.
¿Cuándo necesitarás pedirle a una IA que invente un nombre de banda basado en una imagen de tu perro y un tigre de peluche? ¿Realmente necesitas una IA para ayudarte a encontrar tus gafas? Estas fueron otras demostraciones de Astra en la presentación.
No es la primera vez que vemos un evento tecnológico lleno de demostraciones de un futuro avanzado sin aplicaciones en el mundo real. Google, por ejemplo, ha mostrado sus gafas de realidad aumentada en años anteriores. Después de ver I/O, parece que Google ve la IA como otro medio para generar ingresos adicionales: paga por Google One AI Premium si quieres las mejoras de sus productos. Quizás, entonces, Google no hará el primer gran avance en IA para consumidores.
Sin embargo, hubo momentos en que la IA Astra de Google parecía más prometedora. Si pudiera identificar correctamente código o hacer sugerencias sobre cómo mejorar un sistema basado en un diagrama, sería más fácil ver cómo podría ser un compañero de trabajo útil.
Hubo otros momentos en que la practicidad de la IA en el mundo real también brilló. Tener la IA de Gemini en tu bandeja de entrada para resumir correos electrónicos, redactar respuestas o listar tareas podría ayudarte a alcanzar el tan ansiado “inbox zero” más rápidamente. Pero, ¿puede eliminar tus correos no deseados, organizar inteligentemente los correos en etiquetas, asegurarse de que nunca pierdas un mensaje importante y ofrecer un resumen de todo lo que necesitas hacer tan pronto como inicies sesión? No del todo. Aún no.
Al pensar en cómo la IA impactará el ecosistema de Android, había una sensación de que incluso Google no puede argumentar que la IA ayudará a Android a atraer usuarios del ecosistema de Apple. “¿Cuándo es el mejor momento para cambiar de iPhone a Android?”, preguntamos a empleados de Google de varios rangos. “Este otoño” fue la respuesta general. En otras palabras, el evento de hardware de otoño de Google, que debería coincidir con la adopción de RCS por parte de Apple, una actualización de SMS que hará que la mensajería de Android sea más competitiva con iMessage.
En resumen, la adopción de la IA por parte de los consumidores en dispositivos de computación personal puede requerir nuevos desarrollos de hardware, pero Google aún no está listo para revelar sus actualizaciones de hardware ni siquiera insinuarlas. Y, como ya hemos visto, con los lanzamientos decepcionantes de AI Pin y Rabbit, el hardware sigue siendo difícil.
Aunque hoy se puede hacer mucho con la tecnología de IA de Google en dispositivos Android, los accesorios de Google como el Pixel Watch y el sistema que lo impulsa, WearOS, fueron en gran medida ignorados en I/O, más allá de algunas mejoras menores de rendimiento. Sus auriculares Pixel Buds ni siquiera fueron mencionados. En el mundo de Apple, estos accesorios ayudan a mantener a los usuarios en su ecosistema y podrían algún día conectarlos con un Siri potenciado por IA. Son piezas críticas de su estrategia general, no complementos opcionales.
Mientras tanto, hay una sensación de espera: la Conferencia Mundial de Desarrolladores de Apple promete revelar su propia agenda de IA, tal vez a través de una asociación con OpenAI… o incluso con Google. ¿Será competitiva? ¿Cómo puede serlo si la IA no puede integrarse profundamente en el sistema operativo, como puede hacerlo Gemini en Android? El mundo está esperando la respuesta de Apple.
Con un evento de hardware en otoño, Google tiene tiempo para revisar los lanzamientos de Apple y luego intentar crear su propio momento de IA tan poderoso y comprensible como la presentación del iPhone por Steve Jobs: “Un iPod, un teléfono y un comunicador de Internet. Un iPod, un teléfono… ¿lo entiendes?” La gente lo entendió. Pero, ¿cuándo entenderán la IA de Google de la misma manera? No en este I/O, al menos.