Google ha anunciado que lanzará una nueva función para ayudar a los usuarios a “entender mejor cómo se creó y modificó un contenido específico”. Esto ocurre después de que la compañía se uniera a la Coalición por la Procedencia y Autenticidad del Contenido (C2PA), un grupo de marcas importantes que busca combatir la difusión de información engañosa en línea. Entre los miembros también se encuentran Amazon, Adobe y Microsoft.
La nueva función, que se implementará en los próximos meses, utilizará las pautas actuales de Credenciales de Contenido, que son los metadatos de una imagen, para añadir una etiqueta a las imágenes generadas o editadas por inteligencia artificial. Esto proporcionará más transparencia a los usuarios. Los metadatos incluyen información sobre el origen de la imagen, así como cuándo, dónde y cómo fue creada.
Sin embargo, muchos desarrolladores de inteligencia artificial, como Black Forrest Labs, han rechazado el estándar C2PA, que permite a los usuarios rastrear el origen de diferentes tipos de medios. La identificación de imágenes generadas por IA se llevará a cabo a través de la ventana “Acerca de esta imagen” de Google, lo que significa que también estará disponible para los usuarios mediante Google Lens y la función ‘Círculo para Buscar’ de Android. Cuando esté activa, los usuarios podrán hacer clic en los tres puntos sobre una imagen y seleccionar “Acerca de esta imagen” para verificar si fue generada por IA, aunque no será tan evidente como se esperaba.
A pesar de que Google necesitaba abordar las imágenes generadas por IA en sus resultados de búsqueda, queda la duda de si una etiqueta oculta es suficiente. Si la función funciona como se indica, los usuarios tendrán que realizar pasos adicionales para verificar si una imagen fue creada con IA antes de que Google lo confirme. Aquellos que no conocen la existencia de la función “Acerca de esta imagen” pueden no darse cuenta de que tienen una nueva herramienta disponible.
Las imágenes generadas por IA son problemáticas, como se evidenció cuando Donald Trump publicó imágenes digitales de Taylor Swift y sus fans apoyando falsamente su campaña presidencial. Además, Swift se convirtió en víctima de abuso sexual basado en imágenes cuando se volvieron virales fotos generadas por IA de ella desnuda.
Aunque es fácil criticar a Google por no hacer lo suficiente, incluso Meta ha mostrado reticencia a hacer visibles las etiquetas. Recientemente, la red social actualizó su política para que las etiquetas sean menos visibles, trasladando la información relevante al menú de las publicaciones.
Esta actualización de la herramienta “Acerca de esta imagen” es un primer paso positivo, pero se necesitarán medidas más agresivas para mantener informados y protegidos a los usuarios. Más empresas, como fabricantes de cámaras y desarrolladores de herramientas de IA, también deberán aceptar y utilizar las marcas de agua del C2PA para que este sistema sea lo más efectivo posible, ya que Google dependerá de esos datos. Pocos modelos de cámaras, como la Leica M-11P y la Nikon Z9, cuentan con las funciones de Credenciales de Contenido integradas, mientras que Adobe ha implementado una versión beta en Photoshop y Lightroom. Sin embargo, nuevamente, depende del usuario utilizar las funciones y proporcionar información precisa.
Un estudio de la Universidad de Waterloo reveló que solo el 61% de las personas podían distinguir entre imágenes generadas por IA y reales. Si estas cifras son correctas, el sistema de etiquetado de Google no ofrecerá mayor transparencia a más de un tercio de las personas. Aun así, es un paso positivo de Google en la lucha contra la desinformación en línea, pero sería beneficioso que los gigantes tecnológicos hicieran estas etiquetas mucho más accesibles.