El pasado octubre, Meta comenzó a explorar el reconocimiento facial, un área en la que ha tenido problemas en el pasado. La compañía lanzó una prueba internacional de dos nuevas herramientas: una para detener estafas que utilizan imágenes de personas famosas y otra para ayudar a las personas a recuperar sus cuentas de Facebook o Instagram comprometidas. Ahora, esta prueba se está expandiendo a un país más importante. Después de no haber lanzado inicialmente su prueba de reconocimiento facial en el Reino Unido, Meta comenzó a implementar ambas herramientas allí también. En otros países donde ya se han lanzado las herramientas, la protección contra el uso indebido de imágenes de celebridades se está ampliando a más personas, según la compañía.
Meta anunció que recibió la aprobación en el Reino Unido tras “dialogar con los reguladores” del país, que ha estado promoviendo la inteligencia artificial en los últimos meses. Aún no hay noticias sobre Europa, otra región clave donde Meta no ha lanzado estas herramientas de reconocimiento facial. “En las próximas semanas, las figuras públicas en el Reino Unido comenzarán a recibir notificaciones en la aplicación que les informarán que ahora pueden optar por recibir la protección contra el uso indebido de imágenes de celebridades con tecnología de reconocimiento facial”, dijo la compañía. Ambas herramientas, incluida la verificación de video selfie, son opcionales.
Cuando Meta presentó el lanzamiento de estas nuevas herramientas de reconocimiento facial, la compañía aseguró que no se utilizarían para nada más que para los fines mencionados: combatir anuncios fraudulentos y verificar usuarios. “Eliminamos de inmediato cualquier dato facial generado a partir de anuncios para esta comparación única, independientemente de si nuestro sistema encuentra una coincidencia, y no lo usamos para ningún otro propósito”, escribió Monika Bickert, vicepresidenta de políticas de contenido de Meta, en una publicación de blog (que ahora se actualizó con el detalle sobre la expansión en el Reino Unido).
Estos desarrollos ocurren en un momento en que Meta está apostando fuerte por la inteligencia artificial en su negocio. Además de desarrollar sus propios Modelos de Lenguaje Grande y utilizar IA en sus productos, también se informa que está trabajando en una aplicación de IA independiente. La compañía ha intensificado sus esfuerzos de cabildeo en torno a esta tecnología y ha expresado su opinión sobre lo que considera aplicaciones de IA arriesgadas, como aquellas que pueden ser utilizadas como armas (sugiriendo que lo que Meta desarrolla no es arriesgado).
La decisión de Meta de crear herramientas que aborden problemas inmediatos en sus aplicaciones parece ser la mejor forma de ganar aceptación para cualquier nueva función de reconocimiento facial. Estas características cumplen con ese objetivo. Como hemos mencionado antes, Meta ha sido acusada durante muchos años de no detener a los estafadores que utilizan las imágenes de personas famosas para lanzar estafas, como inversiones en criptomonedas engañosas, a usuarios desprevenidos. El reconocimiento facial ha sido un área complicada para Meta a lo largo de los años en su trabajo con tecnología de IA. Recientemente, la compañía acordó pagar 1.4 mil millones de dólares para resolver una demanda en Texas, donde se le acusaba de recopilar datos biométricos de manera inapropiada en relación con su tecnología de reconocimiento facial. En 2021, Facebook cerró su herramienta de reconocimiento facial para fotos, que había enfrentado numerosos problemas regulatorios y legales. Curiosamente, en ese momento retuvo una parte de la tecnología: su modelo DeepFace, que dijo que incorporaría en futuras tecnologías. Esto podría ser parte de lo que se está construyendo con los productos actuales.