Como parte de la serie en curso de TechCrunch sobre Mujeres en IA, que busca dar a las mujeres enfocadas en la inteligencia artificial el reconocimiento que merecen, TechCrunch entrevistó a Lakshmi Raman, directora de IA en la CIA. Hablamos sobre su camino hacia la dirección, el uso de la IA por parte de la CIA y el equilibrio necesario entre adoptar nuevas tecnologías y desplegarlas de manera responsable.
Raman ha estado en el campo de la inteligencia durante mucho tiempo. Se unió a la CIA en 2002 como desarrolladora de software tras obtener su licenciatura en la Universidad de Illinois Urbana-Champaign y su maestría en ciencias de la computación en la Universidad de Chicago. Años después, pasó a la gestión dentro de la agencia, llegando a liderar los esfuerzos de ciencia de datos de la CIA.
Raman menciona que tuvo la suerte de contar con modelos a seguir femeninos en la CIA, dado que históricamente el campo de la inteligencia ha sido dominado por hombres. “Todavía tengo personas a las que puedo acudir para pedir consejo y orientación sobre el liderazgo”, dijo. “Creo que cada mujer tiene que navegar ciertos desafíos a lo largo de su carrera”.
Como directora, Raman coordina e impulsa las actividades de IA en toda la CIA. “Creemos que la IA está aquí para apoyar nuestra misión”, afirmó. “Son los humanos y las máquinas juntos los que están a la vanguardia de nuestro uso de la IA”.
La IA no es nueva para la CIA. La agencia ha estado explorando aplicaciones de ciencia de datos e IA desde alrededor del año 2000, especialmente en áreas como el procesamiento de lenguaje natural, la visión por computadora y el análisis de video. La CIA intenta mantenerse al día con las nuevas tendencias, como la IA generativa, con una hoja de ruta informada tanto por la industria como por la academia.
“Cuando pensamos en la enorme cantidad de datos que debemos consumir dentro de la agencia, el triaje de contenido es un área donde la IA generativa puede marcar la diferencia”, explicó Raman. “Estamos explorando cosas como la ayuda en la búsqueda y el descubrimiento, la generación de ideas y la creación de contraargumentos para contrarrestar posibles sesgos analíticos”.
Existe un sentido de urgencia dentro de la comunidad de inteligencia de EE. UU. para desplegar herramientas que puedan ayudar a la CIA a combatir las crecientes tensiones geopolíticas en todo el mundo, desde amenazas terroristas hasta campañas de desinformación por actores extranjeros. El año pasado, el Proyecto de Estudios Competitivos Especiales estableció un plazo de dos años para que los servicios de inteligencia adopten la IA generativa a gran escala.
Una herramienta de IA generativa que la CIA desarrolló, llamada Osiris, es similar a ChatGPT de OpenAI, pero personalizada para casos de uso de inteligencia. Osiris resume datos y permite a los analistas profundizar haciendo preguntas de seguimiento en inglés sencillo. Actualmente, Osiris es utilizado por miles de analistas no solo en la CIA, sino también en las 18 agencias de inteligencia de EE. UU.
Raman no reveló si Osiris fue desarrollado internamente o con tecnología de terceros, pero mencionó que la CIA tiene asociaciones con proveedores reconocidos. “Aprovechamos los servicios comerciales”, dijo, añadiendo que la CIA también emplea herramientas de IA para tareas como la traducción y alertas a los analistas sobre desarrollos importantes fuera del horario laboral.
Hay razones para ser escéptico y estar preocupado por el uso de la IA por parte de la CIA. En febrero de 2022, los senadores Ron Wyden y Martin Heinrich revelaron que la CIA tiene un repositorio de datos no divulgado que incluye información sobre ciudadanos estadounidenses. Además, un informe mostró que las agencias de inteligencia de EE. UU. compran datos sobre estadounidenses a corredores de datos con poca supervisión.
Si la CIA utilizara IA para analizar estos datos, muchos estadounidenses objetarían, ya que sería una clara violación de las libertades civiles y podría resultar en resultados injustos debido a las limitaciones de la IA. Varios estudios han demostrado que los algoritmos predictivos de crimen tienden a sesgarse y a identificar desproporcionadamente a comunidades negras. Otros estudios sugieren que el reconocimiento facial tiene una tasa más alta de identificación errónea en personas de color.
Raman insistió en que la CIA cumple con todas las leyes de EE. UU. y sigue todas las directrices éticas, utilizando la IA de manera que mitigue el sesgo. “Lo llamaría un enfoque reflexivo [de la IA]”, dijo. “Queremos que nuestros usuarios comprendan lo más posible sobre el sistema de IA que están utilizando”.
En un estudio reciente, se encontró que las herramientas de IA, incluyendo el reconocimiento facial y los algoritmos de detección de disparos, eran utilizadas por la policía sin familiaridad con las tecnologías o sus limitaciones. En un ejemplo particularmente grave, la policía de Nueva York utilizó fotos de celebridades y bocetos para generar coincidencias de reconocimiento facial en casos donde las imágenes de vigilancia no arrojaban resultados.
“Todo contenido generado por IA debe ser claramente entendido por los usuarios, lo que significa etiquetar el contenido generado por IA y proporcionar explicaciones claras de cómo funcionan los sistemas de IA”, dijo Raman. “Todo lo que hacemos en la agencia, lo hacemos cumpliendo con nuestros requisitos legales y asegurando que nuestros usuarios y socios estén al tanto de todas las leyes, regulaciones y directrices relevantes que rigen el uso de nuestros sistemas de IA”.
Este reportero ciertamente espera que eso sea cierto.