Cyril Gorlla creció como inmigrante y aprendió a programar por sí mismo. A los 11 años, aprobó con éxito un curso de programación en el colegio comunitario de su madre, a pesar de que en su casa a veces no tenían electricidad. En la secundaria, se interesó por la inteligencia artificial (IA) y se obsesionó tanto con la idea de entrenar sus propios modelos de IA que desarmó su computadora portátil para mejorar su sistema de refrigeración. Esto le llevó a conseguir una pasantía en Intel durante su segundo año de universidad, donde investigó la optimización y la interpretabilidad de modelos de IA.
Durante sus años universitarios, Gorlla vio cómo la IA se volvía cada vez más popular, con empresas como OpenAI recibiendo miles de millones de dólares para desarrollar tecnología de IA. Él creía que la IA podía transformar industrias enteras, pero también pensaba que la seguridad en el uso de la IA estaba quedando en segundo plano. “Sentía que necesitábamos un cambio fundamental en cómo entendemos y entrenamos la IA”, comentó. “La falta de certeza y confianza en los resultados de los modelos es una barrera significativa para su adopción en sectores como la salud y las finanzas, donde la IA puede hacer la mayor diferencia”.
Así que, junto a Trevor Tuttle, a quien conoció en la universidad, Gorlla abandonó su programa de posgrado para fundar una empresa llamada CTGT, que ayuda a las organizaciones a implementar la IA de manera más reflexiva. CTGT presentó su proyecto en el evento TechCrunch Disrupt 2024, como parte de la competencia Startup Battlefield. “Mis padres creen que estoy en la escuela”, dijo Gorlla. “Leer esto podría ser un shock para ellos”.
CTGT trabaja con empresas para identificar sesgos y errores en los modelos de IA, buscando abordar las causas de estos problemas. Aunque es imposible eliminar completamente los errores de un modelo, Gorlla afirma que el enfoque de auditoría de CTGT puede ayudar a las empresas a reducirlos. “Exponemos la comprensión interna de un modelo sobre conceptos”, explicó. “Mientras que un modelo que sugiere poner pegamento en una receta puede ser gracioso, una respuesta que recomienda competidores cuando un cliente pide una comparación de productos no es trivial. Es inaceptable que un paciente reciba información de un estudio clínico que está desactualizada, o que una decisión de crédito se base en información errónea”.
Una encuesta reciente de Cnvrg encontró que la fiabilidad es una de las principales preocupaciones de las empresas que adoptan aplicaciones de IA. En un estudio separado de Riskonnect, más de la mitad de los ejecutivos expresaron su preocupación por que los empleados tomaran decisiones basadas en información inexacta de herramientas de IA. La idea de una plataforma dedicada a evaluar la toma de decisiones de un modelo de IA no es nueva. Startups como TruEra y Patronus AI, así como gigantes como Google y Microsoft, están desarrollando herramientas para interpretar el comportamiento de los modelos. Sin embargo, Gorlla sostiene que las técnicas de CTGT son más efectivas, en parte porque no dependen de entrenar una IA “juez” para monitorear modelos en producción.
CTGT también ofrece una opción de implementación local para tranquilizar a los clientes sobre posibles filtraciones de datos, cobrando la misma tarifa anual por ambas opciones. “No tenemos acceso a los datos de los clientes, dándoles control total sobre cómo y dónde se utilizan”, dijo Gorlla. CTGT, que es parte del programa de aceleración Character Labs, cuenta con el apoyo de inversores como Mark Cuban y cofundadores de Zapier.
A pesar de ser una empresa en sus inicios, CTGT ya tiene varios clientes, incluyendo tres marcas de Fortune 10. Gorlla mencionó que trabajaron con una de estas empresas para minimizar el sesgo en su algoritmo de reconocimiento facial. “Identificamos que el modelo se enfocaba demasiado en el cabello y la ropa para hacer sus predicciones”, explicó. “Nuestra plataforma proporcionó a los profesionales información inmediata sin las conjeturas y el tiempo perdido de los métodos tradicionales de interpretabilidad”.
En los próximos meses, CTGT se centrará en expandir su equipo de ingeniería y perfeccionar su plataforma. Si logra establecerse en el creciente mercado de la interpretabilidad de la IA, podría ser muy rentable. La firma de análisis Markets and Markets proyecta que el sector de “IA explicable” podría valer 16.2 mil millones de dólares para 2028. “El tamaño de los modelos está superando la Ley de Moore y los avances en chips de entrenamiento de IA”, dijo Gorlla. “Esto significa que necesitamos centrarnos en una comprensión fundamental de la IA para hacer frente a la ineficiencia y la naturaleza cada vez más compleja de las decisiones de los modelos”.