La inteligencia artificial generativa y los modelos de lenguaje grande (LLMs) han ganado mucha popularidad en los últimos años, cambiando la forma en que buscamos información en línea con herramientas como ChatGPT. Además, están mejorando el soporte al cliente, la generación de contenido, la traducción y más. Ahora, una nueva startup llamada Kapa.ai está utilizando LLMs para crear asistentes de IA que responden preguntas complejas específicamente para desarrolladores, usuarios de software y empleados. Es como ChatGPT, pero enfocado en productos técnicos.
Kapa.ai fue fundada en febrero del año pasado y es parte del programa de verano 2023 de Y Combinator. Ya cuenta con una lista impresionante de clientes, incluyendo a OpenAI, Docker, Reddit, Monday.com y Mapbox. Según Emil Sorensen, CEO y cofundador, el concepto inicial surgió cuando varios amigos con empresas tecnológicas le plantearon el mismo problema. Después de crear un prototipo, lograron su primer piloto pagado en una semana, lo que llevó a un crecimiento orgánico gracias al boca a boca.
Para aprovechar este impulso inicial, Kapa.ai ha recaudado 3.2 millones de dólares en una ronda de financiamiento inicial liderada por Initialized Capital. Las empresas cargan su documentación técnica en Kapa.ai, que luego ofrece una interfaz para que desarrolladores y usuarios hagan preguntas. Por ejemplo, Docker lanzó recientemente un asistente de documentación llamado Docker Docs AI, que responde instantáneamente a preguntas relacionadas con Docker utilizando Kapa.ai.
Kapa.ai se puede usar en múltiples casos, como soporte al cliente, participación comunitaria y como asistente en el lugar de trabajo para ayudar a los empleados a consultar la base de conocimiento de su empresa. La plataforma utiliza varios LLMs de diferentes proveedores y se basa en un marco de aprendizaje automático llamado Generación Aumentada por Recuperación (RAG), que mejora el rendimiento de los LLMs al permitirles acceder fácilmente a fuentes de datos externas relevantes.
Sorensen menciona que Kapa.ai es “agnóstico a modelos”, lo que significa que trabaja con múltiples proveedores y utiliza los mejores modelos y técnicas de recuperación para cada caso específico. Aunque hay herramientas similares en el mercado, Kapa.ai se diferencia al enfocarse más en usuarios externos que en empleados, lo que influye en su diseño. La precisión es crucial, ya que las empresas temen que la IA pueda dar respuestas incorrectas a los clientes.
Kapa.ai se centra en ofrecer respuestas precisas sobre documentación técnica, minimizando los errores. Esto significa que su sistema está diseñado para ser menos creativo que otros LLMs, garantizando que las respuestas provengan solo del contenido proporcionado. Además, Kapa.ai aborda la privacidad de los datos, un aspecto importante para las empresas que desean adoptar IA generativa sin exponer información sensible. Incluye detección y enmascaramiento de información personal (PII), asegurando que los datos privados no se almacenen ni compartan.
Las empresas pueden crear algo similar a Kapa.ai utilizando herramientas de terceros, pero esto requiere mucho tiempo y recursos. Kapa.ai ofrece una solución más sencilla a través de su widget en el sitio web, su bot para Slack o Zendesk, o su API para personalizar interfaces. Sorensen señala que la mayoría de sus clientes prefieren no hacer todo el trabajo de ingeniería y buscan un motor de IA preciso y confiable que ya esté optimizado para responder preguntas sobre productos técnicos.
En cuanto a precios, Kapa.ai utiliza un modelo de suscripción SaaS con precios escalonados según la complejidad de la implementación y el uso, aunque no publica estos precios. La empresa cuenta con un equipo remoto de nueve personas distribuidas en dos centros principales: Copenhague y San Francisco. Además de Initialized Capital, la ronda de financiamiento inicial de Kapa.ai contó con la participación de Y Combinator y varios inversores ángeles, incluyendo al fundador de Docker, Solomon Hykes, y al profesor de Stanford y investigador de IA, Douwe Kiela.