A medida que las empresas incorporan cada vez más la inteligencia artificial en sus procesos y productos, la demanda de herramientas y plataformas que faciliten la creación, prueba y despliegue de modelos de aprendizaje automático está en aumento. Esta categoría de plataformas, conocida como operaciones de aprendizaje automático o MLOps, ya cuenta con varias opciones en el mercado, incluyendo startups como InfuseAI, Comet y Arize, así como grandes empresas como Google Cloud y AWS.
Recientemente, una plataforma surcoreana de MLOps llamada VESSL AI está buscando hacerse un lugar al centrarse en la optimización de los costos de GPU utilizando una infraestructura híbrida que combina entornos locales y en la nube. La startup ha recaudado 12 millones de dólares en una ronda de financiamiento Serie A para acelerar el desarrollo de su infraestructura, dirigida a empresas que desean crear modelos de lenguaje personalizados y agentes de inteligencia artificial verticales.
VESSL AI ya cuenta con 50 clientes empresariales, incluyendo grandes nombres como Hyundai y TMAP Mobility, una empresa conjunta entre Uber y SK Telecom. Además, ha formado alianzas estratégicas con Oracle y Google Cloud en Estados Unidos. La compañía tiene más de 2,000 usuarios, según su cofundador y CEO, Jaeman Kuss An.
An fundó la startup en 2020 junto a otros expertos que habían trabajado en Google y en la empresa de juegos móviles PUBG, con el objetivo de resolver un problema que enfrentó al desarrollar modelos de aprendizaje automático en una startup de tecnología médica: la gran cantidad de trabajo involucrado en el uso de herramientas de aprendizaje automático. El equipo descubrió que podían hacer el proceso más eficiente y económico aprovechando un modelo de infraestructura híbrida.
La plataforma de MLOps de VESSL utiliza una estrategia de múltiples nubes y instancias spot para reducir los costos de GPU hasta en un 80%, lo que también ayuda a abordar la escasez de GPU y optimiza el entrenamiento, despliegue y operación de modelos de IA, incluidos los modelos de lenguaje a gran escala.
VESSL ofrece cuatro características principales: VESSL Run, que automatiza el entrenamiento de modelos de IA; VESSL Serve, que apoya el despliegue en tiempo real; VESSL Pipelines, que integra el entrenamiento de modelos y la preprocesamiento de datos; y VESSL Cluster, que optimiza el uso de recursos de GPU en un entorno de clúster.
Los inversores de la ronda Serie A, que eleva el total recaudado por la compañía a 16.8 millones de dólares, incluyen A Ventures, Ubiquitous Investment y Mirae Asset Securities. La startup cuenta con 35 empleados en Corea del Sur y en su oficina de San Mateo, Estados Unidos.
Las empresas consideran que MLOps es fundamental para garantizar la fiabilidad y el rendimiento en sus operaciones.