Nvidia está lanzando tres nuevos microservicios NIM, que son pequeños servicios independientes que forman parte de aplicaciones más grandes. Estos microservicios ayudarán a las empresas a tener un mayor control y medidas de seguridad para sus agentes de inteligencia artificial. Uno de los nuevos servicios se enfoca en la seguridad del contenido y busca evitar que un agente de IA genere resultados dañinos o sesgados. Otro servicio se encarga de mantener las conversaciones centradas solo en temas aprobados, mientras que el tercer servicio ayuda a prevenir intentos de “jailbreak”, que son intentos de eliminar restricciones de software.
Estos tres nuevos microservicios son parte de Nvidia NeMo Guardrails, una colección de herramientas de software y microservicios de código abierto que Nvidia ya ofrece para ayudar a las empresas a mejorar sus aplicaciones de IA. Según un comunicado de prensa, “al aplicar múltiples modelos ligeros y especializados como guardrails, los desarrolladores pueden cubrir vacíos que pueden ocurrir cuando solo existen políticas y protecciones globales más generales, ya que un enfoque único no asegura ni controla adecuadamente flujos de trabajo complejos de IA”.
Parece que las empresas de IA están comenzando a darse cuenta de que lograr que las empresas adopten su tecnología de agentes de IA no será tan simple como pensaban al principio. Aunque el CEO de Salesforce, Marc Benioff, predijo recientemente que habrá más de mil millones de agentes funcionando solo en Salesforce en los próximos 12 meses, la realidad probablemente será diferente. Un estudio reciente de Deloitte predijo que alrededor del 25% de las empresas ya están utilizando agentes de IA o esperan hacerlo para 2025. El informe también previó que para 2027, aproximadamente la mitad de las empresas estarán utilizando agentes.
Esto muestra que, aunque las empresas están claramente interesadas en los agentes de IA, no están adoptando la tecnología de IA al mismo ritmo que la innovación avanza en este campo. Nvidia espera que iniciativas como esta hagan que la adopción de agentes de IA parezca más segura y menos experimental. Solo el tiempo dirá si esto es realmente cierto.