OpenAI está cerca de lanzar una herramienta de inteligencia artificial que podría tomar el control de tu computadora y realizar acciones por ti. Tibor Blaho, un ingeniero de software conocido por filtrar información sobre productos de IA, afirma haber encontrado pruebas de una herramienta llamada “Operator”. Medios como Bloomberg ya habían informado sobre Operator, que se describe como un sistema capaz de manejar tareas de forma autónoma, como escribir código y reservar viajes. Según The Information, OpenAI planea lanzar Operator en enero.
Blaho descubrió que la aplicación ChatGPT para macOS tiene opciones ocultas para activar y cerrar Operator. Además, OpenAI ha añadido referencias a Operator en su sitio web, aunque aún no son visibles para el público.
El sitio de OpenAI menciona tablas que comparan el rendimiento de Operator con otros sistemas de IA que utilizan computadoras. Aunque estas tablas podrían ser solo un borrador, si los datos son correctos, sugieren que Operator no es completamente confiable, dependiendo de la tarea.
En una prueba que simula un entorno informático real, el “Agente de Uso de Computadora de OpenAI” (CUA) obtuvo un 38.1%, superando a otros modelos, pero muy por debajo del 72.4% que logran los humanos. Aunque CUA supera a los humanos en la navegación web, no logra igualar su rendimiento en otras pruebas. Por ejemplo, al intentar registrarse en un proveedor de nube y lanzar una máquina virtual, Operator tuvo éxito solo el 60% de las veces, y solo el 10% al crear una billetera de Bitcoin.
La entrada de OpenAI en el espacio de los agentes de IA se produce mientras competidores como Anthropic y Google también están desarrollando sus propias versiones. Aunque los agentes de IA son aún primitivos, se espera que el mercado de estos sistemas alcance un valor de 47.1 mil millones de dólares para 2030. Sin embargo, algunos expertos han expresado preocupaciones sobre su seguridad a medida que la tecnología avanza.
Un gráfico filtrado muestra que Operator se desempeña bien en evaluaciones de seguridad, incluyendo pruebas que intentan que el sistema realice actividades ilícitas. La seguridad ha sido una de las razones del largo ciclo de desarrollo de Operator. Wojciech Zaremba, cofundador de OpenAI, criticó a Anthropic por lanzar un agente que, según él, carece de medidas de seguridad. Zaremba comentó que las reacciones negativas serían inminentes si OpenAI hiciera algo similar. Además, OpenAI ha sido criticada por investigadores de IA por supuestamente priorizar la comercialización de su tecnología sobre la seguridad.