El CEO de OpenAI, Sam Altman, anunció esta semana en una publicación en X que la empresa se está asociando con el Instituto de Seguridad de IA de EE. UU. y dará acceso temprano a su próximo modelo de IA para pruebas de seguridad. Altman describió este plan como parte de un esfuerzo mayor por implementar medidas de seguridad en la IA, lo cual podría afectar significativamente a ChatGPT y otros productos de OpenAI en los próximos años. Esta iniciativa también podría ser una respuesta a las críticas que afirman que OpenAI ya no prioriza la seguridad en la IA.
Una de las razones principales de estas críticas es que OpenAI creó y luego disolvió en gran medida un equipo interno de seguridad de IA. Esta disolución llevó a la renuncia de altos ejecutivos de la empresa, como Jan Leike e Ilya Sutskever, quienes fueron fundamentales en los primeros esfuerzos de investigación de seguridad de la compañía. Muchos empleados actuales y anteriores se preguntaron públicamente si OpenAI había decidido ignorar la seguridad en favor del desarrollo de productos.
Otra razón destacada en una nota adjunta a la publicación de Altman menciona que el año pasado se comprometieron a asignar el 20% de sus recursos informáticos a la investigación de seguridad, pero esa asignación fue específicamente para el mismo comité cuyos líderes dejaron la empresa. Aun así, el acuerdo con el gobierno no es el único cambio genuino. Altman dijo que OpenAI ha anulado ahora las cláusulas restrictivas de no desprestigio que desalentaban las denuncias.
Si el acuerdo con el Instituto de Seguridad de IA de EE. UU. es una estrategia de OpenAI para recuperar la confianza, es una medida significativa. El Instituto opera bajo el Instituto Nacional de Estándares y Tecnología (NIST) dentro del Departamento de Comercio. Ha estado trabajando en el desarrollo de estándares y directrices para la seguridad y la protección de la IA y ya colabora con muchas grandes empresas de tecnología como Microsoft, Google, Meta, Apple y Nvidia.
Compartir el acceso temprano al próximo modelo de IA permitirá al Instituto realizar pruebas de seguridad y evaluaciones antes de su lanzamiento público. Este movimiento tiene como objetivo asegurar que cualquier riesgo potencial sea identificado y mitigado temprano en el proceso de desarrollo, alineándose con los objetivos más amplios delineados en la orden ejecutiva sobre IA del presidente Joe Biden el año pasado.
No es el único incentivo regulatorio reciente de OpenAI. La empresa respaldó la nueva Ley del Futuro de la Innovación del Senado, que otorgaría al Instituto de Seguridad de IA la responsabilidad de crear regulaciones federales para la seguridad de la IA. La conexión obvia entre impulsar el proyecto de ley y hacer que sus modelos sean centrales para el trabajo del Instituto podría verse como un intento de influir indebidamente en la regulación o un esfuerzo más inocente por mejorar la seguridad de la IA.
Ambas interpretaciones parecen plausibles, y OpenAI tiene una asociación similar con el organismo de seguridad de IA del Reino Unido. Sin embargo, OpenAI ha gastado más del triple en cabildeo en la primera mitad de este año en comparación con todo el año pasado.
La asociación de OpenAI con el Instituto de Seguridad de IA de EE. UU. probablemente será juzgada por lo seguras que sean realmente los modelos finales y si existen restricciones reales para hacerlos más seguros. Ahí es donde radica la verdadera pregunta para los consumidores. A medida que la IA se integra cada vez más en la vida cotidiana, la tensión entre seguridad y rentabilidad podría crecer, incluso cuando OpenAI y sus rivales esperan ganarse la confianza del público en sus modelos de IA.
Un sello de aprobación de una agencia gubernamental ciertamente ayudaría en el frente de la confianza, y OpenAI no querría que otras empresas lo obtuvieran antes que ellos. La participación de un organismo de seguridad independiente en la evaluación de modelos de IA antes de su lanzamiento podría proporcionar una mayor garantía de que las herramientas que utilizan son seguras y confiables. Las crecientes preocupaciones sobre problemas de IA, como la privacidad de los datos, el sesgo y el uso indebido deliberado de la IA, podrían mitigarse con este enfoque proactivo. Sin embargo, los esfuerzos de cabildeo de OpenAI y otros para hacer que esas reglas les sean favorables podrían socavar esto y el propósito completo del Instituto de Seguridad de IA si no tienen cuidado.