OpenAI, la empresa tecnológica detrás de ChatGPT, ha anunciado la formación de un ‘Comité de Seguridad y Protección’ para hacer su enfoque hacia la inteligencia artificial más responsable y seguro. OpenAI y su CEO, Sam Altman, quien estará en el comité, quieren ser los primeros en alcanzar la AGI (Inteligencia General Artificial), que se considera como una inteligencia artificial que se asemeja a la inteligencia humana y puede enseñarse a sí misma.
Recientemente, OpenAI presentó GPT-4o al público, un modelo de IA generativa multimodal capaz de procesar y responder con audio, texto e imágenes. Aunque fue bien recibido, surgieron debates sobre sus capacidades reales, implicaciones y la ética de tecnologías como esta.
Hace poco más de una semana, OpenAI confirmó a Wired que su equipo anterior encargado de la seguridad de sus modelos de IA fue disuelto y reabsorbido en otros equipos existentes. Esto ocurrió tras la salida de figuras clave como el cofundador y científico jefe Ilya Sutskever, y el co-líder del equipo de seguridad de IA Jan Leike. Se informó que su partida se debió a preocupaciones de que OpenAI, y Altman en particular, no estaban desarrollando sus tecnologías de manera responsable.
En respuesta, OpenAI ha formado este comité de supervisión. En el anuncio, OpenAI también menciona que da la bienvenida a un “debate robusto en este momento importante”. La primera tarea del comité será “evaluar y desarrollar aún más los procesos y salvaguardias de OpenAI” en los próximos 90 días, y luego compartir recomendaciones con la junta directiva de la empresa.
Las recomendaciones que se adopten se compartirán públicamente “de manera coherente con la seguridad y protección”. El comité estará compuesto por el presidente Bret Taylor, el CEO de Quora Adam D’Angelo, y Nicole Seligman, ex ejecutiva de Sony Entertainment, junto con seis empleados de OpenAI, incluyendo a Sam Altman y John Schulman, investigador y cofundador de OpenAI. Según Bloomberg, OpenAI también consultará a expertos externos como parte de este proceso.
Espero ver cómo se implementan las recomendaciones adoptadas por OpenAI, pero intuitivamente, no tengo mucha confianza en que OpenAI (o cualquier gran empresa tecnológica) esté priorizando la seguridad y la ética tanto como intentan ganar la carrera de la IA. Es una pena, y es desafortunado que aquellos que buscan ser los mejores a menudo no consideren el costo y los efectos de sus acciones, y cómo podrían impactar a otros de manera real.
Espero estar equivocado y en un mundo ideal, todas las empresas tecnológicas, ya sea que estén en la carrera de la IA o no, deberían priorizar la ética y la seguridad al mismo nivel que buscan la innovación. Hasta ahora, en el ámbito de la IA, no parece ser el caso, y a menos que haya consecuencias reales, no veo que empresas como OpenAI cambien mucho su ética o comportamiento general.