Consejo para cualquiera que esté nombrando una nueva empresa, especialmente en un área tan delicada como la inteligencia artificial: no elijas un oxímoron obvio. Ese es mi consejo para el bien intencionado Ilya Sutskever, ex Científico Jefe y cofundador de OpenAI, quien ahora está lanzando su propia firma de inteligencia artificial con un objetivo y nombre eponímico: Superinteligencia Segura.
Aunque Sutskever no es un nombre tan conocido como el cofundador de OpenAI, Sam Altman, es ampliamente reconocido como el hombre que puede haber “resuelto” la superinteligencia a finales del año pasado, un avance que provocó una crisis en la empresa matriz de ChatGPT y llevó a la repentina – pero no duradera – destitución de Altman.
Después del regreso de Altman, hubo informes de que el avance en la Super IA, o inteligencia general de IA, algo que podría llevar rápidamente a la inteligencia artificial a superar la inteligencia humana promedio, asustó tanto a la junta de OpenAI y a Sutskever que buscaron frenar todo el proyecto. Es probable que Altman no estuviera de acuerdo con eso, por lo que fue despedido hasta que prevalecieron cabezas más frías.
No existe tal cosa como ‘Superinteligencia Segura’. La Superinteligencia Responsable es posible…
En mayo de este año, Sutskever anunció que dejaba OpenAI, noticia que llegó pocos días después de que la empresa presentara el inquietantemente poderoso GPT-4o (¿recuerdas, el que parecía robar la voz de Scarlett Johansson?). En ese momento, Altman expresó tristeza por la partida de su socio y Sutskever solo dijo que estaba trabajando en un proyecto “significativo para él”. Nadie pensó que iba a empezar a hacer cerámica y venderla.
La nueva empresa, anunciada tanto en X (anteriormente Twitter) como en un nuevo y sencillo sitio web, es ese proyecto apasionante en su totalidad. Es una respuesta directa a lo que claramente dejó a Ilya conmocionado en OpenAI. En el sitio, Sutskever explica que Superinteligencia Segura “es nuestra misión, nuestro nombre y toda nuestra hoja de ruta de productos, porque es nuestro único enfoque. Nuestro equipo, inversores y modelo de negocio están alineados para lograr SSI.”
Para lograr este objetivo, la empresa perseguirá la superinteligencia y la seguridad en conjunto, con un énfasis, al parecer, en lo primero.
Sospecho que Sutskever no es muy fanático de la cultura pop, el cine o incluso necesariamente de la ciencia ficción. De lo contrario, ¿cómo podría él o cualquiera de su equipo evitar reírse al decir el nombre de la empresa en voz alta? Podría perdonársele por no haber visto la comedia de 2020 Superintelligence, en la que, según IMDB, “…una superinteligencia todopoderosa elige estudiar a la promedio Carol Peters, el destino del mundo pende de un hilo. Mientras la IA decide esclavizar, salvar o destruir a la humanidad, depende de Carol demostrar que las personas merecen ser salvadas.”
Aunque la película obtuvo una pésima calificación de 5.4, no está sola en las predicciones nefastas de humanos contra superinteligencia. El término ha existido por más de una década y, aunque pocos negarían su potencial, nunca ha tenido el brillo completo de esperanza y promesa. Me topé con un libro de 2014 de Nick Bostrom, Superintelligence: Paths, Dangers, Strategies. Nota que “Peligros” obtiene un segundo lugar destacado. La descripción del libro plantea, “Superinteligencia pregunta: ¿Qué sucede cuando las máquinas superan a los humanos en inteligencia general? ¿Nos salvarán o destruirán los agentes artificiales?”
No hay casi ningún programa de televisión o película que vea la superinteligencia de IA de manera diferente. Cuando la inteligencia artificial es más inteligente que nosotros, todas las apuestas están fuera. Es la ansiedad flotante de la cultura, las letras y todos los que conozco.
Reasúrarnos
No pasa un día ahora en el que no tenga una conversación sobre IA. No es solo en el trabajo donde lo esperas. Es con mi esposa e hijos adultos. Es en fiestas y rodajes de televisión. Una mezcla de emoción y temor es común. Nadie sabe exactamente hacia dónde va y la mayoría comparte un miedo latente de que la IA superará la inteligencia humana y condenará primero nuestras carreras y luego a todos nosotros. No conocen el término “superinteligencia” pero el concepto está claro en sus mentes. No se trata solo de IA que es más inteligente que nosotros, es el potencial de la superinteligencia viviendo en todos los dispositivos que llevamos en nuestros bolsillos y usamos en nuestros escritorios.
Esta semana, llegaron docenas de nuevas laptops con Copilot+ de Microsoft integrado profundamente en el silicio. No es, para ser claros, nada que se acerque a la superinteligencia. De hecho, las demostraciones que vi presentan una vista bastante estrecha a través de la cual ver el verdadero potencial a nivel de sistema de la IA. Pero como alguien me señaló ayer, si todas estas IAs se vuelven más inteligentes y se vuelven conscientes unas de otras y de nosotros, especialmente de nuestros defectos, ¿qué les impide tomar el control de esos sistemas y de nuestras vidas?
Imagina una carrera de coches de caja de jabón cuesta abajo, sin frenos, y con un conductor que solo entiende cómo funciona el 80% de los controles, te haces una idea.
Como alguien que cubre todo esto, puedo decirte con cierta certeza que eso no va a suceder, al menos no en mi vida.
Aun así, una vez pensé que la IA general o la superinteligencia podrían llegar cuando yo fuera un viejo chocho. Ahora, predigo 18 meses.
Es por eso que encuentro el nombre de la empresa de Sutskever casi cómico. El ritmo del desarrollo de la IA avanza a un ritmo exponencial. Imagina una carrera de coches de caja de jabón cuesta abajo, sin frenos, y con un conductor que solo entiende cómo funciona el 80% de los controles, te haces una idea.
No existe tal cosa como “Superinteligencia Segura.” La Superinteligencia Responsable es posible y, si hubiera estado en la sala cuando Sutskever y su equipo estaban nombrando su empresa, lo habría sugerido. En última instancia, eso es todo lo que cualquiera de estas empresas de IA puede prometer, actuar de manera responsable y, quizás, humana. Eso puede llevar a una “superinteligencia más segura”, pero la seguridad total es ilusoria en el mejor de los casos.