El problema con los intentos de regular la inteligencia artificial (IA) hasta ahora es que los legisladores se centran en una experiencia futura de IA que no existe, en lugar de comprender los nuevos riesgos que la IA realmente presenta. Así lo afirmó Martin Casado, socio general de Andreessen Horowitz, durante un evento en TechCrunch Disrupt 2024. Casado, quien lidera la práctica de infraestructura de a16z con una inversión de 1.25 mil millones de dólares, ha invertido en startups de IA como World Labs, Cursor, Ideogram y Braintrust.
Casado comentó que la discusión sobre tecnologías transformadoras y su regulación ha sido un tema recurrente durante décadas. Sin embargo, la conversación actual sobre la IA parece haber surgido de la nada. Criticó que se intenten crear nuevas regulaciones sin aprender de experiencias pasadas. Por ejemplo, se preguntó si se han visto las definiciones de IA en las políticas actuales, señalando que ni siquiera se puede definir claramente.
Recientemente, Casado se unió a otros en Silicon Valley para celebrar el veto del gobernador de California, Gavin Newsom, a la ley de gobernanza de IA, SB 1047. Esta ley proponía un “interruptor de emergencia” para modelos de IA muy grandes, algo que muchos consideraron confuso y que podría obstaculizar el desarrollo de IA en California. Casado expresó en redes sociales que muchos fundadores evitan mudarse a California por la percepción de que el estado prefiere una mala legislación basada en preocupaciones de ciencia ficción en lugar de abordar riesgos tangibles.
Aunque esta ley estatal ha sido rechazada, Casado sigue preocupado por la posibilidad de que surjan más propuestas similares si los políticos deciden ceder a los temores del público sobre la IA, en lugar de regular lo que la tecnología realmente está haciendo. Con un amplio conocimiento en tecnología de IA, Casado fundó anteriormente dos empresas, incluida Nicira, que vendió a VMware por 1.26 mil millones de dólares. También fue experto en seguridad informática en el Laboratorio Nacional Lawrence Livermore.
Casado argumenta que muchas de las regulaciones propuestas no provienen de quienes realmente entienden la tecnología de IA, como académicos y empresas que desarrollan productos de IA. Señaló que es importante tener una noción clara de los riesgos marginales de la IA en comparación con el uso de herramientas como Google o Internet. Según él, aún es prematuro establecer una gran cantidad de regulaciones sin comprender completamente lo que se va a regular.
Algunos en la audiencia mencionaron que el mundo no anticipó los daños que podrían causar Internet o las redes sociales antes de que ocurrieran. Casado respondió que ya existe un régimen regulatorio sólido que se ha desarrollado durante 30 años y que está preparado para crear nuevas políticas para la IA y otras tecnologías. A nivel federal, hay organismos reguladores como la Comisión Federal de Comunicaciones y el Comité de Ciencia, Espacio y Tecnología de la Cámara.
Cuando se le preguntó si mantenía su opinión de que la regulación de la IA debería seguir el camino de los organismos reguladores existentes, Casado confirmó que sí, pero también enfatizó que la IA no debería ser el blanco por problemas causados por otras tecnologías. Según él, si se cometieron errores en las redes sociales, no se pueden corregir trasladando esos problemas a la IA.