Tres defensores de la seguridad en inteligencia artificial (IA) advirtieron a los fundadores de startups que avanzar demasiado rápido puede causar problemas éticos a largo plazo. Sarah Myers West, directora del AI Now Institute, mencionó en el evento TechCrunch Disrupt 2024 que hay una gran cantidad de recursos fluyendo hacia este campo, pero que existe una prisa por lanzar productos sin considerar el impacto que tendrán en el mundo.
La conversación sobre la seguridad de la IA es más relevante que nunca, especialmente después de que la familia de un niño que se suicidó demandara a la empresa de chatbots Character.AI, alegando que su tecnología tuvo un papel en la tragedia. Myers West destacó que esta situación resalta los riesgos de la rápida implementación de tecnologías basadas en IA, que pueden enfrentar problemas graves como la moderación de contenido y el abuso en línea, además de otros problemas como la desinformación y la infracción de derechos de autor.
Jingna Zhang, fundadora de la plataforma social Cara, también expresó su preocupación. Ella señaló que la política de Meta de usar publicaciones públicas de los usuarios para entrenar su IA es perjudicial para los artistas, quienes dependen de compartir su trabajo en línea para atraer clientes. Zhang enfatizó que el copyright es esencial para proteger a los artistas y permitirles ganarse la vida.
Por otro lado, Aleksandra Pedraszewska, responsable de seguridad en ElevenLabs, una empresa de clonación de voz de IA valorada en más de mil millones de dólares, subrayó la importancia de identificar comportamientos indeseables y consecuencias no intencionadas de los nuevos lanzamientos de IA. Pedraszewska mencionó que es fundamental mantener una relación cercana con la comunidad de usuarios para garantizar la seguridad en las plataformas de IA.
La necesidad de un equilibrio en la regulación de la IA es clara, y los expertos coinciden en que se debe encontrar un punto medio entre ser completamente anti-IA y no tener regulación alguna.