Character.AI ha lanzado nuevas funciones para hacer que las interacciones con sus personalidades virtuales sean más seguras, especialmente para los adolescentes. La compañía presentó una versión actualizada de su modelo de inteligencia artificial, diseñada específicamente para usuarios más jóvenes, junto con controles parentales para gestionar el tiempo que pasan en el sitio web. Estas actualizaciones llegan después de que se realizaron cambios de seguridad en respuesta a acusaciones de que los chatbots estaban afectando negativamente la salud mental de los niños.
Una de las principales novedades es la separación entre las versiones para adultos y adolescentes del modelo de IA. Los usuarios deben tener al menos 13 años para registrarse en Character.AI, pero aquellos menores de 18 años serán dirigidos a un modelo con restricciones más estrictas para evitar interacciones románticas o sugestivas. Este modelo también cuenta con mejores filtros para lo que los usuarios escriben y es más eficaz en detectar intentos de eludir estas limitaciones. Por ejemplo, hay una nueva restricción que impide editar las respuestas del chatbot para sortear las restricciones de contenido sugestivo. La empresa se enfoca en mantener las conversaciones entre adolescentes y sus personalidades de IA en un nivel apropiado.
Además, si una conversación aborda temas como el autolesionismo o el suicidio, la plataforma mostrará un enlace a la Línea Nacional de Prevención del Suicidio para ayudar a guiar a los adolescentes hacia recursos profesionales. Character.AI también está trabajando para mantener a los padres informados sobre lo que sus hijos hacen en el sitio, con controles que se lanzarán a principios del próximo año. Estos nuevos controles parentales permitirán a los padres ver cuánto tiempo pasan sus hijos en la plataforma y con qué bots interactúan más.
Para abordar la preocupación sobre la adicción a las pantallas, todos los usuarios recibirán un recordatorio después de haber hablado con un chatbot durante una hora, sugiriendo que tomen un descanso. Además, las advertencias sobre el origen de los personajes de IA se están ampliando. En lugar de una pequeña nota, ahora habrá una explicación más detallada sobre su naturaleza como IA, especialmente si los chatbots se describen como doctores, terapeutas u otros expertos. Una nueva advertencia dejará claro que la IA no es un profesional licenciado y no debe reemplazar el consejo, diagnóstico o tratamiento real.
Character.AI se compromete a crear un entorno seguro para todos sus usuarios y reconoce que su enfoque de seguridad debe evolucionar con la tecnología. La compañía está trabajando para mejorar continuamente sus políticas y productos, asegurando que la seguridad esté presente en todo lo que hacen.