OpenAI lanzó el jueves un nuevo servicio en Europa que permite a las organizaciones europeas cumplir con las leyes locales sobre la gestión de datos mientras utilizan sus productos. Este servicio se llama “residencia de datos” y se refiere a dónde se almacenan físicamente los datos de una organización y a las leyes que se aplican a esos datos.
La mayoría de las grandes empresas tecnológicas y proveedores de servicios en la nube ofrecen programas de residencia de datos en Europa para ayudar a sus clientes a cumplir con leyes de privacidad y protección de datos, como el GDPR y la Ley Federal de Protección de Datos de Alemania. A partir del jueves, los clientes de OpenAI que usen la API de la empresa pueden elegir procesar datos en Europa para ciertos “puntos de acceso elegibles”. Además, los nuevos clientes de ChatGPT Enterprise y Edu pueden optar por que su contenido se almacene en Europa.
El término “datos en reposo” se refiere a los datos que no están siendo transferidos o accedidos activamente. OpenAI asegura que, con la residencia de datos en Europa, las solicitudes a la API se manejarán en la región sin retención de datos, lo que significa que las solicitudes y respuestas de los modelos de IA no se almacenarán en los servidores de la empresa.
Cuando esta opción está activada en ChatGPT, la información del cliente, incluyendo conversaciones, mensajes, imágenes, archivos subidos y bots personalizados, se almacenará en la región. Sin embargo, OpenAI aclara que, por ahora, la residencia de datos en Europa solo se puede configurar para nuevos proyectos que utilicen su API, y los proyectos existentes no pueden actualizarse para tener residencia europea.
Los reguladores de datos europeos han investigado a OpenAI en el pasado por posibles incumplimientos de las leyes locales. Países como España y Alemania han iniciado investigaciones sobre las prácticas de procesamiento de datos de ChatGPT. En diciembre, la autoridad de protección de datos de Italia multó a OpenAI con 15 millones de euros por supuestas violaciones a las normas de protección de datos de los consumidores en Europa.
A principios del año pasado, un grupo de trabajo de la Junta Europea de Protección de Datos, que se encarga de asegurar la aplicación coherente de las reglas de protección de datos en la UE, publicó un informe para guiar a las autoridades de protección de datos de los países miembros en sus investigaciones sobre ChatGPT. Este informe abordó temas como la legalidad de la recolección de datos para entrenar a ChatGPT, la transparencia y la precisión de los datos.