Antes de que continúes con tu día, recuerda pensar dos veces antes de subir tus datos médicos privados a un chatbot de inteligencia artificial. Muchas personas están utilizando chatbots generativos, como ChatGPT de OpenAI y Gemini de Google, para hacer preguntas sobre sus preocupaciones médicas y entender mejor su salud. Algunos han confiado en aplicaciones dudosas que utilizan IA para determinar si hay enfermedades en sus genitales, por ejemplo.
Recientemente, desde octubre, se ha animado a los usuarios de la red social X a subir sus radiografías, resonancias magnéticas y tomografías PET al chatbot de IA Grok para ayudar a interpretar sus resultados. Los datos médicos son una categoría especial con protecciones federales que, en su mayoría, solo tú puedes decidir eludir. Pero el hecho de que puedas hacerlo no significa que debas hacerlo.
Los defensores de la seguridad y la privacidad han advertido durante mucho tiempo que cualquier dato sensible subido puede ser utilizado para entrenar modelos de IA, lo que pone en riesgo tu información privada y sensible en el futuro. Los modelos de IA generativa a menudo se entrenan con los datos que reciben, bajo la premisa de que la información subida ayuda a mejorar la precisión de los resultados del modelo. Sin embargo, no siempre está claro cómo y para qué se utilizan los datos subidos, ni con quién se comparten, y las empresas pueden cambiar de opinión. Debes confiar en las empresas, en gran medida, a su palabra.
Se ha encontrado que personas han visto sus propios registros médicos privados en conjuntos de datos de entrenamiento de IA, lo que significa que cualquier otra persona también puede acceder a ellos, incluidos proveedores de salud, posibles futuros empleadores o agencias gubernamentales. Además, la mayoría de las aplicaciones para consumidores no están cubiertas por la ley de privacidad de salud HIPAA en EE. UU., lo que no ofrece protecciones para tus datos subidos.
Elon Musk, propietario de X, quien en una publicación animó a los usuarios a subir su imagen médica a Grok, admitió que los resultados de Grok están en una “fase temprana”, pero que el modelo de IA “se volverá extremadamente bueno”. Al pedir a los usuarios que envíen su imagen médica a Grok, el objetivo es que el modelo de IA mejore con el tiempo y sea capaz de interpretar escaneos médicos con precisión constante. En cuanto a quién tiene acceso a estos datos de Grok, no está claro; como se ha mencionado en otros lugares, la política de privacidad de Grok indica que X comparte parte de la información personal de los usuarios con un número no especificado de empresas “relacionadas”. Es importante recordar que lo que se sube a internet nunca desaparece de internet.