OpenAI, la empresa detrás del popular chatbot ChatGPT, se encuentra en el centro de una polémica sin precedentes tras una orden judicial que la obliga a conservar indefinidamente todos los registros de las conversaciones de los usuarios de ChatGPT, incluidas aquellas que los usuarios habían eliminado.
Esta medida, dictada el pasado 13 de mayo de 2025 por un juez federal en Estados Unidos, ha desatado una ola de preocupación entre defensores de la privacidad y la comunidad tecnológica global.
La orden judicial se enmarca en una demanda por derechos de autor interpuesta por The New York Times contra OpenAI, en la que el medio acusa a la compañía de haber utilizado sus contenidos para entrenar sus modelos de inteligencia artificial sin la debida licencia.
La retención de los registros de chat busca, presumiblemente, servir como prueba en este litigio, permitiendo el acceso a un vasto archivo de interacciones que podrían arrojar luz sobre el uso de contenidos con derechos de autor.
OpenAI ha reaccionado vehementemente, calificando la orden como una "pesadilla para la privacidad" y argumentando que impone una carga "amplia y sin precedentes".
La compañía sostiene que esta exigencia podría violar los contratos de usuario existentes y diversas leyes de privacidad internacionales, como el Reglamento General de Protección de Datos (GDPR) europeo, al forzar la retención de datos que los usuarios explícitamente intentaron borrar. Además, señalan que desviar recursos de ingeniería para cumplir con esta orden afecta significativamente sus operaciones.
La situación pone de manifiesto una colisión entre las leyes de retención de datos para litigios en Estados Unidos y las obligaciones de borrado de datos establecidas por normativas como el GDPR. Expertos legales y tecnológicos advierten de que esta decisión sienta un precedente peligroso para la retención de datos en el ámbito de la inteligencia artificial, equiparándola a una forma de vigilancia masiva.
La preocupación no se limita al conflicto legal. Organizaciones y usuarios han expresado su inquietud por las implicaciones de seguridad y la erosión de la confianza. La retención indefinida de datos, incluyendo información personal y corporativa sensible, aumenta el riesgo de filtraciones y accesos no autorizados.
Hasta ahora, OpenAI mantenía una política de retención de 30 días para los datos de chat eliminados, salvo que existieran obligaciones legales o de seguridad que requirieran un período más largo. Sin embargo, la complejidad de la infraestructura de datos de OpenAI hace que el cumplimiento de la nueva orden sea un desafío técnico considerable.
Ante este escenario, la privacidad de los datos de los usuarios de ChatGPT y otras plataformas de IA se convierte en un tema crítico. Se recomienda a los usuarios ser extremadamente cautelosos al compartir información sensible o confidencial con chatbots de IA. Algunas plataformas ofrecen opciones para desactivar el uso de las conversaciones para el entrenamiento del modelo, y existen versiones empresariales con mayores controles sobre la gestión de datos.
Este caso subraya la necesidad de que las empresas que desarrollan o utilizan IA implementen políticas de gobernanza de datos robustas y evalúen plataformas que permitan un control riguroso sobre la información que se comparte con los modelos de lenguaje a gran escala (LLM).
La batalla legal entre OpenAI y The New York Times no solo determinará el futuro de la relación entre la IA y los derechos de autor, sino que también redefinirá las expectativas de privacidad en la interacción con la inteligencia artificial.