Cada semana, 800 millones de personas usan ChatGPT para pensar, aprender, crear y manejar partes muy personales de su vida. ¿Te imaginas que alguien pidiera acceso masivo a esas conversaciones privadas? Eso es exactamente lo que está pasando ahora: The New York Times exige 20 millones de chats privados de usuarias y usuarios de ChatGPT.
Qué pide The New York Times y por qué importa
- La petición es que OpenAI entregue 20 millones de conversaciones seleccionadas al azar entre diciembre de 2022 y noviembre de 2024.
- La justificación del Times: buscar ejemplos de personas intentando evadir su paywall. ¿Tiene sentido pedir millones de chats para encontrar eso? OpenAI dice que no.
- Esto no es la primera vez: originalmente el Times pidió 1.4 mil millones de conversaciones y otras restricciones como impedir que los usuarios borren sus chats. OpenAI combatió esas demandas y ganó parcialmente.
Qué está haciendo OpenAI para protegerte
OpenAI ha tomado varias acciones y está litigando para limitar el alcance de la solicitud.
- Ofrecieron alternativas de menor riesgo para la privacidad, por ejemplo
búsquedas dirigidasen la muestra o reportes agregados sobre cómo se usó ChatGPT. Esas propuestas fueron rechazadas. - Están aplicando procesos de desidentificación para remover información personal identificable, contraseñas y datos sensibles antes de cualquier acceso legal.
- El contenido bajo esta orden se mantiene en un sistema separado y bajo custodia legal. Solo un pequeño equipo legal y de seguridad, auditado, puede acceder cuando sea necesario.
- OpenAI indica que seguirá explorando todas las opciones legales para proteger los datos de los usuarios.
- A futuro, están acelerando características de seguridad como encriptación del lado del cliente para que los mensajes sean inaccesibles incluso para la propia OpenAI, y sistemas automatizados para detectar abusos graves.
Dane Stuckey, Chief Information Security Officer, OpenAI
¿A quién afecta esto realmente?
- Probablemente solo a usuarios consumidores de ChatGPT en el periodo mencionado (diciembre 2022 a noviembre 2024). Conversaciones fuera de ese rango no están incluidas.
- No afecta a clientes de ChatGPT Enterprise, ChatGPT Edu, ChatGPT Business (antes Team) ni a usuarios de la API.
- Aun así, cualquier acceso judicial implica riesgo: abogados del Times y consultores técnicos contratados podrían ver los datos, aunque legalmente obligados a mantenerlos privados.
Riesgos y límites de las protecciones
- La desidentificación reduce riesgos pero no los elimina por completo; información sensible puede filtrarse si no se maneja con extremo cuidado.
- Las obligaciones legales pueden forzar el cumplimiento, incluso si OpenAI sigue apelando. Es decir, confiar en procesos legales puede no ser suficiente para quienes manejan información altamente sensible.
- OpenAI afirma que mantendrá medidas adicionales y limitará la exposición, pero el control final puede depender del fallo judicial.
Qué puedes hacer ahora
- Revisa y elimina conversaciones sensibles en tu cuenta si no las necesitas. OpenAI defendió el derecho de los usuarios a borrar chats en el pasado.
- Evita compartir contraseñas, datos bancarios o información extremadamente personal en conversaciones con asistentes en línea.
- Si manejas información crítica, considera usar planes empresariales o herramientas con encriptación y controles más estrictos.
- Mantente atento a las actualizaciones de OpenAI sobre las nuevas protecciones y a las decisiones del tribunal.
La disputa pone en relieve una pregunta más amplia: ¿cómo equilibramos la investigación periodística y el derecho a la privacidad en la era de la IA? No es solo un problema legal sino una preocupación práctica para millones que usan asistentes digitales a diario. La tecnología promete mucha utilidad, pero su valor real depende de que podamos confiar en que nuestras conversaciones privadas siguen siendo privadas.
