Claude, ChatGPT y Gemini: el ranking de privacidad que ninguno de los tres te enseñará

4/27/20268 min read

Claude, ChatGPT y Gemini: el ranking de privacidad que ninguno de los tres te enseñará

He leído las tres políticas de privacidad para que tú no tengas que hacerlo. Lo que he encontrado no se parece a lo que crees haber aceptado.

Aceptaste sin leer. Como casi todos.

Hay una pregunta incómoda que casi nadie se hace cuando elige una IA: ¿qué pasa con lo que escribes ahí dentro? No el resultado que te devuelve, sino lo otro. La consulta sobre el cliente que mencionaste con nombre y apellidos. El borrador del informe interno que pegaste para que te lo resumiera. La conversación en la que describiste tu estrategia comercial para los próximos seis meses.

Damos por hecho que ese contenido se "evapora" después de cerrar la pestaña. No es así. Cada una de las tres grandes plataformas conversacionales —Claude, ChatGPT y Gemini— tiene un contrato distinto contigo, y lo firmaste el día que pulsaste Aceptar sin leer. Cada contrato decide tres cosas: cuánto tiempo guardan tus chats, si los usan para entrenar a su próximo modelo, y si en algún punto un humano puede leerlos.

Las diferencias entre las tres plataformas no son cosméticas. Son significativas. Y el modelo que probablemente usas a diario no necesariamente es el que más respeta tu información.

Este artículo no recomienda una sobre las otras. Lo que hace es algo más útil: traducir lo que dicen sus políticas oficiales en términos comprensibles, y darte el control real de las opciones que tienes a mano —que son más de las que crees, pero menos potentes de lo que parecen.

Las tres variables que importan (y que casi nadie compara)

Cuando alguien pregunta "¿qué IA es más privada?", la respuesta honesta es "depende de qué te preocupe". Hay tres variables que deciden el riesgo real, y conviene mirarlas por separado.

La primera es la retención: cuánto tiempo viven tus conversaciones en los servidores de la empresa, incluso después de que las borres. La segunda es el entrenamiento: si tus prompts y respuestas se incorporan al material con el que se construyen los próximos modelos. Y la tercera, la menos comentada y la más sensible, es la revisión humana: si una persona real, normalmente un evaluador externo subcontratado, puede leer tus conversaciones para mejorar el sistema.

Las tres variables se mueven de forma independiente. Una plataforma puede tener buena retención pero entrenamiento agresivo. Otra puede prometer no entrenar pero conservar tus chats indefinidamente por orden judicial. La tercera puede ofrecer borrado, pero permitir que un humano haya leído ya tu conversación antes de que pulses el botón. Vamos por partes.

Anthropic / Claude: el giro de 2025 que pocos vieron

Anthropic, la empresa que desarrolla Claude, llevaba años posicionándose como la alternativa "centrada en privacidad" frente a OpenAI. Hasta agosto de 2025, su política con cuentas de consumidor era clara: los chats no se usaban para entrenar modelos, y se eliminaban del backend en 30 días.

En septiembre de 2025 eso cambió. Anthropic introdujo un toggle opcional —"Ayúdanos a mejorar Claude"— que tenía dos consecuencias acopladas: si lo activas, tus conversaciones pueden usarse para entrenar futuros modelos y la retención se extiende de 30 días a cinco años. Ese salto no es marginal. Es multiplicar por sesenta el tiempo que tus datos viven en sus tuberías.

La compañía lo plantea como una elección voluntaria, y formalmente lo es. Pero hay tres detalles que conviene conocer: primero, la consola de aceptación está diseñada con la opción de compartir datos preseleccionada, lo que en términos de diseño se llama una dark pattern suave. Segundo, los usuarios tuvieron hasta el 8 de octubre de 2025 para decidir; si no eligieron, la opción por defecto les acompañó. Tercero, las cuentas comerciales Claude for Work, Enterprise, Education, Gov y el uso vía API quedaron explícitamente fuera de este cambio. Es decir: el cambio afecta justo a quienes tienen menos protección contractual: usuarios particulares y pymes con plan Pro o Max.

Lo que Claude hace bien: si optas por no compartir datos, los 30 días se mantienen y nada se usa para entrenamiento. Las conversaciones borradas no se incluyen en futuros entrenamientos. Y los chats no son enviados a revisores humanos como práctica rutinaria, lo cual es una diferencia importante respecto a Gemini.

Lo que conviene revisar hoy mismo: en Settings → Privacy → "Help improve Claude". Si aparece activado, tus nuevas conversaciones están entrando al ciclo de cinco años.

OpenAI / ChatGPT: la retención por defecto y la sombra del juzgado

En ChatGPT Free, Plus, Pro y Team las conversaciones se guardan de forma indefinida en tu cuenta hasta que tú decidas borrarlas. Cuando borras una, desaparece de tu interfaz al instante, pero permanece en los servidores de OpenAI durante aproximadamente 30 días antes del borrado definitivo. Esa es la regla habitual.

Por defecto, OpenAI usa tus conversaciones para mejorar sus modelos, salvo que desactives el toggle correspondiente en Settings → Data Controls → "Improve the model for everyone". Importante: desactivarlo solo afecta a conversaciones futuras; lo que ya entró en el ciclo de entrenamiento no sale.

Aquí entra el episodio del juzgado, que pocos usuarios siguieron pero que importa. En mayo de 2025, la magistrada Ona T. Wang del Distrito Sur de Nueva York ordenó a OpenAI conservar todos los logs de conversación incluidos los que los usuarios habían borrado como parte del litigio entre OpenAI y The New York Times. La obligación se mantuvo hasta el 26 de septiembre de 2025, cuando OpenAI volvió a su política estándar de borrado a 30 días. Pero los datos generados entre abril y septiembre de 2025 siguen guardados en almacenamiento legal restringido, accesible solo a un equipo auditado de la empresa.

Para muchos profesionales, este episodio resume la fragilidad del concepto "borrado": tus datos están a salvo hasta que un tribunal decida que no lo están. Las cuentas Enterprise y Team, así como los clientes con acuerdo Zero Data Retention en la API, quedaron exentos de la orden. Como con Anthropic, la diferencia entre el plan de consumidor y el plan empresarial no es de funciones; es de protección legal real.

El usuario individual de ChatGPT debe asumir, por tanto, dos cosas: que el borrado es un compromiso de la empresa, no una garantía técnica absoluta, y que el entrenamiento por defecto está activado.

Google / Gemini: los revisores humanos que la mayoría desconoce

Si Anthropic se mueve en el eje de la retención y OpenAI vive a la sombra de los litigios, el caso de Gemini es distinto y, en algunos aspectos, más intrusivo de lo que muchos imaginan.

Por defecto, Google guarda tus conversaciones con Gemini durante 18 meses. Puedes ajustarlo a 3 o a 36 meses, o desactivar el guardado por completo. Pero incluso si lo desactivas, Google conserva los chats durante al menos 72 horas para "operar el servicio". No existe configuración alguna que ofrezca cero retención.

Lo que la mayoría de usuarios no sabe es lo siguiente: una parte de las conversaciones de Gemini son revisadas por humanos empleados o evaluadores subcontratados para mejorar la calidad del modelo. Esa práctica es habitual en el sector, pero el detalle relevante es la retención asociada: las conversaciones que pasan por un revisor humano se conservan hasta tres años, desconectadas de tu cuenta. Y aquí viene lo importante: borrar tu actividad de Gemini no elimina esas conversaciones revisadas. Permanecen, según la propia documentación oficial de Google, durante todo ese plazo, separadas y fuera de tu control.

Traducido en términos prácticos: una conversación que mantengas hoy con Gemini puede ser leída por un revisor externo y permanecer almacenada hasta 2029, aunque la borres mañana. Si usas Gemini para tareas profesionales con datos de clientes, contratos confidenciales o estrategia interna, este es el escenario que conviene tener presente.

Como en los otros dos casos, el plan empresarial es otro mundo. Google Workspace con Gemini para empresas, educación y sector público está cubierto por el Cloud Data Processing Addendum: tus chats no son revisados por humanos ni se usan para entrenar modelos fuera de tu dominio sin permiso. La diferencia entre la cuenta gratuita y la cuenta corporativa, otra vez, no es de marketing: es de exposición real.

El ranking que nadie publica: lectura honesta

Si forzamos un ranking, hay tres maneras legítimas de leerlo, y cada una favorece a una plataforma distinta.

Por retención mínima por defecto, ChatGPT (con su toggle de entrenamiento desactivado) y Claude (con la opción "Improve Claude" desactivada) ofrecen una ventana de 30 días, mejor que los 18 meses por defecto de Gemini. Por exposición a revisión humana sistemática, Gemini es el más intrusivo: las otras dos no envían chats a revisores externos como práctica rutinaria. Por estabilidad del compromiso, ninguno de los tres es perfecto: Anthropic cambió su política en 2025, OpenAI estuvo nueve meses bajo orden judicial de retención indefinida, y Google mantiene una ventana de 72 horas que no se puede eliminar.

La conclusión honesta no es "elige X". Es esta: el modelo que usas no es el más privado por defecto, sea cual sea. La privacidad útil no se hereda del producto; se construye con la configuración. Y se construye especialmente con la decisión de qué información introduces en cualquiera de los tres.

El coste invisible: lo que no entra en el comparativo de capacidades

Cuando la prensa tecnológica compara las tres IAs, lo hace por capacidades: razonamiento, contexto, calidad de código, multimodalidad. Casi nadie compara la otra columna del balance: el coste invisible que pagas con cada interacción. Ese coste se mide en metadatos, en logs, en posibles revisiones humanas y en años de retención.

Para una persona que usa una IA para escribir un email de cumpleaños, el coste es bajo. Para un asesor fiscal que pega un balance, un abogado que perfila una demanda, un médico que describe un caso clínico o un comercial que vuelca su CRM en un prompt, el coste puede ser significativo y no siempre reversible. La ingeniería social del siglo XXI no necesita engañarte para que entregues información: solo necesita que confíes en que el chatbot la "olvida". Esa confianza, sin configurar lo correcto, es ingenua.

Y este es el punto que cierra el círculo: las tres empresas son, en términos generales, profesionales y razonables con los datos. El problema no es que sean negligentes. El problema es que están cumpliendo exactamente lo que tú aceptaste sin leer, y eso es más permisivo de lo que la mayoría asume.

Tres minutos hoy, antes del próximo prompt

Antes de cerrar este artículo, abre cada plataforma que uses con regularidad y comprueba estos tres ajustes:

En Claude: Settings → Privacy → "Help improve Claude". Si está activado y no es lo que quieres, desactívalo. Vuelves a una retención de 30 días y tus datos no entran en ciclos de entrenamiento.

En ChatGPT: Settings → Data Controls → "Improve the model for everyone". Desactívalo si no quieres que tus conversaciones alimenten futuros modelos. Plantéate además el modo Temporary Chat para conversaciones sensibles puntuales.

En Gemini: entra en Gemini Apps Activity en tu cuenta de Google. Cambia el periodo de auto-borrado o desactiva la actividad por completo, sabiendo que las conversaciones ya revisadas por humanos no se eliminarán retroactivamente.

Ninguno de estos tres pasos te lleva más de tres minutos. Y ninguno de los tres aparece destacado cuando creaste la cuenta.

Cierre: el verdadero contrato no es el que firmas, es el que configuras

La privacidad en la era de la IA conversacional no es un derecho que te concede la plataforma. Es una postura que adoptas cada vez que decides qué pegas en el prompt y qué configuración has elegido por debajo. Quienes trabajan con datos sensibles los suyos o los de terceros no pueden permitirse delegar esa decisión en los ajustes por defecto, que casi siempre están optimizados para el desarrollo del modelo, no para tu confidencialidad.

Si este análisis te ha resultado útil, guárdalo. Vas a querer volver cuando cambies de modelo, cuando una empresa actualice sus términos algo que ocurrirá de nuevo o cuando tengas que explicarle a tu equipo por qué no se pega información de clientes en cualquier ventana abierta. Compártelo con quien todavía cree que esto no le afecta. Y si quieres seguir profundizando en esta capa menos visible de la ciberseguridad aplicada, en el blog encontrarás más recursos gratuitos sobre ingeniería social, cultura digital y protección práctica del dato.

Una persona informada firma menos contratos a ciegas. Y eso, en 2026, es ya una ventaja competitiva.

Etiquetas: privacidad inteligencia artificial, comparativa Claude ChatGPT Gemini, retención de datos IA, entrenamiento modelos lenguaje, revisores humanos Gemini, ciberseguridad empresarial 2026, configuración privacidad IA, fugas de datos chatbots