El día que descubrí que mi ChatGPT se había convertido en mi psicólogo

4/28/20266 min read

El día que descubrí que mi ChatGPT se había convertido en mi psicólogo

Cómo el uso emocional de la inteligencia artificial se ha convertido en el riesgo de privacidad más invisible de 2026 — y lo que dice la ley sobre tus conversaciones más íntimas.

Llevaba cuatro meses contándole mis problemas de pareja a ChatGPT. No soy tonto. Sé que no es humano. Pero me ayudaba a ordenar las ideas. Hasta que leí la letra pequeña y entendí que había entregado el diario más íntimo de mi vida a una base de datos.

Esta frase no es una distopía ni una caricatura. Es lo que cada vez más personas reconocen, en privado, cuando descubren que su asistente de IA se ha convertido en algo parecido a un confidente. Hay algo profundamente humano en ello: necesitamos hablar, necesitamos ser escuchados, y la IA está siempre disponible, no juzga, responde con calidez. Por primera vez en la historia, millones de personas tienen acceso a un interlocutor infinitamente paciente.

El problema no es que sea inútil —en muchos casos ayuda—. El problema es que esa conversación no es privada, y la mayoría de quienes la mantienen no lo saben.

Una sentencia que cambia las reglas del juego

En febrero de 2026, el juez Jed S. Rakoff, del Distrito Sur de Nueva York, dictó una resolución pionera en United States v. Heppner. El acusado, imputado por delitos financieros, había usado un asistente de IA conversacional para preparar borradores de su estrategia de defensa antes de su detención. Su abogado argumentó que esos textos estaban protegidos por el secreto profesional abogado-cliente. El tribunal dijo que no.

La razón fundamental no fue una novedad técnica, sino un principio jurídico bien establecido: el secreto profesional protege las comunicaciones entre cliente y abogado, no los pensamientos del cliente compartidos con un tercero. Y para el tribunal, una IA conversacional pública es exactamente eso: un tercero. Más aún, las condiciones del servicio del producto permitían el uso de esas conversaciones para entrenamiento del modelo y su eventual entrega a autoridades, lo que destruía cualquier expectativa razonable de confidencialidad.

La sentencia escrita, publicada el 17 de febrero, dejó otra observación inquietante: si el abogado hubiese sido quien hubiera dirigido el uso de la herramienta, o si se hubiera tratado de una versión empresarial con garantías contractuales reforzadas de privacidad, el resultado podría haber sido distinto. En otras palabras: lo que protege la ley no es la conversación con la IA, sino el contexto profesional en el que ocurre. Y ese contexto, en los usos cotidianos, no existe.

Por qué cada vez más gente le habla a la IA como a un terapeuta

Lo que está ocurriendo a escala global no es solo un fenómeno legal: es un fenómeno cultural. La IA conversacional se ha convertido, sin que lo hayamos decidido colectivamente, en una nueva categoría de espacio íntimo. Gente que nunca pisaría la consulta de un psicólogo le cuenta a un chatbot sus problemas de pareja, sus dudas existenciales, sus crisis profesionales, su estado de ánimo. Empresarios que jamás hablarían de sus conflictos con un coach humano redactan en abierto sus inseguridades estratégicas. Adolescentes que no se atreven a hablar con sus padres se desahogan con una IA antes de irse a dormir.

Esto no es accidental. La interfaz está diseñada para parecer un espacio seguro: silencio, ausencia de juicio, disponibilidad permanente, tono empático. Y aquí entra una de las claves que estudiamos en ingeniería social: la sensación de privacidad no se construye con tecnología, se construye con percepción. Cuando algo se siente íntimo, lo tratamos como íntimo. Aunque no lo sea.

La privacidad como ilusión de interfaz

Aquí está el punto que conviene entender bien: la sensación de privacidad que ofrece una IA conversacional es una ilusión generada por el diseño, no una propiedad real del sistema.

Técnicamente, tus conversaciones se almacenan, en muchos casos se utilizan para entrenamiento de futuros modelos, son accesibles por personal autorizado para revisión y pueden ser entregadas a autoridades mediante los procedimientos legales correspondientes. Comercialmente, alimentan perfiles que pueden inferir tu estado emocional, tu situación familiar, tu salud, tus vulnerabilidades. Legalmente, como acaba de establecer el caso Heppner, no están cubiertas por el secreto profesional abogado-cliente cuando las usas por iniciativa propia, y nada impide que sean citadas como prueba en un procedimiento judicial.

Si lo piensas con frialdad: estás escribiendo en una caja de texto que se sincroniza con servidores corporativos, y a esa caja le confías cosas que no le contarías a tu mejor amigo. El cifrado en tránsito, los compromisos de privacidad y las certificaciones de seguridad son reales y útiles, pero no convierten a la IA en un confesor. La convierten en un servicio digital con buenas prácticas de seguridad. No es lo mismo.

Esto no es un problema técnico. Es un problema de cultura digital

La tentación, ante un análisis así, es proponer una solución técnica: cifrar más, pedir herramientas con privacidad reforzada, exigir regulación europea. Todo eso ayuda, pero ninguno de esos elementos resuelve el núcleo del asunto. El núcleo es que hemos integrado en nuestra vida diaria una forma de comunicación cuyas reglas todavía no entendemos.

En ciberseguridad aplicada llevamos años repitiendo que el perímetro ya no es el firewall: el perímetro son las personas. Con la IA conversacional, ese perímetro se ha desplazado un paso más. Ya no se trata solo de qué decimos en redes sociales o qué adjuntamos en un correo. Se trata de qué pensamos en voz alta delante de un sistema que escucha, almacena y aprende.

Para una familia, eso significa enseñar a los hijos —y a uno mismo— que escribir en un chat de IA no es como escribir en un diario. Para una empresa, significa que los empleados no pueden volcar dudas estratégicas, datos de clientes o información financiera en herramientas conversacionales públicas como si fueran un cuaderno personal. Para un profesional, significa entender que su voz, sus dudas y sus estrategias tienen valor, y que regalárselas a un servicio gratuito sin leer las condiciones es una decisión, aunque no se sienta como tal.

Lo que sí puedes hacer

No hay que renunciar a la IA. Es una herramienta poderosa y, bien usada, enormemente valiosa. Pero conviene incorporar tres ideas a tu cultura digital personal y profesional.

La primera es trazar una línea clara entre uso instrumental y uso confesional. La IA es excelente para resumir, redactar, programar, traducir o estructurar ideas. No es el lugar para procesar duelos, dudas legales serias, decisiones empresariales sensibles o conflictos íntimos. Para eso siguen existiendo profesionales humanos con secreto profesional real, y esa diferencia no es un detalle: es una garantía jurídica.

La segunda es leer la letra pequeña al menos una vez. Saber si tus conversaciones se usan para entrenamiento, durante cuánto tiempo se almacenan, en qué jurisdicción están alojados los servidores y qué versión —pública o empresarial— estás utilizando. Esa información cambia radicalmente el nivel de exposición. Las versiones empresariales suelen ofrecer compromisos contractuales que las versiones gratuitas no incluyen.

La tercera es la regla más útil que existe en este momento: si no se lo dirías a un desconocido en un vagón de metro, no se lo digas a la IA. No porque haya alguien malvado escuchando, sino porque escribirlo equivale a publicarlo en un sistema cuya gestión no controlas.

Un último apunte

El verdadero riesgo de la IA conversacional en 2026 no es que se vuelva contra nosotros. Es que nos convenzamos, sin darnos cuenta, de que es un espacio íntimo cuando legal, técnica y comercialmente no lo es. Esa confusión la confusión entre la sensación de intimidad y la realidad jurídica es exactamente el tipo de brecha que la ingeniería social moderna sabe explotar. Y lo más interesante es que, esta vez, nadie nos está engañando. Nos estamos engañando solos.

Si este artículo te ha hecho pensar, compártelo con alguien a quien le importe su privacidad. La cultura digital no se construye en los despachos: se construye en las conversaciones cotidianas. Visita el blog para acceder a más recursos gratuitos sobre ciberseguridad aplicada e ingeniería social.