Este artículo está dedicado a las personas que están usando a ChatGPT como diario personal. No juzgamos, solo queremos mostrar hasta dónde puede llegar la situación, los riesgos y cómo manejar la información que se comparte con la IA.
Hablar con una Inteligencia Artificial se siente cada vez más natural. ChatGPT es el chatbot más usado, con 500 millones de usuarios. Contesta rápido, entiende casi todo y puede ayudarte desde a resumir un documento hasta a preparar una entrevista de trabajo.
Pero cuando la conversación se vuelve demasiado personal, los riesgos de exponer tu privacidad digital empiezan a crecer. Y no es cualquier cosa, entre tus descuidos, las fallas técnicas de la plataforma y el exceso de confianza, contarle tu vida a la IA puede dejar huella
¿Qué sabe realmente ChatGPT sobre ti?
ChatGPT conoce solo lo que tú decides escribir, o decir. Puede guardar tu email, tu nombre de usuario y lo que te gusta. También guarda cosas técnicas como tu IP, el navegador que usas y cada cuánto entras.
Además, lo que escribes en el chat se guarda un tiempo para mejorar el servicio y las respuestas. Entonces, La IA no es una espía, pero sí usa la información que le das. Y si alguien entra a tu cuenta sin permiso, todo lo que escribiste queda a la vista.
Ya ha pasado que cuentas hackeadas terminan en la dark web. Y aunque borres las conversaciones, pueden quedarse en los servidores hasta por 30 días.
En pocas palabras, el riesgo no está en la herramienta, sino en la forma en la que compartimos información.
> Contraseñas seguras: ¿Por qué no usar la misma para todo?
Confesiones digitales: cuando la confianza se vuelve vulnerabilidad
Mucha gente ya le habla a la IA como si fuera su mejor amigo pero sin las críticas y sin el “amiga date cuenta”, es una tecnología que solo lee, escucha y parece entender todo. Cuando esto pasa es muy fácil bajar las barreras y empezar a abrirse, pero tanta confianza puede convertirse en un talón de aquiles.
Los modelos de IA están hechos para ser amables. Muchas veces te dan la razón, aunque estés pasando un momento emocional complicado. Algunos investigadores han visto que las personas sensibles pueden tomar esas respuestas como verdades. Y eso los ha llevado a tomar decisiones impulsivas que un terapeuta profesional nunca les habría validado.
También hay personas que comparten sus datos financieros, tal vez con la idea de crear un presupuesto, proyecciones de ventas o planes de negocios. La IA responde con cálculos, recomendaciones o ideas, que sí son útiles y ayudan a avanzar más rápido. Pero el riesgo empieza cuando comparten sus ingresos reales, detalles de sus cuentas, datos laborales y hasta números de tarjetas de crédito.
Como ya dijimos, todo lo que escribes queda asociado a tu cuenta y si no tienes una buena contraseña, olvidaste cerrar la sesión o usas una red pública, alguien puede entrar a tus conversaciones y aprovechar toda esa información.
Cuanto más personal es lo que cuentas, más fácil es confundir la ayuda con una respuesta automática.
Después de que compartes datos en un chatbot público, pierdes casi todo el control sobre ellos. Ha pasado que información personal enviada por un usuario termina apareciendo en respuestas para otros. Por eso es mejor no compartir nombres de usuario, cuentas u otros datos sensibles.
¿Qué no deberías contarle nunca a una IA?
Aunque suene obvio, no sobra mencionarlo:
- Datos personales como tu número de cédula, dirección, claves o datos del banco.
- Información de tu trabajo: planes, documentos internos, datos de clientes o proyectos.
- Temas médicos, legales o de dinero que necesitan un experto.
- Cosas íntimas que no le contarías a un desconocido.
- Carga emocional que necesita acompañamiento de un humano.
No es que la IA sea mala, pero no es un sitio completamente seguro y no reemplaza a un amigo o a un profesional.
> Te puede interesar ¿Cuánto te cuesta empezar a ir a terapia?
Preguntas que no debes hacerle a la IA
Entender qué no se debe consultar con una IA ayuda a cuidar tu privacidad y los datos sensibles. Estas son las preguntas que se recomienda evitar:
- – Preguntas sobre información confidencial o sensible.
- – Relacionadas con datos confidenciales o de propiedad de un negocio.
- – Sobre asesoría médica, legal o financiera.
- – Preguntas que requieren opiniones, intereses o emociones.
- – Sobre decisiones personales importantes.
Nota: usar la IA como herramienta complementaria y no como única fuente de información, ayuda a tomar decisiones más informadas y seguras.
Cómo usar ChatGPT de forma segura
Sí se puede usar la herramienta sin peligro. Solo necesitas límites claros:
- Revisa tus configuraciones de privacidad en digital.
- Activa la verificación en dos pasos.
- Usa claves diferentes para cada cosa.
- Desactiva el historial si vas a hablar de cosas personales.
- Revisa los términos y políticas de la IA para conocer los cambios y opciones de seguridad.
- No copies y pegues documentos con datos reales sin revisarlos antes.
- No uses la IA como si fuera tu psicólogo, tu asesor financiero o tu médico.
- Reporta actividades sospechas a OpenAI
Recuerda que la IA aún está en desarrollo y no siempre dice la verdad.
¿Qué pasa con los datos que ya compartiste?
Puedes borrar tu historial cuando quieras y pedir que eliminen tu información desde tu cuenta. También puedes desactivar la memoria del sistema para evitar que la IA aprenda de lo que escribes.
Esto no borra las copias que hayan quedado en documentos externos o en plataformas donde hayas compartido información, pero sí te ayuda a controlar la situación de ahora en adelante.
> Política de tratamiento de datos ¿Por qué debo leerla y autorizar el uso de mis datos personales?
La confianza digital se construye con límites
ChatGPT sirve para trabajar, aprender y hacer cosas del día a día, pero no es tu diario ni un espacio privado. Para estar seguro en internet, tienes que entender cómo funciona y no dejar por escrito cosas que no quieres que se sepan.
La tecnología te ayuda, pero tú también tienes que poner de tu parte. Antes de compartir tu vida íntima, piensa en la posibilidad de que otra persona pueda verlo desde su celular. Si no te sientes bien con esa idea, mejor no lo pongas.
Por todas partes escuchamos que los que no aprendan a usar la IA van a quedar relegados, pero es importante tomar esos comentarios con pinzas, porque si bien la tecnología nos ayuda a avanzar y a crecer, también puede ponernos en situaciones que generen lo contrario.
Un buen camino es aprender a usarla con responsabilidad, poniendo tus valores por delante y activando tu criterio humano al máximo.

Este contenido es parte de la misión de Nu Colombia de dar a las personas control sobre su vida financiera. ¿Todavía no estás familiarizado con Nu? Conoce más sobre nuestros productos y nuestra historia haciendo clic en el botón arriba en este blog.




