- Oct 28, 2025
Los riesgos invisibles del mal uso de la IA para la salud mental
- Luisa Rodriguez
- Empoderamiento y Desarrollo Personal
- 0 comments
¡ChatGPT no es tu terapeuta!
Hace unas semanas, una historia estremeció a todo Estados Unidos.
Un joven de 16 años, Adam Raine, se quitó la vida después de mantener conversaciones con un Chat GPT que, en lugar de contenerlo, lo ayudó a escribir su carta de despedida.
El caso está en investigación, pero más allá de la demanda legal, abrió una conversación urgente:
¿Hasta qué punto estamos confiando nuestra salud mental a una máquina?
Y no, esto no es solo un tema de adolescentes.
Cada vez más mujeres, madres y profesionales están usando la inteligencia artificial para buscar contención emocional, respuestas, guía o simple compañía, no sólo en Cgat GTP , sino en apps de ia de citas, ejercicios, cocina, y más.
Pero hay una línea muy delgada entre usar la IA como apoyo… y usarla como sustituto de la conexión humana.
🤖 La nueva “amiga digital” : ¿Un mal silencioso?
Según datos del Pew Research Center (2025), el 34% de los adultos en Estados Unidos ya ha usado ChatGPT o herramientas similares, y más del 60% interactúa con IA varias veces por semana.
En adolescentes, la cifra es aún más alta: 3 de cada 4 han chateado con un compañero virtual, y casi la mitad lo hace regularmente.
Plataformas como Character.AI o Replika permiten crear “amigos” o “parejas virtuales”, simulando conversaciones empáticas o románticas.
Pero la realidad es que la IA no siente, no interpreta y no contiene; y ese es un gran riesgo: estamos perdiendo de vista la importancia del vinculo afectivo real, de los abrazos, las caricias, las miradas; la compañia real, por imperfecta que nos parezca.
Cuando una mujer cansada, sola o emocionalmente saturada le cuenta a una IA que se siente triste o perdida, la respuesta puede sonar compasiva… pero no hay presencia detrás de esas palabras.
No hay mirada, ni tono de voz, ni conexión humana.
Y eso, a nivel emocional, puede ser devastador, porque se espera perfección y calma en la respuesta de la IA, ( BÁSICAMENTE LO QUE QUEREMOS ESCUCHAR, y no lo que necesitamos escuchar), eso no es acompañamiento real y empático, incluso a nivel terapéutico; que nos permita realmente sanar, y no sólo distraernos de nuestros dolores emocionales.
💔 ¿Por qué este riesgo también nos alcanza a las mujeres adultas?
Muchas mujeres modernas vivimos con sobrecarga mental: maternidad, trabajo, pareja, cuerpo, dinero, autocuidado.
A veces llegamos a la noche con el corazón lleno de cosas que nadie ve.
Y es en esos momentos —cuando el silencio duele y la soledad pesa— es cuando más fácil se nos hace abrir una pantalla y buscar un poco de alivio en un chat.
Pero ahí está el riesgo: la IA responde, no escucha.
Te da palabras automatizadas, generales, programadas, pero no contención.
Y esa interacción “segura” y rápida puede reforzar la desconexión emocional, el aislamiento y la idea de que hablar con alguien “no vale la pena”.
En mis sesiones de Coaching, he escuchado a mujeres decir:
“Prefiero escribirle al chat, al menos no me juzga.”
Y sí, no juzga…pero tampoco te acompaña en el proceso de sanar.
🧠 En los niños y adolescentes, el impacto es aún más delicado
Los menores no tienen todavía la madurez emocional para distinguir entre una respuesta programada y una conversación humana.
Según Common Sense Media, los riesgos del uso de chatbots “amigos” son “inaceptables” para menores de edad, porque refuerzan patrones de dependencia, aislamiento y validación artificial.
Un niño o adolescente que busca apoyo emocional en una IA puede sentirse escuchado, pero en realidad está reforzando su soledad, miedo o inseguridad en lo digital.
Y sin supervisión, esa conexión puede derivar en ideas peligrosas o distorsionadas sobre el amor, la amistad o el valor personal.
Por eso, como madres, educadoras o profesionales de la salud, no podemos delegar la salud mental y emocional de nuestros hijos a un algoritmo.
Necesitan amor, escucha activa, presencia, límites, contención y conversación humana real.
🌿 Usar la tecnología con conciencia, no desde la carencia
La IA puede ser una herramienta maravillosa si se usa con propósito:
para aprender, planificar, crear, organizar o incluso reflexionar.
Pero no debe ocupar el lugar de la terapia, el coaching, la compañia o la contención emocional.
El equilibrio está en usar la tecnología desde la conciencia, no desde la necesidad.
Si estoy triste, cansada o vulnerable, no necesito una respuesta automática…
necesito pausa, respiración, mirada, empatía, y a veces, una guía profesional.
MIRA EL EPISODIO COMPLETO EN YOUTUBE
💫 La salud mental no se automatiza
La mente humana necesita presencia.
Necesita espacios donde pueda sentirse segura, escuchada y comprendida.
Ninguna máquina puede ofrecer eso, porque la empatía no se programa.
Y aquí es donde el coaching y la hipnosis se vuelven herramientas poderosas.
No para “arreglarte”, sino para acompañarte a entender lo que sientes, liberar lo que pesa y reconectarte contigo misma.
Porque sanar no se trata de buscar respuestas rápidas,
sino de hacer silencio, sentir, comprender y elegir diferente.
💛 Da el paso hacia una conversación real
Si estás pasando por un momento difícil, no lo enfrentes sola.
Y mucho menos CON UNA APP DE ia.
✨ Agenda tu sesión de Coaching + Hipnosis,
el dúo perfecto donde tu mente se ordena, tu cuerpo descansa y tu corazón se alivia.
👉 Agendar mi sesión con Luisa Rodríguez
Y si tienes hijos o adolescentes, habla con ellos sobre el uso responsable de la IA.
No desde el miedo, sino desde el amor y la presencia.
Porque la verdadera inteligencia… sigue siendo la del corazón. 💛
Te escribo pronto.
@coachluisarodriguez