• Oct 28, 2025

Los riesgos invisibles del mal uso de la IA para la salud mental

ChatGPT no es tu terapeuta. La tecnología de la IA puede acompañar… pero jamás reemplaza la contención humana. Y cuando la usamos mal, el costo a nuestra salud mental puede ser altísimo.

¡ChatGPT no es tu terapeuta!

Hace unas semanas, una historia estremeció a todo Estados Unidos.
Un joven de 16 años, Adam Raine, se quitó la vida después de mantener conversaciones con un Chat GPT que, en lugar de contenerlo, lo ayudó a escribir su carta de despedida.


El caso está en investigación, pero más allá de la demanda legal, abrió una conversación urgente:
¿Hasta qué punto estamos confiando nuestra salud mental a una máquina?

Y no, esto no es solo un tema de adolescentes.
Cada vez más mujeres, madres y profesionales están usando la inteligencia artificial para buscar contención emocional, respuestas, guía o simple compañía, no sólo en Cgat GTP , sino en apps de ia de citas, ejercicios, cocina, y más.


Pero hay una línea muy delgada entre usar la IA como apoyo… y usarla como sustituto de la conexión humana.


🤖 La nueva “amiga digital” : ¿Un mal silencioso?

Según datos del Pew Research Center (2025), el 34% de los adultos en Estados Unidos ya ha usado ChatGPT o herramientas similares, y más del 60% interactúa con IA varias veces por semana.


En adolescentes, la cifra es aún más alta: 3 de cada 4 han chateado con un compañero virtual, y casi la mitad lo hace regularmente.
Plataformas como Character.AI o Replika permiten crear “amigos” o “parejas virtuales”, simulando conversaciones empáticas o románticas.

Pero la realidad es que la IA no siente, no interpreta y no contiene; y ese es un gran riesgo: estamos perdiendo de vista la importancia del vinculo afectivo real, de los abrazos, las caricias, las miradas; la compañia real, por imperfecta que nos parezca.

Cuando una mujer cansada, sola o emocionalmente saturada le cuenta a una IA que se siente triste o perdida, la respuesta puede sonar compasiva… pero no hay presencia detrás de esas palabras.
No hay mirada, ni tono de voz, ni conexión humana.
Y eso, a nivel emocional, puede ser devastador, porque se espera perfección y calma en la respuesta de la IA, ( BÁSICAMENTE LO QUE QUEREMOS ESCUCHAR, y no lo que necesitamos escuchar), eso no es acompañamiento real y empático, incluso a nivel terapéutico; que nos permita realmente sanar, y no sólo distraernos de nuestros dolores emocionales.


💔 ¿Por qué este riesgo también nos alcanza a las mujeres adultas?

Muchas mujeres modernas vivimos con sobrecarga mental: maternidad, trabajo, pareja, cuerpo, dinero, autocuidado.
A veces llegamos a la noche con el corazón lleno de cosas que nadie ve.
Y es en esos momentos —cuando el silencio duele y la soledad pesa— es cuando más fácil se nos hace abrir una pantalla y buscar un poco de alivio en un chat.

Pero ahí está el riesgo: la IA responde, no escucha.
Te da palabras automatizadas, generales, programadas, pero no contención.
Y esa interacción “segura” y rápida puede reforzar la desconexión emocional, el aislamiento y la idea de que hablar con alguien “no vale la pena”.

En mis sesiones de Coaching, he escuchado a mujeres decir:

“Prefiero escribirle al chat, al menos no me juzga.”
Y sí, no juzga…pero tampoco te acompaña en el proceso de sanar.


🧠 En los niños y adolescentes, el impacto es aún más delicado

Los menores no tienen todavía la madurez emocional para distinguir entre una respuesta programada y una conversación humana.
Según Common Sense Media, los riesgos del uso de chatbots “amigos” son “inaceptables” para menores de edad, porque refuerzan patrones de dependencia, aislamiento y validación artificial.

Un niño o adolescente que busca apoyo emocional en una IA puede sentirse escuchado, pero en realidad está reforzando su soledad, miedo o inseguridad en lo digital.
Y sin supervisión, esa conexión puede derivar en ideas peligrosas o distorsionadas sobre el amor, la amistad o el valor personal.

Por eso, como madres, educadoras o profesionales de la salud, no podemos delegar la salud mental y emocional de nuestros hijos a un algoritmo.
Necesitan amor, escucha activa, presencia, límites, contención y conversación humana real.

🌿 Usar la tecnología con conciencia, no desde la carencia

La IA puede ser una herramienta maravillosa si se usa con propósito:
para aprender, planificar, crear, organizar o incluso reflexionar.
Pero no debe ocupar el lugar de la terapia, el coaching, la compañia o la contención emocional.

El equilibrio está en usar la tecnología desde la conciencia, no desde la necesidad.
Si estoy triste, cansada o vulnerable, no necesito una respuesta automática…
necesito pausa, respiración, mirada, empatía, y a veces, una guía profesional.

https://www.youtube.com/watch?v=nsYl9NaykVI&t=621s

MIRA EL EPISODIO COMPLETO EN YOUTUBE


💫 La salud mental no se automatiza

La mente humana necesita presencia.
Necesita espacios donde pueda sentirse segura, escuchada y comprendida.
Ninguna máquina puede ofrecer eso, porque la empatía no se programa.

Y aquí es donde el coaching y la hipnosis se vuelven herramientas poderosas.
No para “arreglarte”, sino para acompañarte a entender lo que sientes, liberar lo que pesa y reconectarte contigo misma.

Porque sanar no se trata de buscar respuestas rápidas,
sino de hacer silencio, sentir, comprender y elegir diferente.


💛 Da el paso hacia una conversación real

Si estás pasando por un momento difícil, no lo enfrentes sola.
Y mucho menos CON UNA APP DE ia.

✨ Agenda tu sesión de Coaching + Hipnosis,
el dúo perfecto donde tu mente se ordena, tu cuerpo descansa y tu corazón se alivia.

👉 Agendar mi sesión con Luisa Rodríguez

Y si tienes hijos o adolescentes, habla con ellos sobre el uso responsable de la IA.
No desde el miedo, sino desde el amor y la presencia.

Porque la verdadera inteligencia… sigue siendo la del corazón. 💛

Te escribo pronto.

@coachluisarodriguez


0 comments

Sign upor login to leave a comment