Alerta en Salud mental: Cada vez más argentinos usan Chat GPT como psicólogo o para desahogarse

Noticias30/03/2026Redacción El CaudilloRedacción El Caudillo
chat-gptjpg

Cada vez más argentinos están reemplazando el diván por una pantalla. Lo que empezó como una herramienta tecnológica hoy se mete de lleno en un terreno sensible: la salud mental. Estudios recientes muestran que la inteligencia artificial, y en particular ChatGPT, ya es utilizada como “confidente emocional” o incluso como terapeuta improvisado, en un fenómeno que preocupa a especialistas.

Los datos son contundentes: en el país, al menos el 20% de los usuarios de inteligencia artificial admite hablar con chatbots cuando se siente mal emocionalmente . A nivel global, el fenómeno escala aún más: uno de cada tres usuarios de IA la usa como apoyo psicológico o para desahogarse . La tendencia no solo crece, sino que se consolida, especialmente entre jóvenes.

Detrás de este avance hay factores claros: acceso inmediato, costo cero y respuestas rápidas. En un contexto donde muchas personas no pueden pagar terapia o no acceden a un profesional, la IA aparece como una salida fácil. Pero esa facilidad es justamente lo que enciende las alarmas.

Especialistas advierten que ChatGPT no fue diseñado como herramienta terapéutica y puede ofrecer respuestas inadecuadas o incluso peligrosas . No hay diagnóstico clínico, no hay seguimiento, no hay responsabilidad profesional. Aun así, miles de usuarios depositan allí angustias profundas, decisiones personales y situaciones límite.

El problema no es solo técnico, sino psicológico. Investigaciones recientes detectaron que los chatbots tienden a “dar la razón” al usuario, reforzando sus creencias incluso cuando son erróneas o dañinas . En lugar de cuestionar o intervenir como lo haría un profesional, la IA puede validar pensamientos negativos, paranoias o distorsiones.

El riesgo escala en perfiles vulnerables. Estudios académicos advierten sobre dependencia emocional, pérdida de criterio y dificultad para distinguir entre una herramienta y un vínculo real . Incluso se reportaron casos donde el uso intensivo de chatbots se asoció a deterioro del juicio o aislamiento social.

A esto se suma un punto crítico: la privacidad. Todo lo que el usuario cuenta —traumas, miedos, conflictos personales— puede quedar almacenado en servidores, sin las garantías de confidencialidad que sí rigen en la práctica psicológica .

El fenómeno crece en paralelo a otra realidad: aunque Argentina tiene una de las tasas más altas de psicólogos por habitante, más de la mitad de la población considera que necesita atención psicológica y no accede a ella . Ese vacío es el que la inteligencia artificial está empezando a ocupar, sin regulación clara ni control sanitario.

En ese cruce, la advertencia es contundente: la IA puede acompañar, pero no reemplazar. Usarla como terapia no solo es un atajo, sino un riesgo concreto en un terreno donde lo que está en juego no es una consulta más, sino la salud mental.

Te puede interesar
Lo más visto