
Alerta en Salud mental: Cada vez más argentinos usan Chat GPT como psicólogo o para desahogarse
Noticias30/03/2026
Redacción El Caudillo


Cada vez más argentinos están reemplazando el diván por una pantalla. Lo que empezó como una herramienta tecnológica hoy se mete de lleno en un terreno sensible: la salud mental. Estudios recientes muestran que la inteligencia artificial, y en particular ChatGPT, ya es utilizada como “confidente emocional” o incluso como terapeuta improvisado, en un fenómeno que preocupa a especialistas.
Los datos son contundentes: en el país, al menos el 20% de los usuarios de inteligencia artificial admite hablar con chatbots cuando se siente mal emocionalmente . A nivel global, el fenómeno escala aún más: uno de cada tres usuarios de IA la usa como apoyo psicológico o para desahogarse . La tendencia no solo crece, sino que se consolida, especialmente entre jóvenes.
Detrás de este avance hay factores claros: acceso inmediato, costo cero y respuestas rápidas. En un contexto donde muchas personas no pueden pagar terapia o no acceden a un profesional, la IA aparece como una salida fácil. Pero esa facilidad es justamente lo que enciende las alarmas.


Especialistas advierten que ChatGPT no fue diseñado como herramienta terapéutica y puede ofrecer respuestas inadecuadas o incluso peligrosas . No hay diagnóstico clínico, no hay seguimiento, no hay responsabilidad profesional. Aun así, miles de usuarios depositan allí angustias profundas, decisiones personales y situaciones límite.
El problema no es solo técnico, sino psicológico. Investigaciones recientes detectaron que los chatbots tienden a “dar la razón” al usuario, reforzando sus creencias incluso cuando son erróneas o dañinas . En lugar de cuestionar o intervenir como lo haría un profesional, la IA puede validar pensamientos negativos, paranoias o distorsiones.
El riesgo escala en perfiles vulnerables. Estudios académicos advierten sobre dependencia emocional, pérdida de criterio y dificultad para distinguir entre una herramienta y un vínculo real . Incluso se reportaron casos donde el uso intensivo de chatbots se asoció a deterioro del juicio o aislamiento social.
A esto se suma un punto crítico: la privacidad. Todo lo que el usuario cuenta —traumas, miedos, conflictos personales— puede quedar almacenado en servidores, sin las garantías de confidencialidad que sí rigen en la práctica psicológica .
El fenómeno crece en paralelo a otra realidad: aunque Argentina tiene una de las tasas más altas de psicólogos por habitante, más de la mitad de la población considera que necesita atención psicológica y no accede a ella . Ese vacío es el que la inteligencia artificial está empezando a ocupar, sin regulación clara ni control sanitario.
En ese cruce, la advertencia es contundente: la IA puede acompañar, pero no reemplazar. Usarla como terapia no solo es un atajo, sino un riesgo concreto en un terreno donde lo que está en juego no es una consulta más, sino la salud mental.


Horror y sangre: Un alumno mató a tiros a un compañero en un colegio en Santa Fe

Salteño murió en un violento vuelco y encontraron mucho dinero en distintas denominaciones

Fue abusada, intentó quitarse la vida y quedó cuadripléjica. hoy recibirá la eutanasia por depresión


Jubilados que cobren más de $439.600 dejarán de percibir el refuerzo de $70000


Salteño murió en un violento vuelco y encontraron mucho dinero en distintas denominaciones

Deserción y desgaste: el Plan Güemes pierde efectivos en plena lucha contra el narcotráfico

Exclusivo: solicitarán prisión domiciliaria para “Kila” Gonza tras su primera noche detenido en Alcaidía


