Aunque la inteligencia artificial se presenta como herramienta de ayuda para la gestión de emociones, pero su naturaleza carente de pensamiento crítico limita su capacidad de acompañamiento y cuestionamiento. En salud mental, su avance promete eficiencia y detección temprana, pero plantea dilemas éticos, emocionales y de privacidad que exigen una reflexión profunda, publicó The Conversation.
MASTURBACIÓN PSI
Inteligencia Artificial para salud mental: un "apoyo" ¿sin pensamiento crítico?
La Inteligencia Artificial se usa como acompañante emocional disponible las 24 horas: ¿Qué efectos tienen la empatía simulada y la respuesta autocomplaciente?
Tecno salud
La salud mental preocupa cada vez más: cuatro de cada diez personas enfrentarán algún trastorno a lo largo de su vida. En este contexto, las soluciones tecnológicas, como ChatGPT y otros sistemas de inteligencia artificial, despiertan tanto interés como desconfianza. No es la primera vez que la innovación genera resistencia: desde los luditas del siglo XIX hasta la adopción forzada de las videollamadas médicas durante la pandemia, la historia repite el temor al cambio.
Hoy, la IA se usa sobre todo como acompañante emocional disponible las 24 horas. Muchos la valoran por su empatía simulada y su neutralidad, aunque pocos advierten los riesgos asociados: la exposición de datos personales y los sesgos de entrenamiento. Sin embargo, su capacidad analítica permite identificar signos tempranos de malestar mediante el *fenotipado digital* —el análisis de datos de móviles y dispositivos que registran sueño, pasos o frecuencia de uso—. También detecta alteraciones emocionales a través del lenguaje, anticipando posibles crisis.
Los chatbots de salud mental muestran cierta eficacia para aliviar ansiedad o depresión leves y para reforzar terapias cognitivo-conductuales, adaptando ejercicios y monitoreando progresos. No obstante, su efecto tiende a desaparecer tras tres meses y los usuarios abandonan el uso, revelando un límite emocional: carecen de la empatía, flexibilidad y sintonía de un terapeuta humano.
Gestionamiento de emociones
Las investigaciones alertan sobre vacíos éticos y técnicos. La pirámide de la IA en salud mental prioriza, en su base, la privacidad y seguridad; luego la fiabilidad y transparencia, y recién en la cima, la eficacia. Sin un marco ético sólido, el riesgo de convertir estas herramientas en una falsa solución es alto. Aun así, su avance es imparable: la IA ya no reemplaza, sino redefine la atención psicológica del futuro.
Otras noticias en Urgente24:
Sin balas: No hay dólares sino un swap para el Tesoro (el problema de fondo sigue)
'Panic Show' del Congreso a Milei: Aprobada la ley que limita los DNU (pero vuelve al Senado)
Mundial Sub 20: Argentina goleó 4-0 a Nigeria y enfrentará a México en 4tos
El pueblo en Buenos Aires con la mejor cocina al disco
Enojo con Leandro Paredes: No volverá a Argentina y piden que le saquen la capitanía












