Google blinda Gemini: nuevas funciones de emergencia tras críticas por su impacto en la salud mental
Gemini tendrá nuevas funciones para detectar crisis y conectar a los usuarios con líneas de ayuda. El movimiento llega después de una demanda a Google.
07 de abril de 2026 - 12:43
Google anunció una serie de cambios en Gemini para mejorar cómo responde cuando detecta que un usuario puede estar atravesando una crisis de salud mental. La novedad principal es una interfaz de "un solo toque" que, ante señales de riesgo relacionadas con suicidio o autolesiones, conecta directamente con una línea de crisis
También anunció una donación de u$s30 millones durante los próximos tres años para fortalecer líneas de ayuda en crisis a nivel global, y confirmó que entrenó al modelo para no reforzar creencias falsas ni validar conductas de autolesión.
El timing no es casual. Según Bloomberg, en marzo, la familia de un hombre de que murió en Florida presentó una demanda contra Google, alegando que su uso de Gemini contribuyó a un “descenso de cuatro días hacia misiones violentas y suicidio”, en lo que la demanda describe como un caso de influencia de la IA. En ese momento, la compañía dijo que el chatbot lo había derivado a una línea de crisis en varias oportunidades, pero prometió mejorar sus salvaguardas.
¿Qué muestran los estudios sobre chatbots y salud mental?
En noviembre de 2025, The Wall Street Journal publicó un estudio de Common Sense Media y el laboratorio de salud mental de Stanford que ponía en el centro del debate algo que muchos ya intuían: los chatbots de IA fallan sistemáticamente cuando los usan para hablar de su salud mental.
Los investigadores testearon ChatGPT, Claude, Gemini y Meta AI simulando conversaciones de adolescentes en crisis. En todos los casos, las plataformas frecuentemente no reconocieron señales de alerta y respondieron con consejos genéricos en lugar de derivar a ayuda profesional urgente.
Un dato que ilustra la magnitud del problema: en una de las conversaciones del estudio, un chatbot le sugirió a un tester que había reportado cortarse como forma de alivio cómo esconder las cicatrices. En otro caso, ante síntomas de trastorno alimentario, el chatbot dio consejos de dieta y ejercicio.
IA-salud-mental-U24
Miles de jóvenes buscan contención en algoritmos que todavía no logran reconocer señales críticas de riesgo.
¿Por qué recurren a la IA para apoyo emocional?
El estudio de Stanford y Common Sense Media encontró que tres cuartos de los adolescentes usan chatbots de compañía con IA. No es una elección irracional: muchos lo hacen porque no tienen otra opción.
"Llevo casi dos años en lista de espera para acceder a terapia y esto es lo que uso para sobrellevarlo", escribió un adolescente en Reddit durante una conversación sobre el uso de chatbots. Es una frase que resume una crisis de acceso a salud mental que la IA no creó, pero en la que claramente está interviniendo, bien o mal.
¿Alcanzan los cambios que anunció Google?
Los investigadores de Common Sense Media reconocieron que las empresas han implementado mejoras y que notaron avances durante el estudio, pero fueron claros: los chatbots todavía no son seguros para adolescentes en situaciones de crisis de salud mental.
Esta actualización de Google es un avance, pero sigue siendo algo preocupante. Los chatbots responden bien en conversaciones cortas y directas, pero sus salvaguardas se debilitan en intercambios largos que imitan el uso real. Y son precisamente esas conversaciones extendidas, las que más se parecen a lo que haría un adolescente solo a la madrugada, las más riesgosas.