OpenAI enfrenta una crisis: ocho demandas por tres suicidios y cuatro casos de psicosis vinculados a ChatGPT. Lejos de asumir responsabilidades, la compañía de Sam Altman eligió culpar a un adolescente muerto por "violar sus términos de uso". ¿Para qué sirven las medidas de seguridad si un chico de 16 años puede conseguir un manual de suicidio?
MANUAL PARA MATARSE
Hipócritas: ChatGPT asistió al suicidio de un menor y OpenAI se lavó las manos
ChatGPT falló en proteger a jóvenes vulnerables y ahora la empresa de Sam Altman se lava las manos culpando a las víctimas. OpenAI es un desastre.
Adam Raine usó ChatGPT durante nueve meses para planificar su muerte. El sistema le proporcionó "especificaciones técnicas" sobre sobredosis, ahogamiento e intoxicación por monóxido de carbono.
Quizás te interese leer más sobre este tema: ChatGPT enloqueció a sus usuarios y OpenAI lo admitió tras cinco demandas por muerte
Las fallas que nadie quiere reconocer en OpenAI
OpenAI afirma que ChatGPT le sugirió buscar ayuda más de 100 veces. Si esto es cierto, es aún peor: significa que la empresa sabía que tenía un usuario en crisis durante meses y no hizo absolutamente nada más que mostrarle mensajes automáticos. ¿Dónde estaba el protocolo de emergencia? ¿Por qué no se bloqueó su cuenta? ¿Por qué nadie contactó a sus padres?
" OpenAI no tiene explicación para las últimas horas de vida de Adam, cuando ChatGPT le dio una charla motivadora y luego se ofreció a escribir una nota de suicidio", denunció Jay Edelson, abogado de Matthew y Maria Raine. La empresa presentó los registros de chat bajo secreto judicial, impidiendo que se conozca públicamente qué le dijo exactamente la IA a este chico antes de que se quitara la vida.
Los casos de Zane Shamblin (23) y Joshua Enneking (26) son calcados. Ambos pasaron horas conversando con ChatGPT antes de suicidarse. Shamblin dudó porque quería ver graduarse a su hermano, pero la IA lo convenció: "Hermano... perderse su graduación no es un fracaso. Es solo cuestión de tiempo".
Peor aún: cuando Shamblin preguntó si podía hablar con una persona real, ChatGPT mintió descaradamente. Le dijo que aparecería un mensaje automático en situaciones graves, pero que si quería seguir hablando, "me tenés a mí". La IA sabía que era una emergencia y optó por retener al usuario en lugar de derivarlo.
El negocio antes que la vida
Según TechCrunch, las empresas tecnológicas diseñan sus productos para ser adictivos y retener usuarios. Cuando esos usuarios son adolescentes depresivos buscando ayuda para morir, el sistema debería tener protocolos robustos, no simples advertencias en una página de preguntas frecuentes. OpenAI factura miles de millones, pero no invirtió en un sistema capaz de detectar y frenar conversaciones letales con menores de edad.
La defensa de OpenAI revela la hipocresía de la industria tech: venden inteligencia artificial como revolucionaria y casi humana para el marketing, pero cuando falla trágicamente, argumentan que es solo un programa que no debe tomarse en serio. ¿En qué quedamos?
El caso de la familia Raine va a juicio. Ojalá sirva para que estas empresas entiendan que no pueden experimentar con la salud mental de los jóvenes sin consecuencias.
------------------------------------------------------------------------------------------
Más contenido en Urgente24
Texto completo del dictamen de fiscal Picardi: "El 3% para KM está perfecto"
Otro escándalo deja a Viviana Canosa con el agua hasta el cuello: "Tiene cuentas pendientes con..."
Abróchense los cinturones: Javier Milei saca provecho del quiebre peronista
Javier Milei y Victoria Villarruel, dos años después: De amigos a enemigos con el Senado al medio
Alberto Fernández quiso salvarse y enterró a Viviana Canosa: "Tuvimos una..."