Los científicos de datos también construyeron algoritmos para predecir el intento suicida entre un grupo de 12.695 pacientes elegidos al azar, sin un intento de suicidio en su historial. El algoritmo resultó aún más preciso en hacer predicciones sobre riesgo suicida en esta muestra general de pacientes.
El sistema de inteligencia artificial utiliza los datos de los pacientes en cuestión -que incluyen la edad, el género, el código postal, la medicación y la historia de su diagnóstico- para predecir la probabilidad de que intentarán quitarse la vida. El estudio fue realizado de manera retrospectiva. Lamentablemente, casi 2.000 de los pacientes suicidaron mientras la investigación estaba en marcha.
Un dato interesante que arrojó el estudio es la correlación entre el riesgo suicida y las prescripciones de melatonina. Es poco probable que la melatonina provoque pensamientos suicidas, explica Quartz, sino que la prescripción es probablemente un indicador de problemas para dormir -que son, en sí mismos, un factor clave del riesgo suicida-.
Actualmente, Walsh está trabajando con doctores para desarrollar un programa de intervención basado en su algoritmo. Si la inteligencia artificial dice que un paciente está en alto riesgo de intentar suicidarse, ¿se lo puede obligar a quedarse hospitalizado?
Este y otros dilemas éticos surgen a partir de la nueva tecnología, plantea Goldhill en Quartz. ¿Quién podría tener acceso a la información? ¿Se puede obligar a alguien a ser hospitalizado por un riesgo potencial que predice una máquina?
Pero el algoritmo sobre el riesgo suicida es casi una excepción, plantea Kopf. La mayoría de estos modelos predictivos son utilizados para mejorar la publicidad dirigida y la detección del fraude.
Sin embargo, existen otras organizaciones sin fines de lucro, como DataKind y Bayes Impact, que están intentando desarrollar algoritmos para el bien social.
DataKind trabajó con el Colegio de Justicia Criminal John Jay de Nueva York para ayudarlos a identificar qué estudiantes estaban en riesgo de dejar los estudios aún si les faltaba poco para graduarse. El fin es desarrollar programas que ayuden a estos estudiantes en riesgo.
Y Chris Danforth, investigador de la Universidad de Vermont, y Andrew Reece, de Harvard, desarrollaron un algoritmo que puede detectar signos de depresión analizando el tono de los posteos de Instagram de una persona. Ambos crearon un segundo algoritmo que puede identificar el ascenso y caída de la enfermedad mental de alguien al escanear el lenguaje, la cantidad de palabras, los patrones del habla y el grado de actividad de sus posteos en Twitter.
La red social Facebook también ha desarrollado algoritmos de reconocimiento de patrones que monitorearán los posteos de los usuarios en busca de riesgo de suicidio o de daño a sí mismos, para conectarlos con servicios de salud mental, si fuese necesario.