Todas estas preguntas acecharon a la red social en estos días y desde el New Yorker hablaron con una experta: Sarah T. Roberts, profesora de estudios de información en la Universidad de California en Los Ángeles, quien, durante los últimos ocho años, se ha convertido en una autoridad en las estrategias de moderación de contenido empleadas por las empresas de tecnología.
Roberts explicó que los sistemas de aprendizaje automático podrían algún día identificar corrientes violentas y de odio a medida que sean transmitidos, pero ella misma se cuestiona si deberíamos dejar o no esta decisión en manos de un algoritmo. El tema es que no hay posibilidad física de que existan suficientes moderadores humanos capaces de monitorear cada uno de los videos en vivo que se transmiten en las diversas redes sociales.
“Las plataformas podrían hacer que el acceso a la tecnología sea un privilegio para los usuarios de confianza, por ejemplo.” Explica el New Yorker. “Pero tales medidas también impedirían la transmisión de video que se considera socialmente útil: transmisiones de protestas políticas, por ejemplo, o de violencia policial. Durante un tiempo, Facebook Live fue visto ampliamente como un conducto útil para un cambio social positivo. Al final, puede ser imposible separar lo bueno de lo malo”, agrega.
Por su parte, luego del ataque, Facebook de Nueva Zelanda informó la remoción de 1,5 millones de videos en todo el mundo sobre el ataque a las mezquitas de Christchurch en sólo 24 horas.
"En las primeras 24 horas, hemos removido 1,5 millones de videos del ataque en todo el mundo, de los cuales 1,2 millones fueron bloqueados mientras eran descargados", dijo la responsable de la empresa, Mia Garlick, en una serie de tuit, tras la emisión en director de la matanza de 50 musulmanes.
"También estamos eliminando cualquier elogio o apoyo para el crimen y el tirador o probables tiradores tan pronto como estemos conscientes. Continuaremos trabajando directamente con la Policía de Nueva Zelanda a medida que su respuesta e investigación continúen ", señaló.
En definitiva, las redes sociales cuentan con un equipo enorme de moderadores que vigilan las 24 horas del día los grupos, fotos, videos y contenidos que se transmiten por las mismas redes para evitar que se incumplan las reglas de convivencia impuestas para las comunidades digitales.
Pero la herramienta del vivo todavía es una incógnita y un desafío para el nuevo paradigma, y por ahora resulta un callejón sin salida para las funciones moderadoras. Facebook se está enterando que sus herramientas pueden ser usadas para hacer daño y transmitir mensajes de odio que fomentan la xenofobia entre otras cosas, y lo peor de todo, es que se está dando cuenta de que sin querer creó un monstruo, que (todavía) no se puede controlar.