En Estambul, Turquía, varias personas protestaron tras la masacre en Nueva Zelanda, el viernes 15 de marzo.

La masacre de Nueva Zelanda, un test para las plataformas de video en vivo

Un audiovisual de la matanza en mezquitas fue bloqueado por Facebook el viernes, pero circuló en otros medios.

Un horrible video de la masacre en mezquitas de Nueva Zelanda fue bloqueado por Facebook este viernes, pero circuló en otros medios, poniendo de relieve los desafíos a los que se enfrentan las plataformas de Internet para contener la viralización de contenido violento.

Aunque Facebook afirmó haber retirado “rápidamente” el video del hombre armado disparando en dos mezquitas en Christchurch, ataques en los que murieron 49 personas, la transmisión en vivo que duró unos 17 minutos, según algunos informes, fue compartida repetidamente en YouTube y Twitter, y algunas tomas seguían viéndose horas después.

Si bien las principales plataformas de Internet se han comprometido a adoptar medidas enérgicas sobre la publicación de imágenes de contenido violento y otro tipo de contenido inapropiado en la web a través de sistemas automáticos y de monitoreo humano, algunos estiman que no está funcionando.

“No hay ninguna excusa para que el contenido de esa transmisión en vivo esté circulando ahora”, señaló Lucinda Creighton, exministra de gobierno irlandesa y asesora de la ONG Counter Extremism Project, que hace campaña para retirar contenido violento de Internet.

Las plataformas en línea “dicen que tienen sus propias tecnologías, pero no sabemos a qué se refieren, no hay transparencia y obviamente no están funcionando”, agregó.

Su organización ha desarrollado tecnología capaz de detectar algunos tipos de contenido violento y se lo ha ofrecido a compañías, en vano.

Las grandes plataformas han desarrollado una tecnología para detectar la pornografía infantil, pero no han logrado unir sus esfuerzos contra los contenidos violentos.

Facebook indicó que, además de sus herramientas tecnológicas y sus propios moderadores, utiliza cada vez más las informaciones de los usuarios para retirar contenidos inapropiados.

La empresa tiene contratados 20.000 moderadores aunque, según varios medios, están sometidos a un gran estrés por los violentos videos a los que están expuestos y les resulta difícil gestionar las secuencias difundidas en directo.

Mia Garlick, del equipo de Facebook encargado de Nueva Zelanda, indicó que la compañía está actuando para impedir la publicación de este video ultraviolento. “Cada video que encontramos lo ponemos en una base de datos interna que nos permite detectar y retirar automáticamente las copias de dichos vídeos cuando se descargan de nuevo”, afirmó en un comunicado.

YouTube y Twitter reaccionan

Tras los ataques de este viernes, la policía neozelandesa pidió a la población en un mensaje de Twitter que no compartieran las imágenes “extremadamente angustiosas” de las matanzas de Christchurch, vistas repetidamente en plataformas como 4chan y Reddit y en los sitios web de algunos medios.

“Instamos urgentemente a que el enlace no se comparta. Estamos trabajando para retirar algunas tomas”, tuiteó por su parte el departamento de policía del condado.

Tanto Twitter como YouTube indicaron también que estaban trabajando para retirar los videos de la masacre y cualquier contenido relacionado.

Un portavoz de Twitter indicó que los casos como el del video de Christchurch eran gestionados cuidadosamente por un equipo especializado y que la compañía cooperaba con el cumplimiento de la ley. “También cooperamos con la policía para facilitar las investigaciones”, señaló la red social.

“Nuestros corazones están rotos por la terrible tragedia de hoy en Nueva Zelanda. Por favor, tengan en cuenta que estamos trabajando atentamente para retirar cualquier toma violenta”, dijo por su parte YouTube en un tuit.

Facebook no reaccionó inmediatamente a las preguntas sobre su acción, pero indicó haber retirado el video tras una petición de la policía y haber bloqueado la cuenta de Facebook e Instagram del presunto atacante.

Sin embargo, para Jennifer Grygiel, una profesora de comunicación de la Universidad de Syracuse, en Nueva York, las compañías están haciendo muy poco para prevenir la viralización de contenido violento.

“Facebook es una plataforma sin moderadores donde uno puede colgar lo que quiera”, dijo, alegando que no se habían adoptado medidas significativas desde la transmisión en vivo en la red social del asesinato de un hombre de 74 años en Cleveland, Ohio, en 2017.

Según Grygiel, usar las plataformas para transmitir actos de violencia se ha convertido en algo común para los perpetradores, y esas imágenes a menudo se comparten en YouTube y en otros sitios.

Para la experta, plataformas como YouTube tienen la capacidad de identificar y retirar videos violentos a través de búsquedas por palabras clave, pero se necesita más personal para monitorear los sitios.

“A través de la escucha social, tienen herramientas para identificar palabras clave y retirar los videos relacionados con este tipo de incidentes”, explicó.

La inteligencia artificial puede ayudar, según ella, pero “no se puede diseñar ningún algoritmo para esto, porque no se puede predecir el futuro”, concluyó.