CNET también está disponible en español.

Ir a español

Don't show this again

Cultura tecnológica

Masacre en Nueva Zelanda resalta el poco dominio de las redes sociales sobre el contenido

Facebook y YouTube están luchando por evitar y quitar de su plataforma videos de masacres diseñados para volverse virales.

NZEALAND-CRIME-SHOOTING

Un policía apostado frente la mezquita atacada el viernes en Christchurch, Nueva Zelanda. 

Tessa Burrows / AFP/Getty Images

Por cada video del tiroteo en Nueva Zelanda que YouTube y Facebook bloqueaban, otros dos o tres surgían para reemplazar a los bloqueados. 

El viernes, un hombre en la localidad de Christchurch, Nueva Zelanda, atacó a personas que estaban orando en una mezquita; el hombre transmitió el tiroteo en vivo desde Facebook. La red social quitó el video y borró la cuenta del sospechoso. Pero esto no fue suficiente para evitar que el video se diseminara por Internet. 

El video de 17 minutos de duración se descargó de Facebook. Luego se subió a YouTube varias veces, muchas ocasiones con sólo minutos de diferencia. YouTube está pidiendo a los usuarios alertar de cualquier video que muestre este clip y dijo que está extrayendo miles de videos relacionados con el tiroteo en las últimas 24 horas. 

"El contenido traumático, violento y gráfico no tiene espacio en nuestras plataformas, y estamos utilizando nuestra tecnología y nuestros recursos humanos para revisar rápidamente y extraer cualquier contenido de este tipo en YouTube", dijo un portavoz de YouTube en un comunicado. "Como con cualquier tragedia, trabajaremos de manera cooperativa con las autoridades".

El video se ha subido varias veces a YouTube.

Alfred Ng/CNET

La gigante de video utiliza algoritmos, como Content ID, para detectar automáticamente cuando materiales con derecho de autor como canciones y clips de películas se suben a su plataforma y así los propietarios de los derechos puedan extraer este contenido. 

Google, que es dueña de YouTube, no especificó si usa estas herramientas para ayudar en el control de la diseminación del video del ataque en Nueva Zelanda. La empresa dijo que estaba utilizando tecnología de detección inteligente para quitar estos videos, pero no dio detalles de cómo estaba lidiando con el asunto. 

La búsqueda de videos con contenido violento resalta la dificultad que experimentan las redes sociales en detectar y quitar videos y comentarios de contenido de odio. En lo que se ha convertido en una triste práctica, los videos de tragedias circulan por Internet en paralelo a los esfuerzos de las gigantes de tecnología de deshacerse de ellos. Los críticos han señalado que el sospechoso del ataque en Nueva Zelanda pudo ser capaz de transmitir en vivo la masacre durante más de un cuarto de hora antes de que Facebook clausurara la transmisión. 

"Esto es completamente inaceptable", dijo Farhana Khera, director de la organización Muslim Advocates en un comunicado. "Las empresas de tecnología deben tomar todos los pasos necesarios para prevenir que algo como esto ocurra de nuevo".

Las autoridades en Nueva Zelanda reportaron 49 muertes y al menos 20 personas lesionadas en dos mezquitas. Se han arrestado a tres personas en conexión con los ataques, y a un sospechoso se le ha impuesto cargos por asesinato. 

Facebook dijo que sigue en busca de cualquier iteración del video en su red social, empleando reportes de su comunidad y de los moderadores, así como también de sus herramientas tecnológicas. La red social no identificó las herramientas tecnológicas que está utilizando para eliminar esta clase de contenido. 

"La policía de Nueva Zelanda nos alertó de un video en Facebook poco después de que inició la transmisión en vivo, y rápidamente quitamos las cuentas de Facebook e Instagram del pistolero y el video", dijo Mia Garlick, una portavoz de Facebook en Nueva Zelanda a través de un comunicado. "Estamos quitando también cualquier comentario que halague o apoye este crimen, al pistolero o a los pistoleros tan pronto nos damos cuenta".

Las gigantes de tecnología como Facebook y Google tienen tecnologías automáticas que se encargan de quitar videos violentos y que han funcionado con éxito en el pasado. 

En 2016, el diario The Guardian reportó que Facebook y Google usaron algoritmos similares a Content ID para quitar automáticamente videos relacionados a ISIS. Esta tecnología busca videos que ya se han subido y que han sido señalados por quebrantar las reglas de las plataformas. Luego, bloquea los videos sin necesidad de que una persona los revise. 

Facebook utiliza herramientas similares para bloquear contenido de porno de venganza en su sitio, según dijo la empresa en 2017. 

El pistolero en Nueva Zelanda promovió su transmisión en vivo y su manifiesto en su cuenta de Facebook como también en 8Chan, un foro de mensajes, en un intento por que su crimen se hiciera viral. 

En su manifiesto, el pistolero hizo referencias a Fortnite, al youtuber PewDiePie y al videojuego Spyro the Dragon para captar más atención a su crimen.

A medida que los videos del tiroteo siguen emergiendo, los expertos están preocupados de que el video sirva de inspiración para otro potencial atentado. 

"Este es uno de los lados oscuros de las redes sociales, y algo que es casi imposible de evitar por parte de las empresas. No podrán bloquear este material en tiempo real", dijo Paul Barrett, del Centro Stern para los Negocios y Derechos Humanos de la New York University. "Es un problema que se presenta ante los peligros que pueden facilitar las redes sociales".

Tom Watson, el subdirector del Partido Laborista de Nueva Zelanda, también criticó a las plataformas tecnológicas por tener problemas para evitar que se disemine el video. En un comunicado, Watson dijo que le escribiría a las empresas de redes sociales para preguntarles por qué fallaron en la extracción de los videos. 

Watson dijo en un tuit que YouTube debió haber suspendido todas las subidas de videos hasta que pudieran evitar que se diseminara el video del tiroteo. 

"El no poder lidiar con esto de una manera rápida y decisiva representa la completa abdicación de responsabilidad por parte de las empresas de redes sociales", dijo Watson. "Esto ha pasado demasiadas veces. El no eliminar estos videos inmediatamente y prevenir que otros los suban es un fracaso".