CNET también está disponible en español.

Ir a español

Don't show this again

Medios digitales

En asuntos de vida o muerte, ¿cómo debería decidir Facebook lo que puedes ver?

Transmisiones de tiroteos en vivo como los de Minnesota y Dallas han generado dudas sobre la responsabilidad de la red social.

Stephen Maturen, Getty Images

La semana pasada llevó una realidad horripilante a tu news feed.

Durante 10 minutos el pasado miércoles, Facebook Live llevó a millones de usuarios al lado de Philando Castile después de que fue abatido a tiros por un oficial de policía de Minnesota durante una inspección de tráfico. Su novia, Diamond Reynolds, transmitió en vivo lo que ocurrió después del tiroteo, dejando ver a los usuarios cómo un ensangrentado Castile se desplomaba en su asiento. Vieron cómo respiraba lentamente. Pudieron escuchar a la hija de Reynolds, de 4 años de edad, quien presenció el tiroteo, cuando intentaba reconfortar a su madre luego de que ésta gritara y comenzara a llorar.

Facebook Live capturó otra escena mortal al día siguiente en Dallas. Michael Kevin Bautista transmitió en vivo un video en el que agentes de policía se agazapaban mientras uno o más francotiradores les disparaban en medio de una marcha pacífica en contra de la violencia policial.

Diamond Reynolds live-streamed Philando Castile moments after he was shot by a Minnesota police officer.

Diamond Reynolds transmitió en vivo un video de Philando Castile momentos después de que fuera abatido a tiros por un agente de policía de Minnesota.

STF/AFP/Getty Images

Tanto el video de Castile como el de Dallas fueron transmitidos inicialmente sin editar y sin censura. El video de Castile desapareció temporalmente de la red social por una "falla técnica", de acuerdo con Facebook. Fue restaurado después con una advertencia sobre su contenido gráfico. El video de Bautista fue visto más de 3 millones de veces en el transcurso de 10 hora antes de que Facebook agregara la misma advertencia. Tales advertencias evitan que los videos se reproduzcan automáticamente y precisan que los usuarios den su aprobación para verlo.

El tratamiento de Facebook de estas transmisiones resalta su dilema al tiempo que transmite cada vez más noticias -- con frecuencia generadas por usuarios como Reynolds y Bautista -- a sus 1,100 millones de usuarios. Facebook da prioridad a los videos en vivo en tu newsfeed pero no tiene que revelar transparencia editorial como lo haría un medio de comunicación tradicional.

Lo que fuera que estuviera detrás de la eliminación y restauración del video de Reynolds, "esas fueron decisiones editoriales", dijo Emily Bell, profesora de la facultad de posgrado de periodismo de la Universidad de Columbia y directora fundadora del Tow Center for Digital Journalism. "Si fue hecho de forma automática o manual, eso no importa".

"Esta responsabilidad se le va a otorgar a Facebook independientemente de que la quieran, la pidan o no", dijo.

Casi la mitad de los adultos en EE.UU. obtienen noticias vía Facebook, de acuerdo con un estudio del Pew Research Center realizado este año. En 2013, 47 por ciento de todos los usuarios de EE.UU. dijeron que recibían noticias en Facebook; este año, fue el 66 por ciento.

A pesar del creciente impacto, la gente está "profundamente confundida sobre si el orden de algoritmos o sistemas humanos están facilitando lo que ven", dijo Bell.

Apertura

Esa confusión se convirtió en polémica en mayo. Trabajadores relacionados con la influyente sección de Facebook "Trending Topics" ("temas de tendencia") fueron, según reportes, instruidos para que dieran menos importancia a publicaciones conservadoras. Los reportes hicieron volar por los aires la presunción de que dicha lista de temas estaba ordenada puramente mediante la lectura de datos. Las oscuras políticas de Facebook respecto a los Trending Topics -- haciendo que, por ejemplo, los trabajadores firmen acuerdos de confidencialidad -- hicieron a algunos sospechar que la compañía tenía algo que ocultar.

"Si de verdad van a comenzar a tener más noticias, van a tener que enfrentarse a la pregunta sobre si necesitan tener más influencia en el proceso editorial", dijo Karen North, profesora de la escuela de periodismo Annenberg de la Universidad del Sur de California y directora de su programa digital de redes sociales.

Snapchat, por ejemplo, tiene una división de noticias comandada por un antiguo reportero de política de CNN que monitoriza los posts de los usuarios en colecciones de "Historias en vivo". Estas se enfocan en un evento noticioso, como la campaña presidencial o el tiroteo en Orlando, Florida, Facebook no tiene algo similar, dijo North.

Facebook declinó dar más información sobre la falla que causó la eliminación del video de Reynolds. Cuando se le preguntó cómo aplica la compañía el juicio editorial, una vocera pidió referirse a sus estándares comunitarios sobre contenido gráfico y violento. La compañía no monitoriza de manera activa posts que puedan violar las reglas, dijo. Más bien, se apoya en los usuarios que llamen la atención sobre algún post específico, que entonces es revisado por personal entrenado en las políticas de Facebook. El personal decidirá si agregan un mensaje de advertencia sobre contenido gráfico que, por lo demás, cumple con los estándares de Facebook.

Minneapolis NAACP President Nekima Levy-Pounds leads a chant of "Hands up, don't shoot" outside the Minnesota governor's mansion one day after Philando Castile's death.

La presidenta de NAACP en Minneapolis, Nekima Levy-Pounds, dirige un cántico de "Manos arriba, no dispare" afuera de la mansión del gobernador de Minnesota un día después de la muerte de Philando Castile.

Stephen Maturen/Getty Images

Las pautas de Facebook indican que es responsable de juzgar el contenido. "Eliminamos imágenes gráficas cuando son compartidas por placer sádico o para celebrar o glorificar la violencia", establecen las reglas.

Sin proteger de manera explícita el contenido que sirva al interés público, las pautas definen a Facebook como un lugar para compartir experiencias y crear conciencia. Hacen notar que descripciones de violencia, como abusos de derechos humanos o actos de terrorismo, pueden ser compartidos como una manera de repudiarlos.

El viernes Facebook explicó cómo sus Estándares Comunitarios aplican para Facebook Live. La compañía dijo que tiene un equipo disponible las 24 horas del día para revisar videos que sean reportados. También dio un ejemplo de cómo funcionan los estándares.

"Una de las situaciones más delicadas involucran a gente que comparte imágenes violentas o gráficas de eventos que tienen lugar en el mundo real", escribió la compañía. "En dichas situaciones, contexto y grado lo son todo. Por ejemplo, si una persona fue testigo de un tiroteo, y utilizó Facebook Live para crear conciencia o encontrar al responsable, lo permitiríamos. Sin embargo, si alguien compartió el mismo video para burlarse de la víctima o celebrar el tiroteo, lo eliminaríamos".

La llegada del video en vivo a la red social recuerda el cambio que hubo en las noticias de TV en los sesentas, cuando los estadounidenses comenzaron a ver por primera vez vívidas imágenes de soldados luchando en Vietnam y disturbios en las calles en el país. Así como esas imágenes ofrecieron una visión cercana de los horrores de la guerra y los conflictos raciales de entonces, los videos de esta semana muestran la violenta tensión racial en EE.UU. Facebook ahora los transmite en vivo a una audiencia global en una escala sin precedentes.

El presidente ejecutivo y cofundador de Facebook, Mark Zuckerberg, ha sido muy abierto sobre la necesidad de ofrecer historias como la de Castile.

"Si bien espero que nunca tengamos que ver otro video como el de Diamond, nos recuerda por qué es tan importante unirnos para construir un mundo más abierto y conectado, y todo lo que aún nos falta por hacer", dijo la tarde del jueves en un comentario en Facebook.

La compañía eventualmente tendrá que decidir si su dedicación a la apertura se extiende a sus propias políticas editoriales.