Facebook es el rey renuente de las noticias

Facebook dice que es una empresa de tecnología, no de medios. Pero conforme sigue creciendo, también lo hace su poder mediático, y eso le está acarreando conflictos.

Claudia Cruz/CNET

Este es el primero de una serie de dos reportajes sobre las complicaciones del singular impacto de Facebook en los medios de comunicación.

El poder mediático de Facebook es titánico. Lo único que se puede comparar con esa influencia es la insistencia de la compañía para negar que éste existe.

Las elecciones presidenciales en EE.UU. cristalizaron su importancia. Existe una infinidad de razones detrás de las decisiones que tomaron millones de personas a la hora de votar, y la red social más grande del mundo dice que su papel se está exagerando.

"La idea de que las noticias falsas en Facebook, las cuales suponen una muy pequeña parte del contenido, influyeron en la elección en cualquier forma, creo que es bastante absurda", dijo Mark Zuckerberg el mes pasado. Desde entonces ha moderado sus comentarios, pero la directora general de operaciones, Sheryl Sandberg, esta semana reiteró que Facebook no influyó en los comicios.

Los dolores de cabeza mediáticos de Facebook no comienzan ni terminan con las noticias falsas: con 1,800 millones de visitantes mensuales, Facebook es un coloso en el que se comparte contenido mediático. Pero a diferencia del gigante de búsquedas Google y otras grandes redes como Twitter, Facebook ejerce más control sobre lo que ves. Los algoritmos de su News Feed son realmente, realmente buenos a la hora de hacerte consumir contenido tras contenido hasta colocarte en un cómodo aislamiento. Las elecciones expusieron cómo nuestras propias madrigueras en Facebook -- con sus cámaras de resonancia, noticias falsas y puntos de entrada a comportamientos abusivos -- tal vez no sean los lugares más seguros donde habitar.

f8-facebook-mark-zuckerberg-0094.jpg

Mark Zuckerberg es uno de los ejecutivos de Facebook que han afirmado que es una firma tecnológica, no una empresa de medios.

James Martin/CNET

Conforme se ha vuelto más grande, más ha batallado Facebook con los retos que normalmente enfrentan los medios de comunicación y las organizaciones noticiosas. Incluso conforme Facebook se ha convertido en la arena principal para criticar a los medios y realizar debates públicos, como los videos en vivo publicados en julio que atizaron aun más el movimiento Black Lives Matter (las vidas negras importan), la compañía ha seguido insistiendo que es una plataforma tecnológica, no una compañía de medios.

El problema es que para los usuarios de Facebook tal vez esa distinción no sea tan clara.

"La mayoría de la gente no diferencia", dijo Rachel Davis Mersey, profesora asociada de la Universidad Northwestern, quien se especializa en la recepción de la audiencia ante las noticias. "Los consumidores ven a Facebook como una compañía de medios".

Facebook declinó hacer comentarios para este reportaje.

Noticias falsas

El Papa Francisco ha dado su apoyo a Donald Trump. Un agente del FBI que investiga a Hillary Clinton se quita la vida en un caso de asesinato-suicidio. Un hombre recibe un pago de US$3,500 por manifestarse contra un mitin a favor de Trump.

Todas estas noticias son inventadas; son "noticias falsas". También tienen un impacto en la mente de los usuarios de Facebook mayor que las noticias verdaderas. No obstante, cuando la gente se queja de que Facebook está faltando a sus obligaciones como difusora de noticias, sólo están viendo una parte de la realidad.

Facebook es una fuente principal de noticias, y una que está creciendo. Casi la mitad de los adultos en EE.UU. recibe noticias a través de Facebook, de acuerdo con un estudio realizado este año por el Pew Research Center. En 2013, 47 por ciento de todos los usuarios de Facebook en EE.UU. dijo que obtenía noticias por Facebook; este año, la cifra alcanzó el 66 por ciento.

Pero criticar el juicio noticioso de Facebook normalmente somete a la compañía a los estándares editoriales de una era distinta, como tratar de colocar herraduras a las ruedas de un carro.

"Tus amigos tienen derecho a adornar detalles y mentir sobre sus propias vidas", dijo Karen North, profesora de redes sociales digitales en la Escuela de Comunicación y Periodismo Annenberg de USC. "¿Qué pasaría si Facebook dijera que todo lo que se publica ahí tuviera que ser verdad? No quedaría nada".

Por lo que toca a las noticias, Facebook parece estar enfangado en un escenario en que pierde de todas, todas. La estrategia de no intervenir permite que la manipulación informativa florezca, especialmente debido a que los reportes falsos tienden a llevarse bien con los algoritmos del News Feed. Facebook configura esta lista de noticias de manera que dé prioridad a las publicaciones de tus propios amigos y a las historias que tienen más posibilidades de engancharte, ya sea dando "me gusta", compartiendo, haciendo clic en ellas y demás. Esos artículos son los que más probablemente reafirmarán tu punto de vista actual.

El 'News Feed' de Facebook da prioridad a las publicaciones de tus amigos y aquellas que tienen más posibilidades de engancharte.

Jason Cipriani/CNET

"Nos encanta encontrar evidencia que apoye las opiniones que ya tenemos", dijo North.

Pero cuando la compañía intentó intervenir terminó metiéndose en problemas. Facebook enfrentó duras protestas en mayo luego de que se publicara un reporte que indicaba que el equipo editorial encargado de gestionar su sección de "temas tendencia", conocidos en inglés como trending topics, había sido instruido para suprimir fuentes de noticias conservadoras.

Facebook negó dichos alegatos, pero modificó sus temas tendencia para que estuvieran más basados en un software y organizó una reunión para apaciguar líderes de la prensa conservadora.

Eliminaciones

Las críticas sobre las fallas mediáticas de Facebook no se limitaron a las noticias. Como un foro en el que se publican todo tipo de contenidos, Facebook recibió críticas por inmiscuirse en temas sensibles al eliminar contenidos que merecían ser vistos.

Cuando Illma Gore pintó un retrato desnudo de Trump con un pene diminuto, la publicación de su trabajo se volvió viral en Facebook. Alguien, presuntamente un crítico, llenó lo que se conoce como solicitud de eliminación DMCA, acusándola de publicar ilegalmente contenido que le pertenece a alguien más.

Como creadora y propietaria de la pintura, ella es dueña de los derechos de autor. Pese a ello, la solicitud llevó a Facebook a eliminar su publicación y vetarla temporalmente del sitio. Eso impidió su acceso a la red en donde la mayor parte de la discusión sobre ella estaba teniendo lugar.

"Sentí como si no pudiera hablar", dijo ella.

gettyimages-519980252-1.jpg

El retrato de Trump de la artista radicada en Los Angeles Illma Gore se volvió viral en Facebook.

Niklas Halle'n/AFP/Getty Images

Como compañía, Facebook no está obligada legalmente a proteger la libertad de expresión de nadie, pero sus estándares comunitarios dicen que el sitio debería "dar a la gente el poder para compartir y hacer el mundo más abierto y conectado". Las quejas por derechos de autor ofrecen una herramienta mediante la cual las publicaciones pueden ser eliminadas casi inmediatamente con muy poco análisis, de acuerdo con Corynne McSherry, directora legal de la Electronic Frontier Foundation, una organización sin ánimo de lucro dedicada a las libertades civiles digitales.

Abusar de las eliminaciones por derechos de autor puede ser significativo. WordPress, un servicio online que permite a cualquier persona establecer y publicar un blog, rechazó el 9 por ciento de sus solicitudes de eliminación por ser abusivas en el más reciente periodo de seis meses.

Facebook no ofrece datos sobre eliminaciones, pero presume de que su audiencia mensual es cuatro veces el tamaño de la de WordPress.

Confusión

Las eliminaciones no se limitan a violaciones de derechos de autor. Facebook también elimina contenido y veta a usuarios por otras violaciones a sus estándares comunitarios, algunas veces provocando protestas de censura.

Ese fue el caso de Tom Egeland, cuando el escritor noruego publicó en agosto una emblemática foto de la guerra de Vietnam War. Facebook eliminó la imagen que mostraba a una niña vietnamita huyendo desnuda de una población incendiada con napalm, aduciendo desnudez infantil.

gettyimages-166538547.jpg

Phan Thi Kim Phuc fue fotografiada de niña durante la guerra de Vietnam en la foto ganadora del premio Pulitzer proyectada al fondo.

Jiji Press/AFP/Getty Images

Otros publicaron la foto en solidaridad, incluyendo el primer ministro de Noruega, pero se encontraron con que la imagen era eliminada una vez más y, en algunos casos, su cuenta vetada también. Facebook eventualmente reconoció que una fotografía históricamente determinante no es lo mismo que pornografía infantil, y restauró algunas de las publicaciones (pero no la de Egeland).

"El principal problema y reto de Facebook es separar las faltas válidas a sus estándares comunitarios -- como la pornografía -- de una publicación que no debería ser eliminada", dijo Egeland en una entrevista vía correo electrónico. "El segundo problema de Facebook es que nadie te escucha".

McSherry de la EFF dijo que Egeland no está solo en su frustración. Su organización ha notado dos problemas recurrentes en los estándares comunitarios de Facebook. Uno es la falta de claridad acerca de cómo se aplican los estándares. La otra es cómo recurrir.

"Lo escuchamos una y otra vez, la gente no sabe cómo apelar... Puede tomar días o semanas para hacer que cualquier persona pueda volver y decir: 'espera un minuto; ¿cometimos un error?'" dijo ella. "Tener una compañía con tanto poder para decidir qué es indecente y qué no lo es, es problemático".

La segunda parte de esta serie abordará las soluciones que Facebook podría explorar.

Close
Drag