CNET también está disponible en español.

Ir a español

Don't show this again

Industria de la tecnología

Congresistas de Estados Unidos piden claridad en actos contra terrorismo a redes sociales

En una carta previa dirigida a estos congresistas, Google aseguró que cada trimestre elimina entre 7 millones y 9 millones de videos que quebrantan sus reglas e invierte millones de dólares en ello.

gdc-2019-google-cloud-gaming-video-games-0065
James Martin/CNET

Algunos miembros de la Cámara de Representantes de Estados Unidos emitieron un comunicado el 2 de mayo diciendo que las compañías de redes sociales deben transparentar sus acciones en contra del terrorismo en sus plataformas.

El comunicado, firmado por Bennie G. Thompson, presidente del Comité de Seguridad Nacional, y Max Rose, presidente del subcomité de Inteligencia y Contraterrorismo, se da luego de que se solicitaran, mediante una carta enviada el 10 de abril a los presidentes ejecutivos de Google, Facebook, Twitter y Microsoft, la información de la cantidad de recursos —en dinero y personal— que dichas empresas dedican a estos esfuerzos. La fecha límite que fijaron los representantes para responder fue el 24 de abril.

De las cuatro compañías que recibieron la carta, solo contestaron Google y Twitter. Los congresistas, no contentos con las respuestas —y la falta de ellas—, emitieron el comunicado del 2 de mayo junto con las dos cartas de respuesta.

"El hecho de que algunas de las corporaciones más grandes del mundo no puedan decirnos qué están haciendo específicamente para detener el contenido terrorista y extremista es inaceptable", decía el comunicado

"Como vimos en Nueva Zelanda, Facebook falló y lo admitió. Al ser estas plataformas cada vez más ubicuas, las compañías tienen la obligación con los estadounidenses de garantizar y demostrar que están haciendo todo lo posible para detener la propagación de este contenido vil".

Google no divulgó la cantidad exacta de dinero que dedica a eliminar videos de YouTube, pero en la respuesta que había dado a los congresistas el pasado 24 de abril, aseguró que "gastan cientos de millones anualmente y tienen más de 10,000 personas trabajando en Google por todo el mundo para contrarrestar el tipo de contenido que pudiese violar su política".

El gigante de Mountain View agregó que YouTube manualmente revisó, durante los primeros tres meses de 2019, más de 1 millón de videos sospechosos de ser de terroristas y que solo 90,000 quebrantaron sus normas. Cada trimestre, los algoritmos de inteligencia artificial de Google remueven entre 7 millones y 9 millones y en el 88 por ciento de los casos, menos de 10 personas llegaron a ver el video. 

Por su parte, Twitter dijo que en casi tres años —de agosto de 2015 a junio de 2018— eliminaron 1.4 millones de cuentas por promover el terrorismo. El 91 por ciento de los casos más recientes, entre enero y junio de 2018, fueron encontrados por las herramientas computacionales de la empresa. 

Twitter dijo que para finales del primer trimestre de 2019, una porción sustantiva de su plantilla laboral de 4,100 empleados trabajaba directamente en la revisión y moderación de contenido en Twitter. 

Twitter contestó en su carta del 24 de abril que en temas de dinero, "poner una cifra monetaria a nuestros amplios esfuerzos es una petición compleja". 

Aunque Facebook no contestó a los representantes del gobierno, durante su conferencia para desarrolladores F8 esta semana, compartió que desde 2017 la inteligencia artificial ha sido responsable de la eliminación automática de más del 50 por ciento del contenido que quebranta sus términos de uso. Además, contrataron personal de 45 compañías especializadas para revisar contenido en 24 idiomas.

"No hay una respuesta simple, pero sí tenemos mucho trabajo por delante", dijo en su discurso Mike Schroepfer, el director de tecnología de Facebook.

Reproduciendo: Mira esto: Facebook anuncia su plan para un futuro enfocado en la...
9:07