CNET también está disponible en español.

Ir a español

Don't show this again

Industria de la tecnología

Rosetta AI: El sistema de Facebook que ayuda a detectar discursos de odio

Debería ser útil ahora que la red social se enfrenta a un mayor escrutinio sobre la moderación de contenido.

facebook-f8-2017-0149.jpg

El presidente ejecutivo de Facebook, Mark Zuckerberg, dice que la inteligencia artificial jugará una gran parte en la limpieza de la red social de discursos de odio.

James Martin/CNET

Facebook dice que tiene una nueva arma para combatir el discurso de odio.

La red social anunció el martes un nuevo sistema de inteligencia artificial, con el nombre en código "Rosetta", que busca ayudar a sus computadoras a leer y comprender los miles de millones de imágenes y videos publicados en la red social todos los días. Con el nuevo sistema, Facebook podría detectar más fácilmente qué contenido quebranta sus reglas de odio.

Normalmente, las computadoras usan un método llamado Reconocimiento Óptico de Caracteres (OCR, por sus siglas en inglés) para decir qué hay en imágenes o videos, pero debido a las cifras masivas que se manejan en Facebook (hay 2,200 millones de personas que usan la red social cada mes); OCR tiene sus deficiencias. Así que Facebook dijo que construyó un sistema para funcionar a mayor escala.

El sistema, que se usa tanto en Facebook como en Instagram, también se puede usar para mejorar la búsqueda de fotos y el contenido del news feed. Rosetta funciona extrayendo texto en diferentes idiomas de más de 1,000 millones de imágenes y cuadros de video en tiempo real.

Eso seguramente será útil, ahora que Facebook lidia con el escrutinio sobre el contenido en su red social. Facebook ha sido acusado de ayudar a estimular la violencia en Myanmar, Sri Lanka y en la India. El mes pasado, la red social dijo que estaba tomando medidas para detener la "propagación del odio" en Myanmar debido a la desinformación publicada en Facebook. La red social dijo que se eliminaron 18 cuentas y 52 páginas asociadas con el ejército de Myanmar debido a la violencia étnica en curso contra los musulmanes Rohingya.

En julio, Facebook dijo que comenzará a eliminar la desinformación que pretende provocar o exacerbar la violencia. Eso incluye publicaciones escritas e imágenes manipuladas. Previamente, Facebook prohibió sólo el contenido que llamaba directamente a la violencia. Pero la nueva política ahora cubre las llamadas noticias falsas que tienen el potencial de provocar daños físicos.

La semana pasada, la directora general de Facebook, Sheryl Sandberg, junto con el presidente ejecutivo de Twitter, Jack Dorsey, se enfrentaron a un interrogatorio del Congreso sobre sus políticas de moderación de contenido y prácticas de seguridad para proteger a los usuarios.

El presidente ejecutivo de Facebook, Mark Zuckerberg, ha dicho a menudo que la compañía está buscando inteligencia artificial para tratar de limpiar Facebook, que detectará proactivamente contenido objetable en lugar de esperar a que la gente lo marque. Pero mientras la compañía desarrolla esa tecnología, dijo que la red social está contratando 20,000 moderadores humanos para vigilar la plataforma en busca de material dañino.

Reproduciendo: Mira esto: Lo más notable del testimonio de Zuckerberg ante el Congreso...
13:00

Por otra parte, Facebook el martes también dijo que estaba agregando nuevos idiomas a su conjunto de herramientas de traducción automática. La red social agregó 24 nuevos idiomas, que ahora se traducen en más de 125 idiomas, incluidos hausa, urdu y nepalí.