CNET también está disponible en español.

Ir a español

Don't show this again

Industria de la tecnología

Así usa Facebook la inteligencia artificial para eliminar contenido abusivo

Mark Zuckerberg dice que la inteligencia artificial será la clave para erradicar el contenido abusivo de la red social. Durante la conferencia F8, la red social muestra por vez primera cómo utiliza esta tecnología.

A 'like' sign stands at the entrance of Facebook headquarters on May 18, 2012 in Menlo Park, Calif

Getty

El presidente ejecutivo de Facebook, Mark Zuckerberg, hizo a muchos reír incómodamente cuando utilizó una palabra inesperada durante su llamada con inversionistas: pezón.

"Es mucho más fácil crear un sistema de inteligencia artificial que pueda detectar un pezón que uno que detecte el discurso del odio", dijo cuando se le preguntó sobre el contenido inapropiado presente en la red social más grande del mundo. 

Su comentario desató una serie de bromas, pero Zuckerberg estaba tratando un tema serio. El abuso en Facebook se manifiesta de distintas formas, desde desnudos hasta insultos racistas, fraudes y anuncios de venta de drogas. Y deshacerse de todo este contenido no tiene una solución sencilla. Cuando Zuckerberg habla de eliminar el contenido inapropiado de Facebook, siempre menciona dos cosas: 

  1. Facebook contratará a 20,000 moderadores de contenido para el final de este año para encontrar y revisar contenido inapropiado. 
  2. La empresa está invirtiendo en herramientas de inteligencia artificial para detectar contenido abusivo y eliminarlos. 

Durante la conferencia para desarrolladores F8 en San José, California, Facebook reveló por primera vez cómo la red social utiliza sus herramientas de inteligencia artificial para moderar el contenido. Las herramientas de inteligencia artificial ayudan en siete áreas: desnudos, violencia gráfica, contenido terrorista, discurso del odio, spam, cuentas falsas y prevención de suicidios. 

Para contenido como desnudos y violencia gráfica, la tecnología utilizada para detectarlo se conoce como visión computacional, que es software que está entrenado para señalar contenido debido a ciertos elementos presentes en una imagen. A veces esta clase de contenido se elimina, y a veces se le pone una pantalla de advertencia. 

Pero algo como el discurso de odio es más difícil de monitorizar solamente con inteligencia artificial porque con frecuencia las intenciones de es lenguaje varían. Puede ser sarcástico y autorrefencial, o quizá intente crear conciencia de la existencia del discurso de odio. También es más difícil detectar discurso de odio en lenguajes que no son muy hablados, porque el software cuenta con menos ejemplos en los cuales basarse.

"Tenemos mucho trabajo frente a nosotros", dijo en una entrevista la semana pasada Guy Rosen, vicepresidente de gestión de producto. "La meta es llegar a esta clase de contenido antes de que alguien lo vea".

Lo que no se detecta

Facebook está dando a conocer más sobre sus herramientas de inteligencia artificial después de que la red social fue duramente criticada por el escándalo Cambridge Analytica. El escándalo también ha despertado dudas sobre las políticas de Facebook, como cuál es su responsabilidad en cuanto a revisar el contenido publicado en su plataforma. 

La semana pasada, Facebook publicó los preceptos que sus moderadores de contenido siguen para gestionar y examinar contenido inapropiado. 

Pero aun con miles de moderadores y herramientas de inteligencia artificial a su disposición, Facebook no puede detectar todo el contenido inapropiado presente en su plataforma. Por ejemplo, la inteligencia artificial de Facebook se utiliza para detectar cuentas falsas, pero los bots y los tramposos siguen pululando en la plataforma. El diario The New York Times reportó la semana pasada que cuentas falsas que pretendían ser Zuckerberg y Sheryl Sandberg, la directora de operaciones de Facebook, se estaban utilizando para extorsionarle dinero de la gente. 

Y cuando Zuckerberg compareció ante el Congreso de Estados Unidos, los legisladores le preguntaron constantemente sobre el proceso de toma de decisiones en la monitorización de contenido. Zuckerberg trató de convencer a los legisladores de que Facebook tiene el control y el proceso para lidiar con esta clase de problemas. 

"La combinación de crear inteligencia artificial y contratar a miles de personas para resolver estos problemas será lo que nos hará avanzar significativamente", dijo Zuckerberg. "Estos no son problemas que no tienen solución".