CNET también está disponible en español.

Ir a español

Don't show this again

Los Oscar 2020: Predicciones y deseos El iPad cumple diez años Cómo revisar el estatus de tu reembolso de impuestos Tus dispositivos sexuales podrían espiarte Lo que trae Huawei para MWC 2020 Huawei EMUI 10 vs. Android 10

Facebook prohibirá los deepfakes previo a las elecciones de 2020: reporte

La disposición, sin embargo, no afectaría a cualquier video manipulado, según el Washington Post.

Facebook logo is seen on an Android mobile device with USA

Facebook comienza a tomar medidas contra la información falsa antes de las próximas elecciones de Estados Unidos.

Omar Marques/SOPA Images/LightRocket via Getty Images

Facebook, al parecer, quiere introducir nuevas políticas para luchar contra los deepfakes.

De acuerdo con un reporte del Washington Post publicado el 6 de enero, la compañía de Mark Zuckerberg piensa prohibir a los usuarios publicar deepfakes, con la intención de detener la propagación de información falsa en la plataforma de cara a las elecciones de 2020 en Estados Unidos. 

Sin embargo, según el periódico, no todos los videos manipulados serán eliminados de la red social. La medida solo afectará a los deepfakes, mientras que otro tipo de videos falsos, como el del año pasado donde la presidenta de la Cámara de Representantes, Nancy Pelosi, sale aparentemente borracha en una intervención pública, podrían seguir circulando en la red social.

Facebook ha dado a conocer estos cambios en sus políticas mediante una publicación en su blog en el que Monika Bickert, vicepresidenta de gestión de políticas globales de la empresa, dice que prohibirán los videos que son "editados o sintetizados por técnicas como la IA que no son fáciles de identificar como falsos" y remarca que, efectivamente, las nuevas políticas no se extenderán a los videos editados hechos como sátira o parodia, o videos que hayan sido editados únicamente para omitir o cambiar el orden de las palabras. 

Aunque la compañía no menciona que estas nuevas medidas se hayan tomado de cara a las próximas elecciones, llegan en un momento clave para detener de alguna manera el contenido engañoso y falso que pueda afectar el proceso electroal. CNET en Español envió a Facebook una solicitud de comentarios adicionales.

Facebook se unió en 2019 a Microsoft y algunas universidades —como Oxford, UC Berkeley o Maryland—, para crear la organización Deepfake Detection Challenge (DFDC), la cual tiene como objetivo generar sus propios deepfakes para entrenar a los sistemas de inteligencia artificial y que puedan detectarlos y combatir este tipo de videos manipulados. Amazon anunció el 21 de octubre que también se unió a la DFDC, mientras que otras redes sociales, como Twitter, anunciaron también recientemente nuevas medidas contra este tipo de contenido engañoso.

Reproduciendo: Mira esto: Los pasos clave para usar el app de mensajería Threads...
3:04