CNET también está disponible en español.

Ir a español

Don't show this again

Software

Aún hay tiempo para evitar que una IA sesgada se apodere del mundo

Los sistemas autónomos podrían llegar a requerir una regulación, pero los expertos dicen que una sola política podrá gobernar la inteligencia artificial.

Getty Images

La inteligencia artificial (IA) está en todas partes. Mapas móviles nos guían a través del tráfico, los algoritmos pueden ya pilotear automóviles, asistentes virtuales nos ayudan en la casa y oficina, y código inteligente se especializa en descubrir nuestra próxima canción favorita.

Sin embargo, la IA también puede ser peligrosa. Elon Musk, presidente ejecutivo de Tesla, alguna vez advirtió que una inteligencia artificial sesgada, sin supervisión y no regulada podría ser "el mayor riesgo que enfrentamos como civilización". En cambio, los expertos en AI están preocupados de que los sistemas automatizados podrían absorber sesgos de sus programadores humanos. Y cuando el sesgo está en el código para los algoritmos que potencial la inteligencia artificial es casi imposible de remover.

Ejemplos de sesgos en hay muchos: En julio de 2015 el sistema de AI de Google Photos etiquetó gente de raza negra como gorilas; en marzo de 2018, CNET reportó que los dispositivos inteligentes de Amazon y Google tenían cierto problema entendiendo diferentes acentos; en octubre de 2018, Amazon sacó sin querer una herramienta de AI para reclutamiento laboral que al parecer discriminaba a mujeres; en mayo de 2019 un reporte de la UNESCO descubrió que los asistentes digitales pueden perpetuar dañinos estereotipos de género.

Para entender mejor cómo puede ser gobernada la IA, y cómo prevenir que el sesgo humano altere los sistemas automatizados de lso que dependemos a diario, CNET habló con los expertos en AI de la compañía Salesforce, Kathy Baxter y Richard Socher, en San Francisco. Regular la tecnología puede ser retador y el proceso necesitará tener matices, dijo Baxter.

La industria está trabajando para desarrollar "una IA confiable, que sea responsable, que sea consciente y salvaguarde los derechos humanos", agregó Baxter. "Que nos aseguremos de que el proceso no viole esos derechos humanos. También necesita ser transparente. Debe ser capaz de explicar al usuario final que está haciendo y darle la oportunidad de tomar decisiones informadas".

Salesforce y otras empresas de tecnología, agregó Baxter, están desarrollando orientación entre industrias bajo el criterio de uso de información en modelos de AI de datos. "Mostraremos los factores que son utilizados en un modelo como edad, raza, género. Y vamos a hacer notar si estás usando alguno de esas categorías protegidas de información".

Reproduciendo: Mira esto: Huawei sigue en problemas, y llega la invitación de Apple...
7:57