CNET también está disponible en español.

Ir a español

Don't show this again

guía de compras navideñas
Móvil

Cómo usa Apple la inteligencia artificial para que Siri suene más humana

Trabajos de investigación publicados por Apple detallan la tecnología de aprendizaje de máquina de la compañía. Además: Apple audicionó a cientos de candidatos para la nueva voz de Siri.

New features coming to Siri in iOS 11.

Nuevas funciones llegan a Siri en iOS 11.

James Martin/CNET

Recuerdo a mi compañero de cuarto, en 1986, laboriosamente encadenando fonemas con el software Macintalk de Apple para que su Mac pronunciara unas cuantas frases. Era pionero en ese momento. ¿Alguien más recuerda las bromas de Talking Moose?

Pero las cosas han mejorado mucho desde entonces. Al publicar una nueva ronda de artículos sobre su nueva revista de aprendizaje automático, Apple mostró cómo su tecnología de inteligencia artificial (AI, por sus siglas en inglés) ha mejorado la voz de su asistente digital Siri. Para saber cómo ha mejorado la voz de iOS 9 a iOS 11, mira las muestras al final del documento.

Está claro que nos gustará más iOS 11. "Las nuevas voces fueron claramente mejor comparadas con las viejas", dijo el equipo de Siri de Apple en el documento.

Apple es famosa por ser muy discreta (aunque abundan los rumores sobre el futuro iPhone), pero con el aprendizaje de máquinas, está dejando que sus ingenieros muestren lo que hay tras bambalinas. Hay un montón de barreras para copiar la tecnología -- patentes, pericia -- pero los documentos de Apple en su investigación podrían ayudar a la industria de la tecnología a avanzar en este arte más rápido.

Facebook, Google, Microsoft y otros líderes de AI ya comparten mucho de su propio trabajo, algo que puede ayudar a motivar a ingenieros e investigadores ansiosos de reconocimiento.

Siri sonará muy distinta cuando el nuevo software de Apple para el iPhone y el iPad llegue en unas cuantas semanas.

In iOS 11, Apple's Siri digital assistant uses multiple layers of processing with technology called a neural network to understand what humans say and to get iPhones to speak in a more natural voice.

En iOS 11, Siri usa múltiples niveles de procesamiento con una tecnología llamada redes neuronales para ayudar a entender lo que dicen los humanos y hacer que los iPhone hablen con una voz más natural.

Captura de pantalla por Stephen Shankland/CNET

"Para iOS 11, elegimos un nuevo talento vocal femenino con el objetivo de mejorar la naturalidad, personalidad y expresividad de la voz de Siri", dijo Apple. "Evaluamos a cientos de candidatos antes de elegir el mejor. Luego, grabamos más de 20 horas de voz y construimos una nueva voz TTS [texto a voz] utilizando la nueva tecnología de TTS basada en el aprendizaje profundo".

Al igual que sus competidores más grandes, Apple utiliza la tecnología de rápida evolución llamada aprendizaje de máquina para hacer sus dispositivos de computación más capaces de entender lo que los seres humanos quieren y más capaces de suministrar de una forma que los seres humanos pueden entender. 

Una gran parte del aprendizaje de máquina en estos días es la llamada tecnología de redes neuronales que son entrenadas con datos del mundo real — miles de fotos etiquetadas, por ejemplo, para construir una comprensión innata de cómo luce un gato. Y son estas redes neuronales las que están detrás de la nueva voz de Siri.