Alexa, Siri y Google Assistant entenderán a personas con tartamudeo o disartria: los asistentes de voz evolucionan para ser más inclusivos, según WSJ

Alexa, Siri y Google Assistant entenderán a personas con tartamudeo o disartria: los asistentes de voz evolucionan para ser más inclusivos, según WSJ
2 comentarios Facebook Twitter Flipboard E-mail

Las empresas tecnológicas están "capacitando" a sus asistentes de voz para que puedan comprender el habla atípica. De acuerdo con el diario The Wall Street Journal, Alexa, Siri y Google Assistant recibirán ajustes para poder entender a personas con trastornos del habla.

La disartria, causada por el debilitamiento en los músculos del habla, y el tartamudeo son dos de las condiciones con las que las empresas tecnológicas quieren trabajar para que sus asistentes puedan entender para interactuar debido a que actualmente tienen dificultades para ser comprendidas por los asistentes de voz de Apple, Amazon y Google.

Julie Cattiau, gerente de producto del equipo de inteligencia artificial de Google, dijo al WSJ que el grupo corre el riesgo de quedarse atrás debido a la tecnología de reconocimiento de voz.

Para alguien que tiene parálisis cerebral y está en una silla de ruedas, poder controlar su entorno con su voz podría ser muy útil. Google está recopilando datos de voz atípicos como parte de una iniciativa para entrenar sus herramientas de reconocimiento de voz.

Pexels Anete Lusina 4790274

Mejorar la experiencia

Anne Toth es directora de Alexa Trust en Amazon, una división que supervisa las políticas y características de privacidad y seguridad del asistente de voz, así como sus esfuerzos de accesibilidad. Ella le cuenta al medio que el hecho de que las empresas capaciten a sus asistentes de voz para responder a personas con discapacidades es una forma de mejorar la experiencia con herramientas de reconocimiento de voz.

Amazon anunció en diciembre una integración de Alexa con Voiceitt, una startup israelí que permite a las personas con discapacidades del habla entrenar un algoritmo para reconocer sus propios patrones vocales únicos. Esta iniciativa está programada para funcionar en los próximos meses.

Mientras tanto, Apple dijo que su función Hold to Talk, permite a los usuarios controlar cuánto tiempo quiere que Siri los escuche, evitando que interrumpa a los usuarios que tartamudean antes de que hayan terminado de hablar.

La compañía ahora está investigando cómo detectar automáticamente si alguien tartamudea y creó un banco de 28,000 clips de audio de personas con esta condición para ayudar a hacerlo.

Finalmente, la iniciativa Project Euphonia de Google está probando un prototipo de aplicación que permite a las personas con un habla atípica comunicarse con el asistente de Google y los productos inteligentes de Google Home mediante la capacitación del software para comprender sus patrones de habla únicos.

Comentarios cerrados
Inicio