Hay una división étnico en los sistemas de gratitud de voz, dicen los investigadores

SAN FRANCISCO – Con un iPhone, puede dictar un mensaje de texto. Ponga a Alexa de Amazon en su mesa de centro y podrá solicitar una canción desde el otro banda de la habitación.

Pero estos dispositivos pueden entender algunas voces mejor que otras. Según un estudio publicado el lunes en la revista Proceedings of the, los sistemas de gratitud de voz de cinco de las compañías tecnológicas más grandes del mundo (Amazon, Apple, Google, IBM y Microsoft) cometen muchos menos errores con los usuarios blancos que con los negros. Institución Franquista de Ciencias.

Los sistemas identificaron erróneamente las palabras aproximadamente el 19 por ciento del tiempo con los blancos. Con los negros, los errores aumentaron al 35 por ciento. Según el estudio, realizado por investigadores de la Universidad de Stanford, rodeando del 2 por ciento de los fragmentos de audio de personas blancas se consideraron ilegibles por estos sistemas. Eso aumentó al 20 por ciento entre los negros.


" Estas son probablemente las cinco compañías más grandes que hacen gratitud de voz, y todas están cometiendo el mismo tipo de error ", dijo John Rickford, uno de los investigadores de Stanford detrás del estudio, que se especializa en el palabra afroamericana. “La suposición es que todos los grupos étnicos están correctamente representados por estas compañías. Pero no lo son. ”

El sistema con mejor rendimiento, de Microsoft, se identificó erróneamente 15 por ciento de las palabras de los blancos y 27 por ciento de los negros. El sistema de Apple, el de último rendimiento, falló el 23 por ciento del tiempo con los blancos y el 45 por ciento del tiempo con los negros.

Basado en gran medida La comunidad rural afroamericana en el este de Carolina del Ideal, una ciudad mediana en el oeste de Nueva York y Washington, DC, los probadores negros hablaron en lo que los lingüistas llaman inglés vernáculo afroamericano: una variedad de inglés que a veces hablan los afroamericanos en áreas urbanas y otras partes de los Estados Unidos. Los blancos estaban en California, algunos en la haber del estado, Sacramento, y otros de un dominio rural y en gran parte blanca a unas 300 millas de distancia.

El estudio encontró que la "brecha étnico" era igual de amplio al comparar las frases idénticas pronunciadas por personas blancas y negras. Esto indica que el problema radica en la forma en que los sistemas están entrenados para declarar el sonido. Al parecer, las compañías no están capacitándose en datos suficientes que representen el inglés vernáculo afroamericano, según los investigadores.

Las empresas como Google pueden tener problemas para compendiar los datos correctos y pueden no estar motivadas suficiente para recogerlo. "Esto es difícil de solucionar", dijo Brendan O'Connor, profesor de la Universidad de Massachusetts Amherst que se especializa en A.I. tecnologías. “Los datos son difíciles de compendiar. Estás librando una batalla cuesta en lo alto. ”

Las compañías pueden enemistar un problema de huevo y gallinácea. Si sus servicios son utilizados principalmente por personas blancas, tendrán problemas para compendiar datos que puedan servir a las personas negras. Y si tienen problemas para compendiar estos datos, los servicios seguirán siendo utilizados principalmente por personas blancas.

"Esos bucles de feedback son un poco espeluznantes cuando comienzas a pensar en ellos", dijo Noah Smith, profesor de La Universidad de Washington. "Esa es una gran preocupación".

Source

Be the first to comment

Leave a Reply

Your email address will not be published.


*