Tecnología

¿Tiene el traductor de Google un sesgo machista?

¿Tiene el traductor de Google un sesgo machista?

Ante idiomas como el euskera o el húngaro que utilizan pronombres neutros, el Traductor de Google aplica el género masculino o femenino utilizando un sesgo a veces machista.

En español es casi imposible obviar el género del sujeto que realiza la acción, pero otros idiomas utilizan pronombres unisex con los que no es necesario indicar el género de ese sujeto. Idiomas como el euskera o el búlgaro tienen esta cualidad y al traducirlos al español nos encontramos con el problema de qué género aplicar y aquí es donde está fallando Google.

Una vez más nos topamos con un claro sesgo machista en un algoritmo, esta vez en el traductor automático de Google. La frase “Gidatzen du” hace referencia en euskera a un sujeto que conduce, no sabemos si es hombre o mujer. En este caso se podría optar por “él o ella conduce”, sin embargo, Google asume el género de forma algo arbitraria y en muchos casos machista.

Un usuario de Reddit ha denunciado ese sesgo de género en el Traductor de Google. Del húngaro “Ő szép. Ő okos”, Google traduce como “Ella es guapa. Él es inteligente”, y así una larga lista de ejemplos en el que las tareas domésticas y el cuidado de niños se asocia al género femenino, mientras el masculino se indica en otras opciones como profesiones o ganar mucho dinero.

En euskera los ejemplos son similares, aunque no tan constantes. Google utiliza más el género masculino en las traducciones al español que hemos probado, mientras que el femenino aparece en contadas ocasiones muy representativas como “Josten du” que lo interpreta como “Ella cose”. En las demás pruebas donde hemos usado verbos como limpiar o cocinar, utiliza el género neutro (masculino).

Por el contrario, cuando traducimos del inglés Google no duda en utilizar los dos géneros al mismo tiempo. El inglés cuenta con pronombres con género como He o She y con una forma neutra que es They en plural o Them y Their en singular. En este caso Google lo traduce como Él y Ella a la vez, descartando el sesgo de género que vemos en los demás idiomas.

Traductor de Google

Cualquier usuario puede probar estos casos u otros en el traductor de Google con la aplicación o desde el buscador. Aunque es un caso significativo, es un ejemplo más de muchos otros sesgos que se han encontrado en los algoritmos y sistemas de inteligencia artificial que aprenden a base de ejemplos creados por la sociedad y recrean los errores humanos.

Google ha explicado a Xataka que “Google Translate funciona aprendiendo patrones a partir de millones de ejemplos de traducciones que aparecen en la web. Lamentablemente, esto significa que el modelo puede replicar de forma involuntaria los prejuicios de género que ya existen“. La compañía trabaja en la actualización del producto para corregir esos prejuicios que ya se podían encontrar en 2017.

Esto explicaría que en inglés se ofrezca una traducción más igualitaria, al tener más variedad de ejemplos y al ser el primero con el que suelen trabajar los desarrolladores. “Esperamos llevar la experiencia a más funciones y comenzar a abordar el género no binario en las traducciones” indica Google.

*Artículo original publicado por Marta Sanz Romero en Computerhoy.com

Te recomendamos

Sobre el autor

ComputerHoy.com