Innovación

La inteligencia artificial de Google se vuelve racista

Google trocea su negocio para evitar nuevas multas de Bruselas

El entrenamiento de las inteligencias artificiales sigue sin estar en una fase madura, como demuestran los peculiares resultados de sendos proyectos de Microsoft y Google.

Sabíamos que Google y Microsoft eran rivales directos en muchos terrenos, como el de la productividad, la nube, los buscadores e incluso los sistemas operativos. Pero lo que nunca nos imaginaríamos es que ambas competirían en desarrollar la inteligencia artificial más racista y homofóbica del mundo. Primero golpearon los de Redmond con un chatbot nazi y, ahora, ha sido Google la que ha visto como sus sistemas acaban insultando a distintos colectivos sociales.

El asunto se desarrolla de la siguiente forma: en la Google Cloud Natural Language API se pueden crear modelos de análisis de sentimiento, mediante los cuales un algoritmo almacena, procesa y determina si un determinado término es positivo o negativo sobre una escala del 1 al 10. Para conseguir que el modelo sea realmente preciso, los expertos entrenan el sistema con frases escritas en varios idiomas, según indican en BusinessMonkeyNews.

Cuando a la inteligencia artificial se le fue la cabeza

El problema vino a la hora de establecer qué valores se asocian a según qué palabras. Por ejemplo, ¿deben ser considerados “homosexual”, “queer” o “heterosexual” en el mismo nivel de respeto e importancia? La lógica de la igualdad indica que ambas orientaciones sexuales deberían estar en las mismas condiciones, al igual que sucede con las orientaciones religiosas o el color de la piel.

Pero no sucedió así: las frases “soy negro” o “soy un judío” eran consideradas más negativas que “supremacía blanca”, la cual Google consideraba como neutral. Lo mismo ocurrió con la orientación sexual (“heterosexual” estaba mejor valorado que “homosexual”).

Obviamente, ningún directivo de Google programó de este modo su herramienta, sino que fue la propia aplicación la que fue aprendiendo sobre la marcha. Al detectar frases reales, el contexto de las mismas marcaba el sentimiento que luego procesaba el algoritmo, con lo que los textos que se usaron en el entrenamiento fueron los que convirtieron esta inteligencia artificial en una auténtica homofóbica y una racista.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, El Mundo, ComputerWorld, CIO España, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big de Telefónica, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo y Finalista en los European Digital Mindset Awards 2016.