Empresa

Google no se fía de la IA para detectar contenidos ofensivos

google empleados

Google ha recibido fuertes críticas por sugerir resultados ofensivos en sus búsquedas. La compañía ha encomendado a un equipo de 1,000 trabajadores que detecte tales contenidos.

Google ha estado en el punto de mira de muchos los últimos meses por ofrecer contenidos ofensivos o políticamente incorrectos. El caso más polémico se dio el año pasado, cuando el motor de búsqueda sugirió ciertos resultados inapropiados cuando los usarios consultaban si el Holocausto nazi realmente ocurrió.

La compañía ha requerido a un equipo de 1,000 trabajadores, denominados “quality raters”, que señalen contenidos insultantes o inapropiados, y así evitar incentivar el odio y la desinformación.

Los “quality raters” son trabajadores independientes con los que Google cuenta para asesorar la calidad de sus sistemas. Los contratistas comenzaron a colaborar con la empresa en 2013.

El grupo se encarga de evaluar los contenidos sugeridos, y poner de manifiesto cualquier problema que detecten con una búsqueda determinada. Puede tratarse o bien desde una calidad peor o mejor del contenido, unos resultados pocos satisfactorios para los usuarios, hasta la detección spam, pornografía o contenidos ilegales.

Su nueva actualización, presentada el martes, implica que los trabajadores podrán evaluar también los resultados en base a su contenido ofensivo o inapropiado.

A pesar de que el gigante tecnológico no haya manifestado exactamente cual es la raíz de la nueva función, parece tratarse de una medida ante la reacción de los usuarios provocada por los resultados que ofrecía respecto a la existencia del Holocausto.

El primer resultado que mostraba el motor de búsqueda en respuesta a “¿el holocausto nazi realmente ocurrió?” se trataba de un artículo publicado por foro de activistas Blancos y negacionistas del Holocausto, fundada por el ex jefe del Ku Klux Klan. La comunidad considera que el terrible episodio histórico se trata meramente de propaganda inventada para beneficiar a los judíos tras la II Guerra Mundial.

El artículo que sugería Google, explicaba a los lectores las razones por las que mantenían que el holocausto no sucedió, y como transmitir a otros ese mensaje.

La compañía ha usado este polémico caso para ejemplificar a los ‘quality raters’ qué contenidos deben clasificarse como ofensivos. Otro ejemplo incluido fueron los resultados mostrados al buscar “racismo contra los negros” en Google, ya que sugería una página de activistas blancos llamado Daily Stormer. Así, al insertar “Islam” en el motor de búsqueda, los usuarios se encontraban con la página web del ultraderechista Jan Morgan.

La evaluación de los quality raters no afecta directamente a los resultados de la búsqueda. Los información aportada se usa para entrenar a los programadores que escriben los algoritmos de búsqueda, y a su vez a los sistemas de aprendizaje automático. “Básicamente, contenidos de tal naturaleza se emplean para ayudar a Google a averiguar cómo identificar contenidos ofensivos automáticamente“, señaló.

Google Cloud reta a Amazon para ser el rey de la nube

Es decir, que una página web sea marcada como ofensiva no significa que se identifique cómo tal en el motor de búsqueda. Sino, los datos se usarán para que los algoritmos de búsqueda sean capaces de detectar páginas que generalmente deberían ser marcadas como inapropiadas”.

Llama la atención que, pese a las crecientes responsabilidades cedidas a los robots, parece que la inteligencia artificial no es capaz de todo, teniendo que recurrir la compañía a un equipo de expertos humanos. 

No es el único motivo por el que Google ha disgustado a sus usuarios recientemente, ya que su difusión de noticias y contenidos falsos también ha sido fuertemente criticado.

Vía | The Guardian

Sobre el autor de este artículo

Christiane Drummond

Estudiante de Periodismo y Derecho en la Universidad Rey Juan Carlos, realizando una beca en Axel Springer conectada siempre con la actualidad e innovación!