Tecnología

Amazon, entre la espada y la pared por los sesgos discriminatorios de su inteligencia artificial

La tecnología de Amazon clasificaba a las mujeres de piel oscura como hombres el 31% de las veces, mientras que las mujeres de piel más clara se identificaron erróneamente solo el 7% de las veces.

Uno de los grandes problemas de la inteligencia artificial, como así ha sido reconocido por la mayoría de proveedores de esta tecnología -desde Google hasta IBM-, son los sesgos y la posibilidad de que los sistemas automatizados perpetúen (o incluso aumenten) la desigualdad y la discriminación. No en vano, el uso de malos conjuntos de datos con los que entrenar los algoritmos (así como el mismo diseño mal planteado de los propios sistemas) hace que cualquiera que se salga del esquema de ‘hombre blanco’ sufra las consecuencias negativas de estas prácticas.

El último ejemplo de ello lo encontramos en Amazon Web Services, cuya tecnología de inteligencia artificial ha sido fuertemente cuestionada en los tiempos recientes debido a un informe de la científica del MIT Media Lab, Joy Buolamwini (disponible aquí) en el que se constata como sus sistemas discriminan de forma constante a las minorías.

En concreto, los investigadores han comprobado que la tecnología de Amazon clasificaba a las mujeres de piel oscura como hombres el 31% de las veces, mientras que las mujeres de piel más clara se identificaron erróneamente solo el 7% de las veces. Al mismo tiempo, los hombres de piel más oscura tenían una tasa de error del 1%, mientras que los hombres de piel más clara no tenían ninguna.

¿Realmente cuatro de cada diez empresas ya han integrado la inteligencia artificial?

Si usted vende un sistema que ha demostrado tener sesgo en rostros humanos, es dudoso que sus otros productos basados ​​en el rostro también estén completamente libres de sesgos“, critica Joy Buolamwini.

Estos datos prueban que AWS no se está tomando en serio la lucha contra los sesgos en sus soluciones de inteligencia artificial, lo cual abre un abanico de problemas no solo a nivel de reputación (máxime con la controversia actual existente en países como Estados Unidos) sino también en el plano legal (se expone a demandas de asociaciones civiles y grupos de defensa de las minorías) y en la propia operativa diaria.

Y es que, mientras que Microsoft o Google han mejorado sus sistemas para evitar en la medida de lo posible estos sesgos, el hecho de que Amazon esté tan retrasado en el camino hace dudar de la calidad y precisión de su tecnología. Lo cual es especialmente grave si tenemos en cuenta que se está usando ya en asuntos tan cruciales como la identificación automatizada de sospechosos en registros fotográficos en sitios como la Oficina del Sheriff del Condado de Washington en Oregon. Que, por defecto, ser negro (y mujer) te dé más papeletas para ser señalado como culpable de un crimen no suele ser el mejor reclamo de una compañía de vanguardia como pretende Jeff Bezos…

Sobre el autor

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, La Razón, El Mundo, ComputerWorld, CIO España, Business Insider, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo, ganador del Premio Día de Internet 2018 a mejor marca personal en RRSS y finalista en los European Digital Mindset Awards 2016, 2017 y 2018.