Tecnología

IBM se pone seria en la lucha contra los sesgos en la inteligencia artificial

IBM inaugura su centro IoT en Munich

Ante el gran miedo de que la inteligencia artificial perpetúe (o incluso potencie) los sesgos de la vida real, IBM ha creado un software capaz de detectar automáticamente los sesgos y proporcionar explicaciones sobre las decisiones que toma la IA en base a los datos que ha obtenido.

Hace algo más de un año, Ruchir Puri, arquitecto jefe de IBM Watson, decía en Las Vegas que “una inteligencia artificial vale lo mismo que los datos que lleva detrás”. Era su particular punto de partida para hablar del gran temor de las grandes compañías que trabajan en algoritmos inteligentes y machine learning: la creación de sesgos (bias, en inglés) que alteren la correcta proporción de personas de distintas razas o géneros y que incluso puedan llegar a perpetuar los estereotipos y malas prácticas de la sociedad de carne y hueso, pero sin el razonamiento y la empatía inherente a los humanos. “Detectar fallos en el sesgo de esa información es fundamental, pero complejo cuando son datos no estructurados. Por suerte, es más fácil quitarle los sesgos a una máquina que a un hombre“, decía el bueno de Puri.

Ahora, IBM ha dado un paso más en su lucha contra los sesgos en la inteligencia artificial, pasando de los temores y sus proyectos internos para mitigar el problema, a una aproximación más holística (y, qué demonios, también con enfoque comercial). Así se entiende el lanzamiento de una nueva gama de servicios cloud del Gigante Azul, entre los que se encuentra un software capaz de detectar automáticamente los sesgos y proporciona la explicación sobre las decisiones que toma la IA en base a los datos que ha obtenido.

¿Cómo la inteligencia artificial cambiará las relaciones internacionales?

Los nuevos desarrollos de IBM funcionan con modelos construidos a partir de una amplia variedad de frameworks de machine learning y entornos personalizados de IA como Watson, Tensorflow, SparkML, AWS SageMaker y AzureML. Esto es, no se quedan en el entorno exclusivo de la multinacional norteamericana, sino que abordan el fenómeno en las principales plataformas existentes en el mercado.

El servicio de software también se puede programar para monitorizar los factores específicos de decisión que se tengan en consideración para cualquier flujo de trabajo empresarial, lo que permite personalizarlo para el uso específico de cada organización. El servicio de software, totalmente automatizado, describe la toma de decisiones y detecta sesgos en los modelos de IA en tiempo de ejecución –a medida que se toman las decisiones-. Es decir, captura resultados potencialmente injustos a medida que se producen (Ver demo aquí). También recomienda, de manera automática, datos para añadirlos al modelo y ayudar a reducir cualquier sesgo que haya detectado.

Por otro lado, IBM Research pondrá a disposición de la comunidad open source un kit de herramientas de reducción y detección de sesgos en la IA para fomentar la colaboración global sobre cómo tratar el sesgo en la inteligencia artificial. En ese sentido, el AI Fairness 360 es una biblioteca de algoritmos, códigos y tutoriales innovadores que proporcionarán a los académicos, investigadores y científicos de datos herramientas y conocimientos para integrar mecanismos de detección de sesgos durante la construcción y aplicación de modelos de machine learning.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, La Razón, El Mundo, ComputerWorld, CIO España, Business Insider, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo, ganador del Premio Día de Internet 2018 a mejor marca personal en RRSS y finalista en los European Digital Mindset Awards 2016, 2017 y 2018.