Social Media

El algoritmo de Facebook no sesga el espectro político de sus usuarios, según un estudio

GoAndLike: el botón para decir ‘me gusta’ del mundo offline
Escrito por Redacción TICbeat

Son ellos los que escogen aquellas historias que corroboran su ideología, dice una investigación impulsada por la red social.

Además de a los terremotos que ocasionan en el día a día de webmasters y especialistas en SEO, los algoritmos que utilizan las plataformas online se enfrentan a una sospecha: la de que solo exponen a los usuarios a contenidos afines a su ideología, encerrándolos en lo que se conoce desde hace tiempo como burbujas de filtros.

Facebook no quiere que el poderoso algoritmo que construye su newsfeed sea visto así. Por ello, la red social ha promovido un estudio realizado por un equipo de investigadores de distintas universidades estadounidenses, con la intención de demostrar que son los propios usuarios los que ponen filtros a la información que reciben en la red social, y no ésta.

La investigación estudió entre el pasado julio y el pasado enero el comportamiento de 10 millones usuarios de Facebook en Estados Unidos que indicaban en su perfil que simpatizaban con la ideología liberal o con la conservadora en torno a 7 millones de enlaces a contenido identificado como profundamente político que fueron compartidos en la plataforma.

Los resultados muestran que solo el 35% de las noticias de contenido político que comparten los usuarios que en su perfil se identificaban como liberales podrían ser alineadas con la ideología conservadora. En el caso de los usuarios conservadores, el porcentaje de historias de perfil liberal que compartieron fue menor, de un 24%.

Es decir, que, según este estudio, la mayoría de los contenidos que los usuarios comparten en Facebook, un factor que influye de forma notable en las historias a las que el algoritmo los expondrá después, corroboran o confirman su ideología política. Esto se traduce, de acuerdo con los investigadores de Facebook, en que su newsfeed solo los expone a un 29,5% de contenido opuesto a sus preferencias políticas, un porcentaje que solo se vería mínimamente reducido por la actuación algoritmo de la casa, en concreto, a un 28,9%, apenas un punto porcentual.

La investigación, cuyos resultados han sido desvelados en un artículo en la revista Science, ha sido acogida con gran interés, aunque también cuestionada en algunos aspectos. En declaraciones a Technology Review, por ejemplo, algunos investigadores señalan el hecho de que el estudio haya sido impulsado por Facebook, un factor que podría estar sesgando los resultados. Otros critican que el estudio solo tenga en cuenta a aquellos usuarios que expresan su ideología política en su perfil, y no a quienes no lo hacen.

Desde hace algunos años, especialistas en las tecnologías de la información y plataformas innovadoras como el buscador DuckDuckGo, el único que no personaliza resultados, cuestionan el hecho de que la mayoría de los contenidos a los que accedemos en la red vienen determinados por el filtro que nuestros ‘me gusta’, nuestras cookies y nuestro historial de navegación generan en plataformas como Facebook y Google.

“Los sistemas de búsqueda y recomendación actuales están enfocados en entregar información que refuerza tus puntos de vista o bien es similar a la que ya has consumido”, dijo a TICbeat hace tiempo el investigador Eduardo Graells-Garrido, que trabaja en un motor de recomendaciones que intente solventar esta cuestión.

Foto cc: Thomas Angermann

Sobre el autor de este artículo

Redacción TICbeat

Actualidad y análisis en tecnología, tendencias, aplicaciones web, seguridad, educación, social media y las TIC en la empresa.