Tecnología

Algoritmos o humanos: ¿cuál es la mejor forma de filtrar las noticias falsas?

La inteligencia artificial influirá sobre el marketing de contenidos el año que viene

La simbiosis de inteligencia humana y artificial parece ser la única salida para garantizar que los contenidos inapropiados y las noticias falsas vayan desapareciendo poco a poco.

Si la manipulación y la censura informativa condicionaron la opinión pública durante el siglo XX, las noticias falsas y la posverdad son los grandes protagonistas de la desinformación de nuestros días. Y es que, en una era en que la mayoría de la gente se informa a través de sus redes sociales (el 44 por ciento de los estadounidenses lee sus noticias diariamente a través de Facebook), confundir a la ciudadanía con contenidos de escasa veracidad es más sencillo que nunca.

Y si a las noticias falsas le unimos la facilidad con que Internet permite emitir opiniones y comentarios insultantes y ofensivos contra terceros, la necesidad de establecer filtros que permitan garantizar un mínimo de calidad. Sin embargo, este proceso de depuración es una misión harto complicada: cada segundo se publican miles de publicaciones en las redes sociales; una carga inasumible para cualquier editor humano. De hecho, esta problemática ya ha provocado daños directos en la marcha económica de algunas plataformas 2.0: sin ir más lejos, la compra de Twitter por parte de Disney se frustró por la incapacidad de Jack Dorsey y los suyos de controlar los mensajes ofensivos en la red.

Quizás por ello, las principales compañías de la arena social están incluyendo herramientas de inteligencia artificial para complementar el trabajo de filtrado que hacen los, cada vez, más numerosos equipos humanos. Estas tecnologías buscan palabras clave que puedan ser susceptibles de resultar ofensivas en tiempo real, creando alertas o bloqueando directamente su publicación. También son capaces, en base a los comentarios y valoraciones de la comunidad, de identificar las fuentes de información más veraces para mostrarlas en el ‘timeline’ de manera destacada.

Inteligencia artificial: revisando un concepto que se ha tergiversado

O eso se supone, al menos. En la mente de todos está el fracaso rotundo de Facebook cuando, el pasado 26 de agosto de 2016, la red social decidió eliminar a los editores humanos en favor de algoritmos automáticos para elegir los contenidos que se mostraban en el módulo de tendencias. El experimento duró apenas un fin de semana: el sistema se volvió completamente loco y comenzó a destacar contenidos de portales cómicos como si fueran noticias reales, además de publicaciones completamente falsas sobre comentarios ofensivos a periodistas cercanos a Donald Trump o, incluso, se destacó un vídeo de un hombre masturbándose encima de una hamburguesa de McDonald´s. Polémica inmediata que demostró la escasa capacidad del algoritmo de Facebook para entender las sutilezas y las particularidades del ser humano en estos momentos de posverdad.

Facebook: modelo mixto de IA y humanos

Tras este fiasco, Facebook no ha prescindido de la ayuda de la inteligencia artificial pero sí que ha optado por complementar la tecnología con un potente equipo humano que pueda responder a las denuncias de material inapropiado, especialmente en el caso de vídeos que muestren o promuevan el asesinato, el suicidio u otros actos violentos. Y es que, tras haberse retransmitido en directo crímenes en Tailandia, Chicago o Cleveland, la red social tenía que dar un fuerte golpe sobre la mesa.

La respuesta de Mark Zuckerberg es la contratación de 3.000 personas más para vigilar este tipo de contenidos. Este nuevo grupo de expertos se unirán a los 4.500 que ya trabajan revisando todas las quejas y denuncias de sus usuarios.

Unos humanos que seguirán conviviendo, como decíamos, con más y más herramientas de inteligencia artificial que permiten, por ejemplo, censurar automáticamente contenidos pornográficos en retransmisiones en vídeo o imágenes colgadas en la red social. Asimismo, también se busca extender esta tecnología para bloquear actos de racismo o maltrato. El objetivo es que el equipo de expertos no sólo identifique y responda ante las denuncias de los propios usuarios, sino que pueda hacerlo también ante alertas generadas por una mente inteligente que todo lo ve.

Google: algoritmos en continua evolución

En la misma línea que Facebook se encuentra el buscador más popular del planeta: Google. En ese sentido, la empresa ha anunciado recientemente la introducción de más cambios en su famoso algoritmo para cambiar el orden y la clasificación de los resultados que presentan a los usuarios para evitar las noticias falsas y los contenidos ofensivos.

La propia compañía ha reconocido que en torno al 0,25% de las consultas que se producen a diario en su plataforma proporcionan contenido ofensivo o claramente engañoso. Para evitarlo, Google posicionará en mejor lugar a páginas con mayor acreditación y fama, incluso por encima de otras webs con más visitas pero con historial de contenidos de baja calidad. Además, el buscador tendrá más en cuenta que nunca la opinión de los usuarios que marcan algunas búsquedas como inapropiadas o algunos resultados como ofensivos.

YouTube: filtros que marginaban a la comunidad LGTB

Eso sí, que nadie piense que los algoritmos desarrollados en Mountain View son perfectos. Ni muchísimo menos. Hace poco, miles de internautas denunciaron que YouTube, la plataforma de vídeos de Google, estaba filtrando y censurando los vídeos relacionados con la comunidad LGTB (lesbianas, gays, transexuales y bisexuales) al considerarlos “inapropiados”.

Eso ocurría con el ‘modo restringido’, una funcionalidad que evita vídeos relacionados con la salud, la política o la sexualidad. Sin embargo, YouTube tuvo que admitir el enorme error de incluir estos contenidos en esta categoría sensible, especificando que sólo se bloquearán aquellos con imágenes más delicadas. “La intención del modo restringido es filtrar el contenido para adultos hacia un pequeño conjunto de usuarios que desean una experiencia más limitada. Los videos LGTB estarán disponibles en modo restringido, pero los vídeos que tratan temas más delicados pueden no estarlo. Lamentamos cualquier confusión que esto haya causado y estamos estudiando sus preocupaciones”, han indicado desde la firma.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, El Mundo, ComputerWorld, CIO España, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big de Telefónica, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo y Finalista en los European Digital Mindset Awards 2016.