Social Media

Demuestran cómo los bots inundaron Twitter de mentiras en la victoria de Donald Trump

Cómo proteger tu privacidad online tras la llegada de Trump

Los bots que llevaron a Donald Trump a la Casa Blanca protagonizaron situaciones tan surrealistas como que una sola cuenta mencionara a @realDonaldTrump en 19 mensajes acerca de tres millones de inmigrantes ilegales que habían votado en las elecciones presidenciales… algo que obviamente era mentira.

Por mucho que Donald Trump lo niegue, e incluso llegue a darle la vuelta a la tortilla para afirmar que fueron sus rivales los beneficiados por la locura que se vivió en las redes sociales, lo cierto es que los bots y las ‘fake news’ influyeron de forma masiva en la opinión pública durante la contienda electoral que le llevó a la Casa Blanca. Así lo demuestra un nuevo estudio de la Universidad de Indiana (IU) y publicado en la revista Nature Communications, según el cual tan solo un 6% de las cuentas de Twitter identificadas como bots difundieron el 31% de la información falsa en las elecciones de EEUU.

Otro trabajo de investigadores del MIT, que apareció en Science a comienzos de año, analizó también este fenómeno y llegó a la conclusión de que las noticias falsas se extienden en Twitter porque los humanos, no los bots, las propagamos más deprisa que la verdad. En su análisis, las falsedades tenían un 70% más probabilidades de ser retuiteadas por los usuarios que la información veraz.

El estudio actual no contradice aquel de Science. Lo que pone de relieve es el papel desproporcionado que tienen los bots en la difusión de noticias falsas. No en vano, estas cuentas automatizadas también fueron responsables del 34% de todos los artículos compartidos procedentes de fuentes de poca veracidad.

La investigación analizó 14 millones de tuits y 400.000 artículos compartidos en Twitter entre mayo de 2016 y marzo de 2017, un periodo que abarca desde el final de las primarias presidenciales de 2016 hasta la toma de posesión del cargo por parte de Trump el 20 de enero de 2017. Según el análisis, recogido por SINC, las cuentas automáticas fueron fundamentales en los primeros momentos antes de que las historias se volvieran virales, un intervalo de tiempo muy breve que dura de 2 a 10 segundos.

La conclusión que se extrae de ambos estudios, afirman los científicos, es que la desinformación se propaga por múltiples razones, como la novedad de los mensajes, la amplificación por parte de los bots, así como los sesgos cognitivos y sociales de las personas. Además, los investigadores identificaron otras tácticas para difundir información falsa con los bots de Twitter. Estas incluían la amplificación de un solo tuit –que podría estar controlado por un operador humano– a través de cientos de retuits automatizados; la repetición de enlaces en mensajes recurrentes; y la selección de cuentas influyentes.

Por ejemplo, el estudio cita un caso en el que una sola cuenta mencionó a @realDonaldTrump en 19 mensajes acerca de tres millones de inmigrantes ilegales que habían votado en las elecciones presidenciales. La afirmación era falsa, pero el hoy presidente la utilizó para reforzar sus intereses.

La imagen muestra la difusión de un artículo que afirmaba que tres millones de inmigrantes ilegales votaron en las elecciones presidenciales de 2016 en EE UU. Los enlaces muestran la difusión del artículo a través de los retuits y tuits citados (en azul) y las respuestas y menciones (en rojo). / Filippo Menczer / IU

Para averiguar qué sucedería si los bots desaparecieran, los investigadores llevaron a cabo un experimento en una versión simulada de Twitter. Encontraron que tras eliminar el 10% de las cuentas con alta probabilidad de ser bots el número de historias de fuentes de baja credibilidad en la red se desplomaba.

Así pues, el estudio propone medidas que Twitter podría tomar para frenar la difusión de información errónea. Estas incluyen la mejora de los algoritmos para detectar automáticamente a los bots e incluir modelos que requieran interacción humana. Por ejemplo, a los usuarios se les podría pedir completar un CAPTCHA para enviar un mensaje.

Aunque el análisis se ha centrado en Twitter, los autores señalan que otras redes sociales son también vulnerables a la manipulación. Por ejemplo, Snapchat y WhatsApp tienen dificultades para controlar la información falsa porque el uso de cifrado y los mensajes destructibles complica la capacidad de estudiar cómo comparten la información sus usuarios.

Sobre el autor de este artículo

Alberto Iglesias Fraga

Periodista especializado en tecnología e innovación que ha dejado su impronta en medios como TICbeat, La Razón, El Mundo, ComputerWorld, CIO España, Business Insider, Kelisto, Todrone, Movilonia, iPhonizate o el blog Think Big, entre otros. También ha sido consultor de comunicación en Indie PR. Ganador del XVI Premio Accenture de Periodismo, ganador del Premio Día de Internet 2018 a mejor marca personal en RRSS y finalista en los European Digital Mindset Awards 2016, 2017 y 2018.