Nueva herramienta para analizar la difusión de ‘fake news’ en redes sociales

La presencia de solo un 1 % de personas acríticas o de bots que propagan un rumor de forma automática hace que este circule más rápido: el tiempo se puede reducir en un 20 % para alcanzar a la mitad de la población conectada a una red social como Whatsapp. Es uno de los resultados del estudio realizado por investigadores de la Universidad Politécnica de Madrid y otros centros considerando la polarización de los individuos en la difusión de noticias.

Nueva herramienta para analizar la difusión de ‘fake news’ en redes sociales

La propagación de ideas en las redes sociales es un fenómeno cada vez más importante, que desempeña un papel crucial a la hora de entender cómo proliferan las noticias falsas o fake news, así como su impacto en los procesos democráticos. 

Situaciones como la pandemia de covid-19, en la que han sido muchas las ocasiones en las que las redes sociales se han empleado para difundir información no contrastada, relacionando incluso la enfermedad con las redes de 5G, ponen de manifiesto la importancia de tener en cuenta el papel que desempeñan las redes sociales en la difusión de la información y, sobre todo, de la desinformación. 

A partir de grupos de Whatsapp de estudiantes se ha observado que la presencia de solo un 1 % de individuos acríticos o bots puede bajar en un 20 % el tiempo para que una noticia llegue a la mitad de la población conectada a una red social 

Ahora, un trabajo desarrollado por los investigadores Jesús San Martín de la Universidad Politécnica de Madrid (UPM), Fátima Drubi de la Universidad de Oviedo  y Daniel Rodríguez Pérez de la UNED, ha empleado un modelo matemático para analizar las posibilidades de que un rumor se transmita con mayor o menor rapidez en una red social y la influencia que la polarización de los individuos tiene en este proceso. El estudio se publica en la revista Mathematics and Computers in Simulation.

“La propagación de fake news a través de las redes sociales y su impacto en la sociedad actual es más que evidente. La campaña electoral de EEUU o el referéndum del Brexit, ambos en 2016, así como las campañas de noticias sesgadas detectadas en Cataluña en 2018, son solo algunos ejemplos de cómo estos procesos están reconfigurando las sociedades y afectando a las democracias”, explica Jesús San Martín, de la Escuela Técnica Superior de Ingeniería y Diseño Industrial de la UPM. 

“Disponer de herramientas como la que hemos desarrollado para inferir los mecanismos de propagación de estas noticias y diferenciar los “rumores de toda la vida” de las fake news propagadas intencionadamente para atacar a nuestra sociedad es, ahora más que nunca, de gran trascendencia social”, añade. 

Tres parámetros de la red social

Teniendo en cuenta esa diferencia basada en la intencionalidad de difusión de las noticias falsas, los autores simularon la propagación de un rumor en función de tres parámetros característicos de una red social: la probabilidad de que un individuo conozca el rumor de partida, la probabilidad de que un individuo no polarizado que recibe la noticia la comparta con sus contactos y sus grupos, y la proporción de la población formada por individuos polarizados (acríticos con el contenido de la noticia) o bots (programa informático que efectúa automáticamente tareas reiterativas) que propagan el rumor automáticamente en cuanto les llega. 

Esta herramienta analítica permite inferir lo que está sucediendo en una red social a partir de cómo evoluciona en ella un rumor y del comportamiento de los individuos en relación a la transmisión del mismo

“Nuestro objetivo era doble. Por un lado queríamos encontrar la ley que rige la evolución de la propagación de un rumor en la red y hallar en cuánto tiempo ese rumor llegará a una fracción dada de los individuos conectados a esa red. Por otro, nos parecía fundamental detectar la presencia de grupos de bots o individuos acríticos, que reenvían automáticamente y de forma coordinada un determinado rumor, y ver cómo afectan a la propagación de la noticia”, señala el investigador. 

“Tomando como punto de partida un modelo de red social cuya estructura derivamos a partir de los grupos de Whatsapp de estudiantes, los resultados mostraron que la presencia de sólo un 1 % de bots o de individuos acríticos, puede bajar en un 20 % el tiempo necesario para que una noticia llegue a la mitad de la población conectada a una red social”, añade.

Los investigadores también usaron su modelo para ajustar datos empíricos publicados de propagación de bulos en Whatsapp. En el caso analizado, su modelo predice que una noticia llegaría a la mitad de la población en menos de 6 días, y alcanzaría al 99 % de la red en 3 meses y medio. 

Para el equipo, la importancia de estos resultados radica en que aportan una herramienta analítica que permite inferir lo que está sucediendo en una red social a partir de cómo evoluciona en ella un rumor y del comportamiento de los individuos en relación a la transmisión del mismo. 

Referencia:

Jesús San Martín et al. “Uncritical polarized groups: The impact of spreading fake news as fact in social networks”. Mathematics and Computers in Simulation, 2020.

Fuente: SINC
Derechos: Creative Commons.
Artículos relacionados