La pandemia de COVID-19 ha generado una oleada de desinformación sin precedentes. Ante la demanda social que las señala como responsables, las empresas dueñas de Facebook, WhatsApp y Twitter han implementado cambios en su funcionamiento. Pero el uso de algoritmos no es suficiente para eliminar contenidos que requieren de la interpretación humana.
Durante los últimos seis meses el mundo ha librado una batalla, que aún sigue, contra una nueva enfermedad y el virus que la causa. Pero además de la pandemia de COVID-19, vivimos inmersos en la infodemia: un tsunami de desinformación que lo ha impregnado todo a la misma velocidad que el famoso virus.
Son esas cadenas que nos llegan al grupo de WhatsApp familiar con supuestos remedios para la enfermedad, los audios catastróficos que circulan por las redes sociales sin que nadie consiga identificar quién o dónde se han grabado, los estados de Facebook que avisan de que el coronavirus en realidad no existe, los tuits que cacarean resultados científicos a partir de estudios dudosos, los vídeos con entrevistas a supuestos médicos que ponen en duda la utilidad de la distancia social y las mascarillas. Contenido que toca las teclas adecuadas para hacerse viral, dejando a su paso aún más miedo, incertidumbre y polarización que el propio coronavirus.
Igual que los profesionales sanitarios tratan de frenar la enfermedad con el compromiso ciudadano, periodistas y verificadores de todo el mundo intentan combatir la infodemia. Las empresas tecnológicas dueñas de las redes sociales han aparecido también en esta escena, tomando una serie de medidas contra la desinformación.
“La lucha contra la desinformación en las redes sociales no es nueva”, explica Naiara Bellio, coordinadora de Maldita Tecnología, la sección del medio de verificación Maldita.es dedicada a la tecnología, pero la pandemia ha agravado la presión social para que las plataformas tecnológicas reaccionen. “Se han enfrentado a niveles de desinformación masivos sobre temas que pueden perjudicar a la salud de las personas”.
Bellio cuenta que la primera medida que tomaron las redes sociales cuando la infodemia empezaba a asomar fue facilitar el acceso de sus usuarios a fuentes fiables.
“El primer paso que tomaron todas fue colocar el acceso a fuentes oficiales por todas partes, es decir, que al buscar palabras clave o interactuar con determinado tipo de contenidos tuvieras a mano el perfil de la OMS o del Ministerio de Sanidad para leer información contrastada. Eso no funcionó porque la desinformación comenzó a escalar y tuvieron que implantar medidas más restrictivas”.
En España hubo cierto revuelo cuando WhatsApp puso en marcha una decisión por la que se limitaba el número de veces que un mensaje podía reenviarse automáticamente a varios grupos. Seguía siendo posible reenviar un mensaje a cuantos grupos y contactos se quisiera, pero a partir de ese momento habría que hacerlo uno a uno, lo que lo convertía en más tedioso y, en la práctica, en un límite al reenvío masivo de mensajes.
Se asoció a una decisión del Gobierno para limitar y entorpecer la difusión de mensajes críticos, pero lo cierto es que no había relación entre ambas cosas: la medida de WhatsApp era global y para todo tipo de mensajes.
“Notamos un aumento significativo en la cantidad de reenvíos, que, según algunos usuarios, puede resultar apabullante y contribuir a la divulgación de información errónea. Consideramos que es importante ralentizar la divulgación de estos mensajes para que WhatsApp siga siendo un espacio para las conversaciones personales”, explicaba la app de mensajería, propiedad de Facebook, en su blog.
La propia Facebook ya ha actuado antes en este sentido. A diferencia de WhatsApp, donde las conversaciones son privadas, Facebook actúa sobre los contenidos que los usuarios cuelgan públicamente en sus plataformas: a través de acuerdos de colaboración en cada país, equipos de fact-checkers independientes revisan la información calificada como dudosa y comprueban su veracidad.
Cuando uno de esos contenidos es calificado como falso, su visibilidad se limita y se avisa a los usuarios que lo comparten de que lo que están a punto de colgar en su perfil no es verdad. En España, Facebook delega este trabajo en Maldita.es, Newtral, AFP España y EFE Verifica.
Twitter ha sido la última en sumarse. La red social, que a menudo es criticada por su incapacidad para atajar las campañas de acoso o evitar los mensajes de odio, está dando pasos contra la desinformación.
El 19 de marzo publicó una ampliación de las normas por las que podía pedir a los usuarios que retirasen un contenido, incluyendo entre otras “contenido que niegue las recomendaciones de las autoridades sanitarias globales o locales para disminuir la probabilidad de que alguien se exponga al COVID-19” o “negación de datos científicos sobre el contagio durante el periodo de incubación o la guía de contagio de las autoridades sanitarias globales y locales”.
Dos meses después anunció una nueva medida, aún en pruebas: pedir a quien retuitee (comparta) un tuit con un enlace que lo abra primero si es que no lo ha hecho antes. El objetivo es “promover la discusión informada”.
Sharing an article can spark conversation, so you may want to read it before you Tweet it.
— Twitter Support (@TwitterSupport) June 10, 2020
To help promote informed discussion, we're testing a new prompt on Android –– when you Retweet an article that you haven't opened on Twitter, we may ask if you'd like to open it first.
Mientras estas compañías toman posiciones, aunque sean modestas, los ojos se vuelven hacia YouTube. La plataforma de vídeos, perteneciente a Google, es el hogar perfecto para bulos y conspiraciones de todo tipo que encuentran en este formato audiovisual sin limitación de duración el acomodo perfecto donde sumar en poco tiempo miles de reproducciones.
YouTube no solo no las frena, sino que por su sistema algorítmico de recomendación de contenidos similares se convierte en una madriguera de conejo por la que caer a un mundo conspiranoico, vídeo a vídeo.
El periodista científico Javier Salas describía este fenómeno en un experimento realizado en julio de 2019 que recogía en un artículo: “Tras un par de vídeos con mensajes correctos sobre la ciencia del clima, YouTube le muestra una mayoría de vídeos conspiranoicos y negacionistas. A partir de ahí se desciende por una espiral de vídeos que defienden todo tipo de patrañas, desde que la Tierra es plana hasta que la Luna es una construcción artificial que se nos oculta”.
No ha sido distinto con la pandemia: remedios falsos, doctores poniendo en duda las medidas de confinamiento, teorías contra las mascarillas o las vacunas, especulaciones sobre el papel que ha jugado la tecnología móvil 5G… YouTube se ha plagado de bulos durante la pandemia y la red no ha podido, o querido, evitarlo.
Mariluz Congosto, investigadora de la Universidad Carlos III especializada en análisis de datos sociales en las redes, considera que hay poco de altruista o desinteresado en el esfuerzo por limpiar sus propias redes de bulos y desinformación: “Las plataformas de redes sociales se mueven por motivos económicos. El ruido favorece su negocio porque aumenta la actividad, genera crispación y hace que estemos más tiempo conectados”, declara a SINC.
Si ahora están tomando medidas, asegura, no es por una súbita toma de conciencia de su responsabilidad como anfitriones de la conversación pública, sino porque han visto venir posibles repercusiones legales en caso de dejar que el ruido campe a sus anchas. “Solo el temor a una sanción económica, por ejemplo las leyes en Alemania sobre sobre mensajes de odio o en Francia, puede hacer que reaccionen”, asegura Congosto.
Curiosamente, el presidente de Estados Unidos, Donald Trump, difusor habitual de bulos y mensajes calificados como promovedores de odio en Twitter, así como de opiniones de dudosa base científica, se ha convertido en una de las principales amenazas para esas plataformas que se muestran reacias a intervenir, al anunciar que pretende modificar el artículo 230 de la llamada Communications Decency Act (Ley de Decencia en las Comunicaciones).
El artículo, que hasta ahora ha protegido a las plataformas en estas cuestiones, establece que estas no son legalmente responsables de lo que sus usuarios publiquen en ellas. Trump ha anunciado su intención de que eso cambie y que las empresas propietarias de las redes sociales tengan que responder por las posibles violaciones legales que cometan sus usuarios.
Pero legislar la desinformación es delicado. “En temas concretos como terrorismo, pornografía infantil o delitos de odio es posible regular, porque son delitos, pero en el caso de la desinformación es muy inquietante que los gobiernos regulen, porque podría derivar en censura. Es muy difícil establecer la línea entre verdad o mentira y los gobiernos no son neutrales en este arbitraje”, explica Congosto.
A medio plazo, continúa Congosto, la solución a este problema es la educación de la ciudadanía en el manejo de información en redes sociales desde la enseñanza primaria, y también a los adultos, para que detecten y no compartan desinformación.
Mientras tanto, son las entidades de fact-checking las que comprueban la veracidad de estos contenidos y generan los desmentidos. “Esto no es perfecto, pero es lo menos malo. La desinformación se debe combatir con los desmentidos, que, aunque tienen menos recorrido que los bulos, los frenan”.
Hay otro motivo importante por el que es necesaria la intervención humana especializada: los algoritmos no son capaces de analizar con precisión el contexto de un contenido para acertar entre todos los grados de veracidad que puede tener.
“En Maldita.es trabajamos principalmente con categorías como 'bulos' o 'no hay pruebas' y cuando lidiamos con un contenido que puede ser parcialmente falso podemos contar 'lo que sabemos' de él. En países anglosajones incluso distinguen entre disinformation (falta de información) y misinformation (información distorsionada o engañosa)”, explica Bellio.
Un algoritmo no puede moverse en esa escala de grises, sino que se mueve por palabras clave y expresiones concretas, sin contexto. El resultado es que puede calificar como “falso” y, por tanto, retirar, contenido legítimo o divugativo porque use esas expresiones. “Eso ya pasa”, señala Bellio.
De hecho, irónicamente, esto ha ocurrido aún más durante la pandemia: debido a la obligación de establecer el teletrabajo, las plataformas han tenido que delegar aún más la monitorización de contenidos sobre algoritmos. “Al hacerlo, las propias compañías avisaron de que eso iba a degradar el servicio y que era muy probable que se retiraran contenidos que no tendrían por qué retirarse”, señala Bellio.
Esto pone en evidencia la principal debilidad de un sistema que trata de automatizar la detección de desinformación: si no es posible asegurar que un contenido legítimo no sea retirado de la plataforma, tampoco es posible estar seguros de que uno ilegítimo sí será correctamente detectado y eliminado. Sin la intervención humana, los algoritmos, ciegos y sordos a los matices, no son suficiente para frenar la infodemia.