RESUMEN
Objetivos.
Elaborar un esquema operativo integral para detectar la información errónea principal sobre el zika distribuida en Twitter® en el 2016; reconstruir las redes por las que se difunde información mediante retuiteo; contrastar la información verídica frente a la errónea con diversos parámetros; e investigar cómo se difundió en las redes sociales la información errónea sobre el zika durante la epidemia.
Métodos.
Revisamos sistemáticamente los 5 000 tuits más retuiteados con información sobre el zika en inglés, definimos “información errónea” a partir de la evidencia, buscamos tuits que tuvieran información errónea y conformamos un grupo equiparable de tuits con información verídica. Elaboramos un algoritmo para reconstruir las redes de retuiteo de 266 tuits con información errónea y 458 tuits equiparables con información verídica. Calculamos y comparamos nueve parámetros para caracterizar la estructura de las redes a varios niveles, entre los dos grupos.
Resultados.
En los nueve parámetros se aprecian diferencias estadísticamente significativas entre el grupo de información verídica y el de información errónea. La información errónea en general se difunde mediante estructuras más sofisticadas que la información verídica. También hay una considerable variabilidad intragrupal.
Conclusiones.
Las redes de difusión de la información errónea sobre el zika en Twitter fueron sustancialmente diferentes que las de información verídica, lo cual indica que la información errónea se sirve de mecanismos de difusión distintos. Nuestro estudio permitirá formar una comprensión más holística de los desafíos que plantea la información errónea sobre salud en las redes sociales.
ABSTRACT
Objectives.
To provide a comprehensive workflow to identify top influential health misinformation about Zika on Twitter in 2016, reconstruct information dissemination networks of retweeting, contrast mis- from real information on various metrics, and investigate how Zika misinformation proliferated on social media during the Zika epidemic.
Methods.
We systematically reviewed the top 5000 English-language Zika tweets, established an evidence-based definition of “misinformation,” identified misinformation tweets, and matched a comparable group of real-information tweets. We developed an algorithm to reconstruct retweeting networks for 266 misinformation and 458 comparable real-information tweets. We computed and compared 9 network metrics characterizing network structure across various levels between the 2 groups.
Results.
There were statistically significant differences in all 9 network metrics between real and misinformation groups. Misinformation network structures were generally more sophisticated than those in the real-information group. There was substantial within-group variability, too.
Conclusions.
Dissemination networks of Zika misinformation differed substantially from real information on Twitter, indicating that misinformation utilized distinct dissemination mechanisms from real information. Our study will lead to a more holistic understanding of health misinformation challenges on social media.
Las redes sociales se han convertido en fuentes de información en tiempo real sobre diversos temas, incluidas la medicina y la salud (11. Zhao L, Chen F, Dai J, Hua T, Lu C-T, Ramakrishnan N. Unsupervised spatial event detection in targeted domains with applications to civil unrest modeling. PLoS One. 2014;9(10):e110206. https://doi.org/10.1371/journal.pone.0110206
https://doi.org/10.1371/journal.pone.011... , 22. Pew Research Center. Social media fact sheet. 2019. Disponible en: https://www.pewresearch.org/internet/fact-sheet/social-media. Consultado el 15 de enero del 2020.
https://www.pewresearch.org/internet/fac... ). En una red social como Twitter, los contenidos los generan principalmente los usuarios; al no haber mecanismos eficaces de verificación, las redes sociales pueden ser un medio para propagar información errónea. La infiltración y proliferación de la información errónea sobre la salud en las redes sociales, especialmente durante las emergencias de salud pública, constituye una amenaza grave para las personas y para la sociedad en su conjunto (33. Seymour B, Getman R, Saraf A, Zhang LH, Kalenderian E. When advocacy obscures accuracy online: digital pandemics of public health misinformation through an antifluoride case study. Am J Public Health. 2015;105(3):517-523. https://doi.org/10.2105/AJPH.2014.302437
https://doi.org/10.2105/AJPH.2014.302437... ). Algunos ejemplos de este problema es la información errónea difundida en relación con las vacunas (44. Broniatowski DA, Jamison AM, Qi S, et al. Weaponized health communication: Twitter bots and Russian trolls amplify the vaccine debate. Am J Public Health. 2018;108(10):1378-1384. https://doi.org/10.2105/AJPH.2018.304567
https://doi.org/10.2105/AJPH.2018.304567...
5. Dhaliwal D, Mannion CA. Anti-vaccine Messages on Facebook: A Preliminary Audit. Undergraduate Research Report. Universidad de Calgary; 2019.-66. Jamison AM, Broniatowski DA, Dredze M, Wood Doughty Z, Khan D, Quinn SC. Vaccine-related advertising in the Facebook ad archive. Vaccine. 2020;38(3):512-520. https://doi.org/10.1016/j.vaccine.2019.10.066
https://doi.org/10.1016/j.vaccine.2019.1... ), el zika (77. Sharma M, Yadav K, Yadav N, Ferdinand KC. Zika virus pandemic-analysis of Facebook as a social media health information platform. Am J Infect Control. 2017;45(3):301-302. https://doi.org/10.1016/j.ajic.2016.08.022
https://doi.org/10.1016/j.ajic.2016.08.0... ), el tabaco, el vapeo o los productos de marihuana (88. Albarracin D, Romer D, Jones C, Hall Jamieson K, Jamieson P. Misleading claims about tobacco products in YouTube videos: experimental effects of misinformation on unhealthy attitudes. J Med Internet Res. 2018;20(6):e229. https://doi.org/10.2196/jmir.9959
https://doi.org/10.2196/jmir.9959... ).
Si bien las redes sociales pueden ser una herramienta eficaz para mejorar la alfabetización en la salud (99. Chou WY, Prestin A, Lyons C, Wen KY. Web 2.0 for health promotion: reviewing the current evidence. Am J Public Health. 2013;103(1):e9-e18. https://doi.org/10.2105/AJPH.2012.301071
https://doi.org/10.2105/AJPH.2012.301071... , 1010. Lowry M, Fouse D. Communicating research in an era of misinformation. Am J Public Health. 2019;109(5):645. https://doi.org/10.2105/AJPH.2019.305048
https://doi.org/10.2105/AJPH.2019.305048... ), también son un recurso rico para estudiar las perspectivas y reacciones del público ante diversos temas (1111. Signorini A, Segre AM, Polgreen PM. The use of Twitter to track levels of disease activity and public concern in the US during the influenza A H1N1 pandemic. PLoS One. 2011;6(5):e19467. https://doi.org/10.1371/journal.pone.0019467
https://doi.org/10.1371/journal.pone.001...
12. Bail CA. Emotional feedback and the viral spread of social media messages about autism spectrum disorders. Am J Public Health. 2016;106(7):1173-1180. https://doi.org/10.2105/AJPH.2016.303181
https://doi.org/10.2105/AJPH.2016.303181...
13. Colditz JB, Chu K-H, Emery SL, et al. Toward real-time infoveillance of Twitter health messages. Am J Public Health. 2018;108(8):1009-1014. https://doi.org/10.2105/AJPH.2018.304497
https://doi.org/10.2105/AJPH.2018.304497... -1414. Safarnejad L, Ge Y, Xu Q, Chen S. Event Periscope: a novel pipeline to analyze impact of real-world events on Twitter discussions. Ponencia presentada en: International Conference on Social Computing, Behavior-Cultural Modeling and Prediction and Behavior Representation in Modeling and Simulation; del 9 al 12 de julio del 2019; Washington, D.C.). Los sistemas de infovigilancia tienen como objetivo fortalecer la capacidad de la comunidad de salud pública, haciendo un seguimiento meticuloso de los debates en línea sobre temas de salud (1515. Vraga EK, Bode L. I do not believe you: how providing a source corrects health misperceptions across social media platforms. Inf Commun Soc. 2018;21(10):1337-1353. https://doi.org/10.1080/1369118X.2017.1313886
https://doi.org/10.1080/1369118X.2017.13...
16. Gesser-Edelsburg A, Diamant A, Hijazi R, Mesch GS. Correcting misinformation by health organizations during measles outbreaks: a controlled experiment. PLoS One. 2018;13(12):e0209505. https://doi.org/10.1371/journal.pone.0209505
https://doi.org/10.1371/journal.pone.020...
17. Gough A, Hunter RF, Ajao O, et al. Tweet for behavior change: using social media for the dissemination of public health messages. JMIR Public Health Surveill. 2017;3(1):e14. https://doi.org/10.2196/publichealth.6313
https://doi.org/10.2196/publichealth.631... -1818. Park A, Bowling J, Shaw G Jr, Li C, Chen S. Adopting social media for improving health: opportunities and challenges. N C Med J. 2019;80(4):240-243. https://doi.org/10.18043/ncm.80.4.240
https://doi.org/10.18043/ncm.80.4.240... ) y detectando la información errónea (1919. Bode L, Vraga EK. See something, say something: correction of global health misinformation on social media. Health Commun 2018;33(9):1131-1140. https://doi.org/10.1080/10410236.2017.1331312
https://doi.org/10.1080/10410236.2017.13... ). Los análisis más modernos de la difusión de información (errónea o no) en las redes sociales persiguen dos grandes propósitos: 1) analizar la cascada de información (2020. Pramanik S, Wang Q, Danisch M, Guillaume J-L, Mitra B. Modeling cascade formation in Twitter amidst mentions and retweets. Soc Netw Anal Min. 2017;7(1):41. https://doi.org/10.1007/s13278-0170462-1
https://doi.org/10.1007/s13278-0170462-1... , 2121. Liang H, Fung IC-H, Tse ZTH, et al. How did Ebola information spread on Twitter: broadcasting or viral spreading? BMC Public Health. 2019;19(1):438. https://doi.org/10.1186/s12889-019-6747-8
https://doi.org/10.1186/s12889-019-6747-... ); y 2) detectar la información errónea (2222. Zhang Q, Zhang S, Dong J, Xiong J, Cheng X. Automatic detection of rumor on social network. En: Li J, Ji H, Zhao D, Feng Y (eds). Natural Language Processing and Chinese Computing. Cham (Suiza): Springer; 2015:113-122. https://doi.org/10.1007/978-3-319-252070_10
https://doi.org/10.1007/978-3-319-252070...
23. Hamidian S, Diab M. Rumor identification and belief investigation on Twitter. En: Proceedings of the 7th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis. San Diego (California): Association for Computational Linguistics; 2016. https://doi.org/10.18653/v1/W16-0403
https://doi.org/10.18653/v1/W16-0403...
24. Thakur HK, Gupta A, Bhardwaj A, Verma D. Rumor detection on Twitter using a supervised machine learning framework. Int J Inf Retr Res. 2018;8(3):1-13. https://doi.org/10.4018/IJIRR.2018070101
https://doi.org/10.4018/IJIRR.2018070101...
25. Jin F, Wang W, Zhao L, et al. Misinformation propagation in the age of Twitter. IEEE Computer. 2014;47(12):90-94. https://doi.org/10.1109/MC.2014.361
https://doi.org/10.1109/MC.2014.361... -2626. Søe SO. Algorithmic detection of misinformation and disinformation: Gricean perspectives. J Doc. 2018;74(2):309-332. https://doi.org/10.1108/JD-05-20170075
https://doi.org/10.1108/JD-05-20170075... ). En la primera dirección, se utilizan modelos computacionales para investigar la viralidad y la difusión de información; en la segunda, se examinan diferentes atributos, principalmente de contexto, para detectar la información errónea (2323. Hamidian S, Diab M. Rumor identification and belief investigation on Twitter. En: Proceedings of the 7th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis. San Diego (California): Association for Computational Linguistics; 2016. https://doi.org/10.18653/v1/W16-0403
https://doi.org/10.18653/v1/W16-0403... , 2424. Thakur HK, Gupta A, Bhardwaj A, Verma D. Rumor detection on Twitter using a supervised machine learning framework. Int J Inf Retr Res. 2018;8(3):1-13. https://doi.org/10.4018/IJIRR.2018070101
https://doi.org/10.4018/IJIRR.2018070101... , 2727. Yu F, Liu Q, Wu S, Wang L, Tan T. A convolutional approach for misinformation identification. En: Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence. International Joint Conferences on Artificial Intelligence; 2017. https://doi.org/10.24963/ijcai.2017/545
https://doi.org/10.24963/ijcai.2017/545...
28. Ghenai A, Mejova Y. Catching Zika fever: application of crowdsourcing and machine learning for tracking health misinformation on Twitter. Ponencia presentada en: 5th IEEE International Conference on Healthcare Informatics; del 23 al 26 de agosto del 2017; Park City (Utah):518.
29. Castillo C, Mendoza M, Poblete B. Information credibility on Twitter. En: Proceedings of the 20th International Conference on World Wide Web. Nueva York: Association for Computing Machinery; 2011. https://doi.org/10.1145/1963405.1963503
https://doi.org/10.1145/1963405.1963503...
30. Jain S, Sharma V, Kaushal R. Towards automated real-time detection of misinformation on Twitter. Artículo presentado en: 2016 International Conference on Advances in Computing, Communications and Informatics (ICACCI); del 21 al 24 de septiembre del 2016; Jaipur (India). https://doi.org/10.1109/ICACCI.2016.7732350
https://doi.org/10.1109/ICACCI.2016.7732...
31. Qi S, Al Kulaib L, Broniatowski DA. Detecting and characterizing bot-like behavior on Twitter. Artículo presentado en: International Conference on Social Computing, Behavioral-Cultural Modeling and Prediction and Behavior Representation in Modeling and Simulation; del 10 al 13 de julio del 2018; Washington, D.C. https://doi.org/10.1007/978-3-319-93372-6_26
https://doi.org/10.1007/978-3-319-93372-...
32. Wang Y, Ma F, Jin Z, et al. Eann: Event adversarial neural networks for multi-modal fake news detection. En: Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Londres: Association for Computing Machinery; 2018.-3333. Chadwick A, Vaccari C. News sharing on UK social media: misinformation, disinformation, and correction. Loughborough (Reino Unido): Loughborough University; 2019.). Sin embargo, resulta difícil elaborar este tipo de sistemas a partir del contenido textual (3434. Chou WS, Oh A, Klein WMP. Addressing health related misinformation on social media. JAMA. 2018;320(23):2417-2418. https://doi.org/10.1001/jama.2018.16865
https://doi.org/10.1001/jama.2018.16865... ), ya que es posible alterar dicho contenido para que parezca verídico y escape a la detección de los algoritmos automatizados (3535. Wu L, Liu H. Tracing fake-news footprints: characterizing social media messages by how they propagate. En: Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining. Nueva York: Association for Computing Machinery; 2018. https://doi.org/10.1145/3159652.3159677
https://doi.org/10.1145/3159652.3159677... ). Nosotros planteamos que el contenido textual es solo un aspecto del problema general que supone la información errónea sobre la salud en las redes sociales, por lo que no es adecuado confiar únicamente en él. Urge comprender el problema de la información errónea sobre la salud desde más aspectos, además del contenido, como los usuarios involucrados y las redes sociales como entorno interconectado.
Una de las actuaciones decisivas para investigar un brote epidémico es rastrear su trayectoria. En este estudio, definimos la difusión de información errónea como un proceso dinámico por el cual la publicación original (p. ej., un tuit) se propaga mediante retuiteo por una red de difusión de información (denominada llanamente “red” en lo sucesivo). El retuiteo indica que el usuario reconoce la importancia de la publicación original y está dispuesto a difundir la información. Por lo tanto, analizamos el retuiteo como método de difusión (3535. Wu L, Liu H. Tracing fake-news footprints: characterizing social media messages by how they propagate. En: Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining. Nueva York: Association for Computing Machinery; 2018. https://doi.org/10.1145/3159652.3159677
https://doi.org/10.1145/3159652.3159677... ).
Como caso de estudio tomamos la epidemia del zika del 2016. En aquel entonces, los organismos de salud potenciaron su presencia en las redes sociales a fin de transmitir los descubrimientos y las orientaciones más recientes. Sin embargo, la incertidumbre sobre la epidemia y algunos eventos paralelos ocurridos ese mismo año, como las elecciones presidenciales en Estados Unidos y los Juegos Olímpicos de Río de Janeiro, abrieron la puerta a la información errónea. En este estudio, primero establecimos una definición operativa de información errónea sobre salud y buscamos los tuits más populares que contuviesen información errónea sobre el zika. A continuación, elaboramos un algoritmo para inferir y reconstruir las redes de difusión de los principales mensajes erróneos sobre el zika y de tuits equiparables con información verídica. Después, aplicamos análisis reticulares para extraer parámetros relativos a la estructura de la red en ambos grupos. Investigamos cómo las estructuras reticulares difieren cuantitativamente. Este estudio mejora nuestro conocimiento sobre el mecanismo de difusión por las redes sociales de la información errónea de salud, y sobre su mayor eficiencia para difundirse en comparación con la información verídica. Además, lo descubierto con este proyecto ayudará a formular estrategias de comunicación en salud más eficaces para combatir la información errónea en las redes sociales.
MÉTODOS
Como período de muestreo elegimos el año 2016 completo (del 1 de enero al 31 de diciembre). Este período abarca los principales sucesos en el cronograma de la epidemia de zika: la advertencia inicial de la Organización Mundial de la Salud (OMS) en la Región de las Américas, la declaración oficial de la emergencia de salud pública de importancia internacional y el fin de dicha emergencia. Tomando “zika” como palabra clave, recopilamos un total de 3,7 millones de tuits y retuits en inglés, publicados en el 2016, mediante la interfaz de programación de aplicaciones Gnip, a través del programa de ciencias de datos de nuestra universidad. Este conjunto de datos completo está integrado, así, por todas las conversaciones sobre el zika, en inglés, mantenidas en Twitter en el 2016. Por lo tanto, nuestro conjunto ofrece una visión más completa e imparcial del discurso público sobre el zika que tuvo lugar en Twitter a lo largo de ese año.
Detección de información errónea y equiparación con información verídica
Clasificamos todos los tuits originales sobre el zika según el número de veces que fueron retuiteados, de mayor a menor. Después de esta clasificación descendente, seleccionamos los 5000 tuits más retuiteados como muestra. A continuación, establecimos una definición operativa de “información errónea”, es decir, que la información contenida en el tuit no estuviese basada en evidencia. Para evaluar la validez de un tuit, utilizamos artículos de revistas especializadas y actas de congresos con revisión externa, informes y estadísticas de organismos oficiales y de salud (p. ej., los Centros para el Control y la Prevención de Enfermedades y la OMS) y sitios web de verificación de datos. Después de detectar la información errónea en el grupo de 5000 tuits más difundidos, configuramos otro grupo de tuits equiparables, que contenían información verídica, teniendo en cuenta el momento de publicación y las veces que fueron retuiteados. El apéndice A contiene la descripción pormenorizada de cómo se aplicó esta definición, la garantía de fiabilidad y algunos ejemplos (suplemento en inglés a la versión en línea de este artículo en http://www.ajph.org).
Adquirimos los metadatos de cada tuit original y de todos sus retuits, a saber: fecha y hora de publicación, nombre de los usuarios involucrados e información sobre seguidores y seguidos. Utilizamos estos metadatos para rastrear la difusión de la información, construir las redes y realizar los análisis pertinentes.
Construcción de las redes dinámicas de difusión de información
Como Twitter no publica explícitamente quién retuitea a quién, para inferir y reconstruir la red de retuiteos elaboramos un algoritmo basado en el momento de publicación o retuiteo y la relación entre amigos y seguidores. En el apéndice B se brinda un informe técnico detallado sobre este algoritmo (suplemento en inglés a la versión en línea de este artículo en http://www.ajph.org).
También investigamos la dinámica cronológica de la difusión de la información, calculando el tiempo que se tarda en conseguir el 50%, 75%, 90%, 95% y 100% de todos los retuits en el grupo de información verídica y el grupo de información errónea. Con este cálculo se constata la variabilidad cronológica dentro de cada grupo y entre los dos grupos, además de conferir a las redes una dimensión temporal.
Computación e interpretación de los parámetros relativos a las redes
Una vez construida la red de cada tuit, calculamos y comparamos los parámetros que resultan más relevantes para la difusión de información, dentro de cada grupo y entre los dos grupos. En este estudio, calculamos nueve atributos: alcance de la red (ALC), influencia de la red (INF), diámetro (DIA), densidad (DEN), modularidad (MOD), índice de Wiener (WIE), viralidad estructural (VIR), puntuación máxima de centralidad de grado de salida (SAL) y puntuación máxima de centralidad de intermediación (INT). Con estas mediciones se cuantificó y caracterizó la estructura de las redes, desde diferentes aspectos y a diferentes niveles dentro de la red. A continuación, describimos sucintamente estas medidas; en el apéndice C se brindan explicaciones técnicas más detalladas (suplemento en inglés a la versión en línea de este artículo en http://www.ajph.org):
ALC: mide el número de nodos únicos (es decir, perfiles de usuario individuales dentro de la red).
INF (también denominada “tamaño de la red”): representa el número de todos los nodos. Si cada usuario retuitea exactamente una vez, ALC debe ser igual a INF. Si la diferencia entre ALC e INF es mayor, significa que algunos usuarios de la red retuitearon más de una vez.
DIA: distancia más corta entre los dos nodos más alejados dentro de la red.
VIR: distancia media entre todos los pares de nodos de la red.
DEN: proporción de relaciones potenciales que realmente existen en la red.
WIE: suma de las trayectorias más cortas entre todos los pares de nodos.
MOD: probabilidad de dividir una red en posibles conglomerados (es decir, subgrupos); dentro de un mismo subgrupo, hay gran interconexión de los nodos, pero entre un subgrupo y otro la interconexión es más débil. La MOD es una medición reticular de nivel local.
SAL: mide la influencia que tiene un solo nodo al generar retuits que difunden información. Calculamos toda la distribución de SAL y presentamos el valor más alto de todos los perfiles que retuitean dentro de una misma red.
INT: cuantifica la importancia del nodo en lo referente a la conectividad de la red. Cuanto mayor es INT, más importante es el nodo para mantener la estabilidad de la red. Exponemos el valor de INT más alto.
En resumen, con estos parámetros se caracterizaron detalladamente los diferentes aspectos de las redes a múltiples escalas, desde el nivel de red global (ALC, INF, DIA, VIR, DEN y WIE), pasando por el conglomerado local (MOD), hasta el nodo individual (SAL e INT). Aunque hay otras mediciones, estas nueve son especialmente críticas para la difusión de información desde el perfil de usuario que publica el tuit original a otros nodos de retuiteo dentro de la red.
Análisis reticulares y análisis estadísticos
Comparamos las mediciones reticulares entre los dos grupos mediante la prueba de Kolmogorov-Smirnov para detectar diferencias significativas en las distribuciones. Los datos los recuperamos, procesamos y reconstruimos con Python, versión 3.7.3® (Python Software Foundation, Beaverton, Oregón, Estados Unidos). Realizamos los análisis reticulares y estadísticos con R, versión 3.5.0® (R Foundation, Viena), con paquetes adicionales. Si se desean consultar, se pueden solicitar gratuitamente todos los datos y códigos de entrada.
RESULTADOS
En este estudio, prestamos atención a los tuits sobre el zika más populares. Definimos la popularidad como el número de veces que se retuitea un tuit. Consideramos que un tuit era popular si se retuiteaba al menos 50 veces. En nuestra muestra hay cerca de 5 000 tuits que superan esa cifra. De los 5 000 tuits sobre el zika más retuiteados en el 2016, detectamos un total de 400 que contenían información errónea y los verificamos. De ellos, 266 contenían suficientes metadatos para reconstruir la red de difusión. No todos los metadatos estaban disponibles: algunos se habían perdido porque Twitter había prohibido algunos perfiles o borrado algunos contenidos, o porque el usuario se había retractado de la publicación original, por diversas razones. El grupo de comparación (información verídica) está integrado por 458 tuits, publicados sobre las mismas fechas que los tuits con información errónea y retuiteados una cantidad de veces semejante. Para evitar un posible sesgo de selección, no hicimos una equiparación de los tuits verídicos uno a uno.
Variabilidad cronológica de la dinámica de difusión de información
Se observa una variabilidad cronológica sustancial en la dinámica de retuiteo entre el grupo de información errónea y el grupo información verídica (figura 1). La información errónea tardó significativamente menos tiempo en conseguir el 50% de todos los retuits (T50 = 334 min, información errónea; T50 = 448 min, información verídica; P < 0,001, prueba bilateral de la t). La diferencia es mínima cuando se tiene en cuenta el 75% de todos los retuits (T75 = 916 min, información errónea; T75 = 898 min, información verídica; P = 0,93). Curiosamente, a partir de ese momento, la información errónea siempre tarda significativamente más tiempo en conseguir el 90% de los retuits (T90 = 2 580 min, frente a T90 = 1 795 min; P = 0,03), 95% de los retuits (T95 = 4 739 min; frente a T95 = 2 824 min; P = 0,001) y todos los retuits (T100 = 34 869 min, frente a T100 = 22 340 min; P < 0,001). La información errónea consiguió al menos la mitad de todos los retuits en un período relativamente corto, para viralizarse más. Posteriormente, es posible que se la retuitee deliberadamente para mantener su visibilidad durante un período más prolongado. A partir de estas observaciones, elegimos el tiempo transcurrido hasta el último retuit para construir la red, ya que proporciona la visión más completa de la actividad de retuiteo.
Heterogeneidad cronológica del retuiteo en el grupo de información verídica y el de información errónea sobre el zika (2016)
Comparación de las mediciones reticulares entre los dos grupos
Reconstruimos las redes de retuiteo de cada tuit dentro del grupo de información verídica y el de información errónea. En la figura 2 se brindan ejemplos de estructuras reticulares dinámicas, tanto de la información errónea como de la verídica.
En el cuadro 1 se recogen las distribuciones de las mediciones reticulares importantes en ambos grupos. A efectos de la demostración, transformamos todas las mediciones a una escala de 0 a 1, mediante el escalado de atributos. En el cuadro 1 se recogen las estadísticas numéricas reales. Ninguna de estas distribuciones se aproxima a la normalidad, lo cual indica que tienen un alto índice de asimetría y curtosis, así como posible multimodalidad. Esto es señal de gran variabilidad intragrupal en las estructuras de las redes.
Todas las distribuciones de las mediciones reticulares difieren significativamente (P < 0,05) entre el grupo de información verídica y el de información errónea, según la prueba de Kolmogorov-Smirnov. Por lo tanto, las redes de información verídica y errónea presentan muchas heterogeneidades, tanto intragrupales como intergrupales.
La DEN es significativamente mayor en el grupo de información errónea, ya que los usuarios que retuitean tienden a retuitear información errónea si la tuitean o retuitean sus amigos (o los usuarios a los que siguen). Téngase en cuenta que esta es la red original de seguidores y seguidos a partir de la cual se infirió la red de difusión de información. En el apéndice B se detalla la diferencia y la relación entre estas dos redes. En el apéndice C se explica el motivo por el que usamos la red original solo para determinar la densidad.
Estadísticas relativas a las mediciones reticulares en el grupo de información errónea y el grupo de información verídica sobre el zika en Twitter (2016)
El DIA también es significativamente mayor en el grupo de información errónea. En general, cuanto menor es el diámetro, menos capas tiene que atravesar la información, en sentido periférico, hasta llegar al último usuario que la retuitea. La información errónea atrae a más usuarios de base, de forma consecutiva, mientras que la información verídica sigue una difusión más jerárquica, en forma de cascada.
La VIR, con la que se mide la longitud media de la trayectoria, también es significativamente más alta en el grupo de información errónea, lo cual indica que, en general, los nodos están más separados dentro la red. Este dato refuerza nuestra observación anterior de que la información errónea se difunde de usuario a usuario de forma más directa, o entre pequeños conglomerados, mientras que la información verídica sigue una difusión jerárquica, en capas.
La INF y el ALC son mediciones análogas, por cuanto el ALC se utilizó para medir usuarios individuales que retuitean. El ALC y la INF son significativamente más pequeños en el grupo de información errónea. Además, alrededor del 30% de los tuits con información errónea tenían un mismo nodo retuiteado al menos dos veces, cifra sustancialmente más alta que en el grupo de información verídica (<10%). Esto podría consistir en una estrategia de propagación intencional para difundir información errónea en las redes sociales. Sin embargo, el riesgo de tal estrategia es que Twitter la detecte y actúe. Por lo tanto, que varios perfiles retuiteen el mismo contenido juntos sería una forma más eficaz de difundir información errónea que retuitear el mismo contenido varias veces desde un mismo perfil.
Respecto al WIE, el grupo de información errónea presenta, por término medio, valores significativamente más bajos. Esto indica que las redes de retuiteo de información errónea pueden tener conglomerados locales con más forma de estrella, lo cual reduce el WIE. También concuerda con lo que ya habíamos observado antes: que la red de información errónea tiene más conglomerados locales y un valor MOD más alto. Sin embargo, este hallazgo parece contradecir la constatación anterior de que, por término medio, el DIA es en realidad más alto en el grupo de información errónea. La distribución real del WIE en el grupo de información errónea es la clave para resolver este dilema (cuadro 1). En el grupo de información errónea, la distribución de WIE tiene más de un pico prominente (es decir, es multimodal). Si bien algunas redes de información errónea sobre el zika tienen valores de WIE más bajos, otras tienen WIE muy altos. Desde la perspectiva real de propagación de la información errónea, esto significa que los propagadores explotan dos estrategias aparentemente divergentes: en primer lugar, utilizan una red asteriforme, con un WIE muy bajo (mucho menos frecuente en el grupo de información verídica); en segundo lugar, utilizan una red de difusión semejante a una cadena, con un WIE alto. Además, hay híbridos de estas estrategias para difundir la información errónea más lejos. Por ejemplo, algunos propagadores crean una ráfaga inicial de retuits, que aparecen como estrellas locales en la red, lo que atrae a más usuarios de base que adoptan la tendencia y retuitean uno tras otro. En cambio, no observamos una ordenación tan sofisticada en el grupo de información verídica.
A nivel de la red local, observamos una mayor modularidad en el grupo de información errónea, lo cual indica que los usuarios que la retuitearon formaron conglomerados locales más pequeños para difundirla. Por lo tanto, es más difícil atajar la información errónea sobre el zika con los métodos tradicionales de mitigación. Cuando hay varios conglomerados de menor tamaño, el riesgo de que desaparezcan algunos es menor, ya que otros conglomerados sirven como ruta alternativa. En comparación, el grupo de información verídica tiene una MOD más baja. En el grupo de información errónea, la MOD está más escorada hacia la izquierda que en el grupo de información verídica (cuadro 1).
A nivel de nodo, la distribución de SAL en el grupo de información errónea también tiene un patrón marcadamente multimodal, lo que indica que en muchos tuits con información errónea interviene un usuario con un grado de salida muy alto (puntuación de centralidad >200; cuadro 1), que puede actuar como perfil influyente o propagador en línea. Por otro lado, la distribución de SAL en el grupo de información verídica se asemeja a una distribución normal. En el grupo de información errónea, el SAL está más escorado hacia la derecha que en el grupo de información verídica. La inmensa mayoría de los usuarios del grupo de información errónea no influyeron en la transmisión de la información.
Respecto a la INT, los usuarios del grupo de información verídica con INT más altas tienen una puntuación significativamente más baja que en el grupo de información errónea (127 frente a 1.003). Por lo tanto, estos usuarios resultan más importantes en el grupo de información errónea que en el de información verídica para mantener la estabilidad de la red, ya que una INT alta indica un papel más relevante en la transmisión de información. Si bien es relativamente fácil identificar a los usuarios con mayor SAL, por su actividad superficial de atracción de gran cantidad de retuits, es mucho más difícil de detectar el usuario con INT más alta, a menos que se construya la red y se realicen cálculos de centralidad en relación con todos los nodos. No obstante, desde una perspectiva de mitigación de la información errónea, dirigirse a los usuarios con INT más altas puede ser una manera más eficaz de frenar e incluso desarticular por completo la propagación, en vez de actuar solo sobre los usuarios con SAL más altas.
En resumen, el grupo de información errónea presenta distribuciones distintas de todas las mediciones reseñadas, lo cual indica que sus redes de difusión tienen estructuras significativamente diferentes que las de la información verídica. La extracción de datos sobre las redes de difusión puede ayudar a los profesionales de la salud y al público general a comprender mejor cómo se difunde la información errónea sobre temas de salud. Además, se pueden usar estos indicadores cuantitativos en informática de la salud a fin de diseñar sistemas más precisos de infovigilancia y detección de información errónea.
DISCUSIÓN
Hemos elaborado un marco analítico para investigar la difusión de la información errónea sobre salud en las redes sociales. Aportamos una definición operativa de “información errónea sobre la salud” y construimos un algoritmo para rastrear explícitamente cómo se difunde dicha información en las redes sociales, siguiendo redes de retuiteo.
Es preciso señalar que nuestro conocimiento actual sobre temas de salud evoluciona a medida que disponemos de más evidencia clínica, epidemiológica y de otra índole: de ahí el concepto de “basado en la evidencia”. Los términos “información verídica” e “información errónea” deben emplearse con precaución, porque nuestras nociones actuales pueden demostrarse falsas en el futuro. Conviene tener en cuenta el momento en el que se produce la conversación, especialmente durante una crisis de salud emergente, como fue la epidemia del zika. Por ejemplo, observamos que The Economist, considerado una fuente fidedigna, tuiteó en diciembre del 2016 que el zika era inofensivo para los adultos, cuando ya había evidencia que demostraba claramente la relación causal entre la infección por el virus del zika y el síndrome de Guillain-Barré en adultos (posteriormente eliminaron ese tuit). Si el tuit hubiera aparecido a principios del 2016, cuando la relación causal aún no estaba probada, no se habría considerado información errónea. Como consecuencia, un aspecto importante que se desprende de este estudio es la necesidad de incrementar la alfabetización sobre la salud de la sociedad, de manera que las personas sepan comprobar la validez de la información y determinar cuándo es errónea, y actualicen con frecuencia sus conocimientos sobre los problemas de salud, en lugar de decir sencillamente que una información es verdadera o no.
Seguiremos investigando la actividad y los atributos de los usuarios para detectar bots y examinar su eficacia para difundir información verídica y errónea en las redes sociales. Sospechamos que la difusión de información verídica que mostramos como ejemplo (figura 2) fue facilitada por bots. Además, comprobamos la verificación de los usuarios y descubrimos que la proporción de usuarios verificados era pequeña. En el grupo de información verídica, el porcentaje de usuarios verificados es más alto que en el grupo de información errónea (2% frente al 1,2%). Esta observación coincide con otros estudios, en los que se aprecia una fuerte presencia en Twitter de agencias de noticias acreditadas y organismos de salud durante el brote del zika del 2016.
En este momento están realizándose otros estudios para investigar cómo se comportan los usuarios a lo largo del tiempo y cómo esa dinámica temporal revela la infiltración de información errónea. En este estudio, construimos la red G de un determinado tuit una vez concluido todo el retuiteo. La gran heterogeneidad cronológica observada, tanto intragrupal como intergrupal (figura 1), evidencia la capacidad de nuestro algoritmo de construir la red dinámica Gt en un momento dado t. Si detectamos un aumento repentino del retuiteo en el momento t, podemos construir una red específica del momento t, para determinar explícitamente qué usuario está causando la explosión de retuiteos, cuantificar las puntuaciones de centralidad del usuario y trabajar a nivel de nodo para abordar en mayor profundidad la epidemia de información errónea sobre la salud en las redes sociales.
Implicaciones para la salud pública
Este estudio proporciona evidencia sólida sobre los mecanismos de difusión de la información errónea sobre la salud en Twitter, una de las redes sociales más utilizadas. Nuestro marco analítico posee un desarrollo universal y sirve para explorar otros problemas de salud pública en las redes sociales. Por ejemplo, hemos estudiado la información errónea que circula sobre los organismos genéticamente modificados en Sina Weibo, la mayor red social de China. Con este marco también se están investigando otras cuestiones candentes que suscitan polémica, como la actual pandemia de COVID–19.
Otra implicación fundamental para la salud pública que tiene nuestro estudio es la posibilidad de conocer algunos atributos importantes de la información errónea de salud, imposibles de identificar directamente solo por su contenido. Hemos demostrado la importancia de tratar la información errónea (patógeno), los usuarios (huéspedes) y las redes sociales (entorno) como una entidad interconectada: la tríada infodemiológica. La información errónea, al igual que los patógenos reales, no circula sin dejar rastro. Este estudio nos ha permitido conocer mucho mejor las dinámicas de difusión de la información errónea. Además, el nutrido conjunto de datos puede servir, junto con otras características (p. ej., contenido, aspectos lingüísticos y datos de los perfiles), para crear un detector integral de información errónea sobre temas de salud. En trabajos posteriores, utilizaremos los métodos más avanzados de aprendizaje automático para crear un clasificador de este tipo, destinado a aplicaciones de salud pública.
Conclusiones
Hemos investigado cómo se difunde la información verídica y errónea por las redes sociales durante una emergencia de salud, desde la perspectiva de redes dinámicas. Descubrimos que los dos grupos siguen estructuras distintas, lo que indica que poseen diferentes patrones de difusión. Nuestro trabajo arroja luz sobre el desarrollo de detectores más precisos de información errónea.
Declaración
Las opiniones expresadas en este manuscrito son responsabilidad del autor y no reflejan necesariamente los criterios ni la política de la RPSP/PAJPH y/o de la OPS.
Este estudio ha contado con la beca Page Legacy Scholar del Arthur W. Page Center for Integrity in Public Communication, Donald P. Bellisario College of Communications (Universidad Estatal de Pensilvania). También ha sido posible gracias al período sabático para investigación y desarrollo concedido al personal docente por la Universidad de Elon.
- Contribución de los autoresQX, YG, SK y SC formularon la idea del estudio; AB recopiló los datos; LS y SC realizaron los análisis y redactaron el artículo; YG y SC supervisaron el proyecto; todos los autores han contribuido de forma sustancial al proyecto.
- Conflicto de interesesNinguno declarado por los autores.
REFERENCIAS
- 1.Zhao L, Chen F, Dai J, Hua T, Lu C-T, Ramakrishnan N. Unsupervised spatial event detection in targeted domains with applications to civil unrest modeling. PLoS One. 2014;9(10):e110206. https://doi.org/10.1371/journal.pone.0110206
» https://doi.org/10.1371/journal.pone.0110206 - 2.Pew Research Center. Social media fact sheet. 2019. Disponible en: https://www.pewresearch.org/internet/fact-sheet/social-media Consultado el 15 de enero del 2020.
» https://www.pewresearch.org/internet/fact-sheet/social-media - 3.Seymour B, Getman R, Saraf A, Zhang LH, Kalenderian E. When advocacy obscures accuracy online: digital pandemics of public health misinformation through an antifluoride case study. Am J Public Health. 2015;105(3):517-523. https://doi.org/10.2105/AJPH.2014.302437
» https://doi.org/10.2105/AJPH.2014.302437 - 4.Broniatowski DA, Jamison AM, Qi S, et al. Weaponized health communication: Twitter bots and Russian trolls amplify the vaccine debate. Am J Public Health. 2018;108(10):1378-1384. https://doi.org/10.2105/AJPH.2018.304567
» https://doi.org/10.2105/AJPH.2018.304567 - 5.Dhaliwal D, Mannion CA. Anti-vaccine Messages on Facebook: A Preliminary Audit. Undergraduate Research Report. Universidad de Calgary; 2019.
- 6.Jamison AM, Broniatowski DA, Dredze M, Wood Doughty Z, Khan D, Quinn SC. Vaccine-related advertising in the Facebook ad archive. Vaccine. 2020;38(3):512-520. https://doi.org/10.1016/j.vaccine.2019.10.066
» https://doi.org/10.1016/j.vaccine.2019.10.066 - 7.Sharma M, Yadav K, Yadav N, Ferdinand KC. Zika virus pandemic-analysis of Facebook as a social media health information platform. Am J Infect Control. 2017;45(3):301-302. https://doi.org/10.1016/j.ajic.2016.08.022
» https://doi.org/10.1016/j.ajic.2016.08.022 - 8.Albarracin D, Romer D, Jones C, Hall Jamieson K, Jamieson P. Misleading claims about tobacco products in YouTube videos: experimental effects of misinformation on unhealthy attitudes. J Med Internet Res. 2018;20(6):e229. https://doi.org/10.2196/jmir.9959
» https://doi.org/10.2196/jmir.9959 - 9.Chou WY, Prestin A, Lyons C, Wen KY. Web 2.0 for health promotion: reviewing the current evidence. Am J Public Health. 2013;103(1):e9-e18. https://doi.org/10.2105/AJPH.2012.301071
» https://doi.org/10.2105/AJPH.2012.301071 - 10.Lowry M, Fouse D. Communicating research in an era of misinformation. Am J Public Health. 2019;109(5):645. https://doi.org/10.2105/AJPH.2019.305048
» https://doi.org/10.2105/AJPH.2019.305048 - 11.Signorini A, Segre AM, Polgreen PM. The use of Twitter to track levels of disease activity and public concern in the US during the influenza A H1N1 pandemic. PLoS One. 2011;6(5):e19467. https://doi.org/10.1371/journal.pone.0019467
» https://doi.org/10.1371/journal.pone.0019467 - 12.Bail CA. Emotional feedback and the viral spread of social media messages about autism spectrum disorders. Am J Public Health. 2016;106(7):1173-1180. https://doi.org/10.2105/AJPH.2016.303181
» https://doi.org/10.2105/AJPH.2016.303181 - 13.Colditz JB, Chu K-H, Emery SL, et al. Toward real-time infoveillance of Twitter health messages. Am J Public Health. 2018;108(8):1009-1014. https://doi.org/10.2105/AJPH.2018.304497
» https://doi.org/10.2105/AJPH.2018.304497 - 14.Safarnejad L, Ge Y, Xu Q, Chen S. Event Periscope: a novel pipeline to analyze impact of real-world events on Twitter discussions. Ponencia presentada en: International Conference on Social Computing, Behavior-Cultural Modeling and Prediction and Behavior Representation in Modeling and Simulation; del 9 al 12 de julio del 2019; Washington, D.C.
- 15.Vraga EK, Bode L. I do not believe you: how providing a source corrects health misperceptions across social media platforms. Inf Commun Soc. 2018;21(10):1337-1353. https://doi.org/10.1080/1369118X.2017.1313886
» https://doi.org/10.1080/1369118X.2017.1313886 - 16.Gesser-Edelsburg A, Diamant A, Hijazi R, Mesch GS. Correcting misinformation by health organizations during measles outbreaks: a controlled experiment. PLoS One. 2018;13(12):e0209505. https://doi.org/10.1371/journal.pone.0209505
» https://doi.org/10.1371/journal.pone.0209505 - 17.Gough A, Hunter RF, Ajao O, et al. Tweet for behavior change: using social media for the dissemination of public health messages. JMIR Public Health Surveill. 2017;3(1):e14. https://doi.org/10.2196/publichealth.6313
» https://doi.org/10.2196/publichealth.6313 - 18.Park A, Bowling J, Shaw G Jr, Li C, Chen S. Adopting social media for improving health: opportunities and challenges. N C Med J. 2019;80(4):240-243. https://doi.org/10.18043/ncm.80.4.240
» https://doi.org/10.18043/ncm.80.4.240 - 19.Bode L, Vraga EK. See something, say something: correction of global health misinformation on social media. Health Commun 2018;33(9):1131-1140. https://doi.org/10.1080/10410236.2017.1331312
» https://doi.org/10.1080/10410236.2017.1331312 - 20.Pramanik S, Wang Q, Danisch M, Guillaume J-L, Mitra B. Modeling cascade formation in Twitter amidst mentions and retweets. Soc Netw Anal Min. 2017;7(1):41. https://doi.org/10.1007/s13278-0170462-1
» https://doi.org/10.1007/s13278-0170462-1 - 21.Liang H, Fung IC-H, Tse ZTH, et al. How did Ebola information spread on Twitter: broadcasting or viral spreading? BMC Public Health. 2019;19(1):438. https://doi.org/10.1186/s12889-019-6747-8
» https://doi.org/10.1186/s12889-019-6747-8 - 22.Zhang Q, Zhang S, Dong J, Xiong J, Cheng X. Automatic detection of rumor on social network. En: Li J, Ji H, Zhao D, Feng Y (eds). Natural Language Processing and Chinese Computing. Cham (Suiza): Springer; 2015:113-122. https://doi.org/10.1007/978-3-319-252070_10
» https://doi.org/10.1007/978-3-319-252070_10 - 23.Hamidian S, Diab M. Rumor identification and belief investigation on Twitter. En: Proceedings of the 7th Workshop on Computational Approaches to Subjectivity, Sentiment and Social Media Analysis. San Diego (California): Association for Computational Linguistics; 2016. https://doi.org/10.18653/v1/W16-0403
» https://doi.org/10.18653/v1/W16-0403 - 24.Thakur HK, Gupta A, Bhardwaj A, Verma D. Rumor detection on Twitter using a supervised machine learning framework. Int J Inf Retr Res. 2018;8(3):1-13. https://doi.org/10.4018/IJIRR.2018070101
» https://doi.org/10.4018/IJIRR.2018070101 - 25.Jin F, Wang W, Zhao L, et al. Misinformation propagation in the age of Twitter. IEEE Computer. 2014;47(12):90-94. https://doi.org/10.1109/MC.2014.361
» https://doi.org/10.1109/MC.2014.361 - 26.Søe SO. Algorithmic detection of misinformation and disinformation: Gricean perspectives. J Doc. 2018;74(2):309-332. https://doi.org/10.1108/JD-05-20170075
» https://doi.org/10.1108/JD-05-20170075 - 27.Yu F, Liu Q, Wu S, Wang L, Tan T. A convolutional approach for misinformation identification. En: Proceedings of the Twenty-Sixth International Joint Conference on Artificial Intelligence. International Joint Conferences on Artificial Intelligence; 2017. https://doi.org/10.24963/ijcai.2017/545
» https://doi.org/10.24963/ijcai.2017/545 - 28.Ghenai A, Mejova Y. Catching Zika fever: application of crowdsourcing and machine learning for tracking health misinformation on Twitter. Ponencia presentada en: 5th IEEE International Conference on Healthcare Informatics; del 23 al 26 de agosto del 2017; Park City (Utah):518.
- 29.Castillo C, Mendoza M, Poblete B. Information credibility on Twitter. En: Proceedings of the 20th International Conference on World Wide Web. Nueva York: Association for Computing Machinery; 2011. https://doi.org/10.1145/1963405.1963503
» https://doi.org/10.1145/1963405.1963503 - 30.Jain S, Sharma V, Kaushal R. Towards automated real-time detection of misinformation on Twitter. Artículo presentado en: 2016 International Conference on Advances in Computing, Communications and Informatics (ICACCI); del 21 al 24 de septiembre del 2016; Jaipur (India). https://doi.org/10.1109/ICACCI.2016.7732350
» https://doi.org/10.1109/ICACCI.2016.7732350 - 31.Qi S, Al Kulaib L, Broniatowski DA. Detecting and characterizing bot-like behavior on Twitter. Artículo presentado en: International Conference on Social Computing, Behavioral-Cultural Modeling and Prediction and Behavior Representation in Modeling and Simulation; del 10 al 13 de julio del 2018; Washington, D.C. https://doi.org/10.1007/978-3-319-93372-6_26
» https://doi.org/10.1007/978-3-319-93372-6_26 - 32.Wang Y, Ma F, Jin Z, et al. Eann: Event adversarial neural networks for multi-modal fake news detection. En: Proceedings of the 24th ACM SIGKDD International Conference on Knowledge Discovery & Data Mining. Londres: Association for Computing Machinery; 2018.
- 33.Chadwick A, Vaccari C. News sharing on UK social media: misinformation, disinformation, and correction. Loughborough (Reino Unido): Loughborough University; 2019.
- 34.Chou WS, Oh A, Klein WMP. Addressing health related misinformation on social media. JAMA. 2018;320(23):2417-2418. https://doi.org/10.1001/jama.2018.16865
» https://doi.org/10.1001/jama.2018.16865 - 35.Wu L, Liu H. Tracing fake-news footprints: characterizing social media messages by how they propagate. En: Proceedings of the Eleventh ACM International Conference on Web Search and Data Mining. Nueva York: Association for Computing Machinery; 2018. https://doi.org/10.1145/3159652.3159677
» https://doi.org/10.1145/3159652.3159677
Fechas de Publicación
- Publicación en esta colección
28 Mayo 2021 - Fecha del número
2021
Histórico
- Acepto
16 Jun 2020