Todos podemos creer mentiras, pero hay algunos que es más fácil que lo hagan, como los que no tienen una mentalidad abierta y reflexiva o quienes consumen y difunden noticias falsas.
En un escrito anterior había dicho que las noticias falsas no es un fenómeno nuevo, pero ha habido una mayor preocupación por su aumento y el impacto que se ha documentado. Tendemos a creer en mentiras porque cuando nos repiten algo muchas veces nos llega a ser tan familiar que comenzamos a creer que eso es verdadero, muy probablemente porque la familiaridad lleva a la fluencia o facilidad para procesar algo; solemos buscar evidencia, pero sobre todo para confirmar lo que creemos; con esa evidencia armamos historias que pueden ser coherentes con nuestras creencias, aunque no sean verdaderas, y solemos buscar evidencias en lugares y personas que son de nuestra confianza, aunque no sean necesariamente verdad lo que dicen.
A lo anterior habría que añadir dos datos más. Todos podemos creer mentiras, pero hay unas personas que es más fácil que lo hagan; en primer lugar, estarían aquellos que no tienen una mentalidad abierta y reflexiva.1 En segundo lugar, quienes consumen y difunden noticias falsas son realmente muy pocos, mayores de edad y de ideología de derecha (por lo menos en Estados Unidos); el 1 % de las personas consume 80% de las noticias falsas y sólo .1% comparte 80% de esas noticias.2
La impresión que deja esta historia que les estoy contando es negativa: todas las veces que he abordado el punto de convencer a la gente de que tiene ideas equivocadas los datos indican que en vez de convencerlos los haría que se aferraran más a sus ideas equivocadas. Hemos visto que las correcciones no eliminan la influencia de la información falsa, que la corrección solamente sirve si viene de una fuente en la que se confía, aunque diga mentiras o que si está inscrita dentro de una historia es más probable que confiemos en ella, aunque nos estén contando mentiras. Pero hay investigaciones que corrigen o complementan los anteriores estudios y que se pueden usar para desmentir.
Tendemos a creer en mentiras porque cuando nos repiten algo muchas veces nos llega a ser tan familiar que comenzamos a creer que eso es verdadero, muy probablemente porque la familiaridad lleva a la fluencia o facilidad para procesar algo.
Pero empecemos antes con cosas simples. No se deben usar palabras demasiado complejas, porque se ha encontrado3 que a más complejidad menor aceptación de lo que se dice. Es también conveniente utilizar imágenes porque se ha demostrado4 que las fotos hacen un sesgo de “verdad” aunque no prueben nada. Y como nunca está de más ser un poco desconfiado, promover el pensamiento crítico es también una buena sugerencia, así lo sugiere un estudio5 que investigó a un grupo de sujetos a los que se les dijo que iban a ser elegidos como jurados y que si, basándose en la información que tenía de la prensa, meterían a la cárcel a un acusado. Después, ya al ser jurado, se les dijo que pensaran sobre los motivos por los cuales la prensa había dado esa información, sugiriéndoles que podía estar sesgada. Eso hizo que fueran desconfiados sobre esa información que habían leído en los diarios y bajó su pretensión de encarcelar al acusado.
Habíamos hablado en el artículo anterior de algo que se conoce como el efecto boomerang, que consiste en que si alguien tiene una creencia falsa y le presentas información que la corrige, no va a cambiar su creencia, sino que se le va a reforzar; este efecto fue reportado6 cuando les presentaron a sus sujetos de investigación información que corregía la creencia de que había armas de destrucción masiva en Irak; cuando esa información fue presentada a personas liberales, esa creencia disminuyó, pero si era un conservador, esa creencia aumentó.
Basados en ese hallazgo, se preguntaron: ¿Cuál sería la mejor manera de diseñar un mensaje para eliminar la creencia en las mentiras? Para ello eligieron trabajar con el asunto de las vacunas y su supuesta relación con el autismo. A sus sujetos, padres de familia, los pusieron en cuatro condiciones: una en la que se les explicaba que no había evidencia de que las vacunas causaran autismo; otra en la que se les daban datos de los peligros de no vacunar a sus hijos; una tercera en la que les mostraban imágenes de niños con una enfermedad por no haber sido vacunados, y la cuarta con una narrativa dramática de un niño que murió de la enfermedad. Lo que encontraron es que sólo las imágenes y la narrativa bajaron algo la creencia de que las vacunas causan autismo y por ello terminan sugiriendo que, para la promoción de las vacunas, se debería de usar menos datos y más imágenes y narrativas.7
Otra sugerencia que realizan es usar la identidad de los grupos,8 ya que encontraron que el apoyo a las políticas de mitigación del cambio climático puede verse modificada dependiendo de si a los sujetos se les presentan víctimas del cambio climático con las que se puedan identificar o no. Si se es demócrata y se les presentan sujetos con los que tienen poca o mucha distancia social en cualquiera de las opciones aumenta su apoyo a las políticas de mitigación del cambio climático. Lo contrario pasa con los republicanos, si hay mucha distancia social van a tener un efecto boomerang mayor que si hay una distancia social menor.
Este efecto boomerang ha sido muy cuestionado. En un estudio se trabajó con más de 10,100 sujetos y probaron 52 problemas de posibles efectos contraproducentes. En todos los experimentos no encontraron un efecto contraproducente, a pesar de probar precisamente los tipos de problemas polarizados en los que se debe esperar un efecto contraproducente. En general, los ciudadanos prestan atención a la información fáctica, incluso cuando esa información desafía sus compromisos ideológicos. Es decir, somos resistentes a los hechos, pero no inmunes.9
Quienes defienden la existencia del efecto boomerang dicen que lo que explica este efecto es que, al hablar de una mentira para desmentirla, se aumenta la familiaridad de la información y por ello se refuerza la mentira. Para poner a prueba esa hipótesis se realizó un experimento10 y se encontró que no es así. Hallaron que, en cuatro diferentes condiciones, el número de inferencias que se realizan basados en la falsa creencia es más o menos el mismo.
De hecho, se ha encontrado precisamente lo contrario del efecto boomerang11 cuando trabajaron con diferentes niveles de recuerdo de la mentira, desde la sutil hasta la completamente explícita, y hallaron que recordar la mentira aumenta la efectividad de la retractación, probablemente porque aumenta su saliencia. La conclusión de éste y otros trabajos12 es que las personas no son invulnerables a la información fáctica, sino que se vuelven más precisos y que, aunque las correcciones no eliminan las creencias falsas, reducen la proporción de errores entre los sujetos casi a la mitad.
Así, somos resistentes a los hechos, pero no inmunes. Y a veces sí importa lo que se dice. Por ejemplo, se investigó si los participantes en un estudio reducían su apoyo cuando la prevalencia de la información falsa diseminada por políticos era muy alta en comparación con declaraciones verdaderas; los resultados indican que cuando hubo corrección de información falsa en el caso de que el político hubiera dicho muchísimas mentiras los sujetos reducían tanto su creencia en las mentiras como también sus sentimientos a favor del político.13
Otra forma que se ha investigado para que las personas dejen de compartir información falsa es utilizando un simple recordatorio de precisión al comienzo de la lectura de un texto, es decir, pedírsele a las personas que juzguen la precisión de un titular.
Una consecuencia de aceptar que las personas pueden decirnos mentiras y reducir el apoyo que le damos es que se van a dejar de compartir lo que nos llega de ese sujeto, o bien se va a dejar de comprar lo que nos vende esa compañía; en ese sentido, un estudio14 investigó la información errónea sobre la vitamina E como un remedio para la prevención y el tratamiento del covid–19. Hallaron que las refutaciones que siguen las pautas de los resultados de las investigaciones psicológicas (las refutaciones deben de venir de una fuente confiable, resaltar la discrepancia entre información fáctica y falsa, explicar por qué la información es falsa y llamar la atención hacia las estrategias engañosas que se usan para decir mentiras) son más eficaces que las refutaciones empleadas por las autoridades sanitarias o los medios de comunicación, lo que reduce tanto la demanda del producto como la propensión a compartir información errónea.
Otra forma que se ha investigado para que las personas dejen de compartir información falsa es utilizando un simple recordatorio de precisión al comienzo de la lectura de un texto, es decir, pedírsele a las personas que juzguen la precisión de un titular. En el caso del estudio15 era con respecto al covid–19; esta petición aumentó la intensión de compartir noticias verdaderas. También se puede reducir la intensión de compartir información imprecisa, marcando las noticias como falsas,16 aunque es curioso que muchos de los sujetos creían que otros son los que iban a terminar compartiendo ese tipo de información (se le llama efecto tercera persona).
Uno supondría que las personas deberían de hacer caso a los expertos, pues a fin de cuentas han dedicado mucho tiempo y esfuerzo a ser buenos en un área especializada; pero hemos visto que los sujetos tienen una relación ambigua con los expertos: se le tiene desconfianza a las agencias gubernamentales (en la pandemia al CDC en Estados Unidos y a la Dirección de innovación y vigilancia y control de enfermedades infecciosas en México —léase Gatell) y se cree más en fuentes que sean de confianza, sin importar si son expertas o no. Abonando más en este sentido, en 2013 se publicó una investigación17 en la que los resultados sugieren que las personas pueden reducir el uso de la información original si reciben una corrección de una personas que se considera altamente confiable, aunque no sea un experto. Pero a veces sí importa ser un experto:18 si la corrección la hace otra persona sí influye, pero poco en la creencia de una información errónea; pero si la hace una institución de expertos se observó un mayor cambio. Curiosamente encontraron que lo mejor era que primero lo corrigiera otro usuario de la misma plataforma en donde encontró la información incorrecta y que después lo hiciera la institución.
También se puede utilizar dos tipos más de técnicas para ayudar a las personas a detectar y procesar las mentiras, sobre todo en los anuncios que tratan de no parecer anuncios, por ejemplo, dentro de los noticieros. Ésas dos técnicas son, en primer lugar, la inoculación que consta de advertir a un individuo de un intento de persuasión, y la segunda es la refutación preventiva en la cual se ofrecen argumentos antes de que los sujetos sean expuestos a los argumentos persuasivos. La primera ayuda sobre todo a reconocer mentiras y la segunda a contra–argumentar.19
En el caso de la inoculación contra la desinformación, se expone a las personas a una versión debilitada de los argumentos engañosos para que desarrollen resistencia y estén mejor preparados para resistir la información falsa en el futuro.
Con respecto a la inoculación, se le define como una estrategia para prevenir el impacto negativo de la desinformación al exponer a las personas a una versión debilitada de los argumentos engañosos. En otras palabras, se trata de proporcionar a las personas información precisa y contrarrestar los argumentos engañosos de manera anticipada, antes de que sean expuestas a ellos en contextos donde puedan ser más persuasivos. Los autores comparan la inoculación con la vacunación, en la que se administra una versión debilitada de un virus para estimular el sistema inmunológico a desarrollar resistencia a la versión completa del virus. En el caso de la inoculación contra la desinformación, se expone a las personas a una versión debilitada de los argumentos engañosos para que desarrollen resistencia y estén mejor preparados para resistir la información falsa en el futuro.
Como ya lo mencionamos antes, hay estudios que ya han trabajado el tema del consenso y habían encontrado que al decirles a las personas que hay acuerdo entre los especialistas suelen interpretarlo como conspiración y, por lo tanto, su creencia en la ciencia y los científicos baja. Sin embargo, se puede inocular a las personas diciéndoles que hay consenso en la comunidad científica20 y no lo van a tomar a mal, porque la búsqueda de consenso es una estrategia que la mayoría de las personas usa para tomar decisiones en problemas sociales, políticos o de salud. En el estudio encontraron que inocular a las personas, sobre todo entre más información se les dé, más van a estar protegidos de un contra–mensaje que critica el consenso en el tema del cambio climático.
La segunda técnica, la refutación preventiva, hace uso de la argumentación. Estrategias efectivas de contra–argumentación son las siguientes21 en el caso de las vacunas; primero, hay cinco tópicos recurrentes que los antivacunas suelen esgrimir: amenaza de enfermedad, seguridad, alternativas, confianza y efectividad, y suelen usar cinco técnicas argumentativas como selectividad, expectativa imposible, teorías de la conspiración, falsa lógica y uso de expertos falsos.
Cada una de ellas significa lo siguiente:22 teorías de la conspiración (si hay consenso es porque todos se pusieron de acuerdo para engañarnos); expertos falsos (individuos que dicen ser expertos en un área particular, pero cuyos puntos de vista son inconsistentes con el conocimiento establecido); selectividad (toman un artículo aislado que desafía el consenso dominante o bien destacan las debilidades de una investigación mal hecha y lo utilizan como un medio para desacreditar todo un campo completo); expectativas imposibles (es una petición que va más allá de lo que la investigación puede dar, por ejemplo termómetros antes de que se inventaran o aumentar la fuerza de las pruebas estadísticas para establecer causación); falacias lógicas (por ejemplo, como que Hitler apoyó las campañas antitabaco, entonces todo el que apoya este tipo de campañas es nazi; se suelen usar cortinas de humo, hombres de paja, falsas analogías o el principio del tercero excluido, particularmente la exclusión de términos medios, lo que significa que una afirmación es verdadera o falsa y que no hay término medio entre ser verdadero y ser falso).
Se suele usar textos con argumentos para convencer a las personas de que dejen de creer en una mentir, pero los textos refutacionales (aquellos que plantean primero una información errónea y que después pasa a refutarla directamente al proveer ideas científicamente aceptadas) no son suficientes para el cambio conceptual.
Según un estudio,23 la cantidad y calidad de los argumentos utilizados influyen en la capacidad de persuadir a las personas para que dejen de creer en mentiras. En particular, se ha demostrado que presentar cuatro o seis argumentos en lugar de sólo dos resulta en una reducción mayor de la creencia en las mentiras. Cabe destacar que este efecto no se debe únicamente al número de contra–argumentos utilizados, ya que incluso varios contra–argumentos irrelevantes no lograron reducir la creencia en las mentiras. De hecho, algunos argumentos moderadamente persuasivos también resultaron ineficaces.
Comúnmente, se suele usar textos con argumentos para convencer a las personas de que dejen de creer en una mentir, pero los textos refutacionales (aquellos que plantean primero una información errónea y que después pasa a refutarla directamente al proveer ideas científicamente aceptadas) no son suficientes para el cambio conceptual; necesitan ser discutidos y guiados, de preferencia por un profesor.24
Para convencer a las personas también hay que saber con quién se está hablando. Ya anteriormente habíamos reseñado la investigación que habían encontrado que entre más distancia social menos identificación y más efecto boomerang. Esa poca o mucha distancia social pueden ser cosas como similitudes demográficas, étnicas, de género, edad, nacionalidad o que sean grupos de riesgo.25 Además, contrario a lo que suele pensarse, los grupos no siempre polarizan, lo cual fue demostrado26 cuando se les preguntó a los sujetos cuestiones que fomentaban sesgos partidistas, antes y después de ver lo que decían sus pares en una red social políticamente homogénea. Se encontró que hay un incremento en la precisión y una reducción de la polarización probablemente porque los que están en la verdad no se mueven y jalan al grupo hacia la moderación.
También la tecnología y las redes sociales pueden ser usados, ya no para la diseminación de las mentiras, sino para hablar de la verdad. Por ejemplo, se puede usar videojuegos, como lo demostraron en una investigación27 en la que los sujetos jugaban a ser el que hace las noticias falsas, mediante seis técnicas: polarización, invocar emociones, difundir teorías de conspiración, trolear personas en línea, desviando la culpa y cuentas falsas. La capacidad de las personas para detectar y resistir la información errónea mejoró después del juego, independientemente de la educación, edad, ideología política y estilo cognitivo. También comprobaron que ese efecto duró una buena cantidad de tiempo, al menos durante tres meses.28
La corrección también la puede hacer un algoritmo; se ha visto29 que usar una simulación de Facebook es efectiva en limitar las malas percepciones sobre la enfermedad del sika. Al ser una de las estrategias esenciales lo que se conoce como lectura lateral, que consiste en salir de la página y checar su validez en otras páginas. Esto lo investigaron30 con estudiantes de licenciatura, profesores universitarios y fact–checkers; los dos primeros creyeron fácilmente en sitios con logos y nombres que parecen válidos, mientras que los revisadores de hechos dejan el sitio después de una revisión rápida y abren una nueva página para juzgar la credibilidad del sitio original y llegan a una buena evaluación en una fracción de tiempo. Esta lectura lateral también se puede hacer dentro del mismo Facebook;31 usaron una función de Facebook en la que, al haber una información incorrecta se agrega una liga con una historia que la corrige, lo cual cambia la información falsa y las actitudes que se tienen al respecto.
¿Cómo se puede fomentar el potencial positivo de la web? Hay al menos cuatro áreas en las que se puede trabajar: en leyes y ética fomentando regulaciones y guías éticas; en el plano tecnológico con programas que detecten material dañino y arquitecturas de elección con diseño ético; en la educación fomentando la literacidad digital, y en el ámbito de las ciencias sociales y la psicología.
Otra de las redes sociales que se pueden usar para desmentir información incorrecta es Instagram. Esto quedó en evidencia cuando se usaron cuatro estrategias que son antes y después de la exposición a la mentira y enfocarse a la lógica o a los datos de la mentira. Aunque todas las estrategias sirvieron, fue más convincente la de la lógica que la de los hechos, porque corrigió antes y después, mientras que la otra sólo sirvió antes.32
Una limitante de estos estudios es que a los participantes a veces no se les deja navegar en la red, pero si se les deja hacerlo reproducen menos información errónea y contestan más información correcta, por lo que es probable que se esté sobre–estimando las veces que las personas creen en noticias falsas.33
Llegamos ya con todo esto al final, y nos hemos dado cuenta de que la opinión pública está formada en gran parte por el contenido en línea, difundido a través de las redes sociales. También hemos visto que esas redes sociales están diseñadas para capturar la atención, manipular y difundir información falsa. Son opacas en la medida en que la información con la que nos manipulan proviene de muy lejos en el pasado, tomada de todo el colectivo de personas que nos rodean y que son muchas más de las que pensamos, y si son inferidas y no dadas por nosotros.34
¿Cómo se puede fomentar el potencial positivo de la web? Hay al menos cuatro áreas en las que se puede trabajar: en leyes y ética fomentando regulaciones y guías éticas; en el plano tecnológico con programas que detecten material dañino y arquitecturas de elección con diseño ético; en la educación fomentando la literacidad digital, y en el ámbito de las ciencias sociales y la psicología, particularmente en esta última con herramientas cognitivas: nudges (empujones), esto significa que se pueden hacer intervenciones en las arquitecturas de la información para que las personas actúen de manera predecible, por ejemplo el uso de los defaults. Los boost (estimulaciones) son intervenciones cognitivas que pretenden mejorar las competencias cognitivas y emocionales, por ejemplo, con reglas simples que fomenten el razonamiento en línea. Y la tecnocognición, que son intervenciones tecnológicas que estén cognitivamente inspiradas, por ejemplo, introducir fricción para que no se comparta tan fácil un material ofensivo.35 ®
Bibliografía
- Pennycook, G., & Rand, D. G. (2020). Who falls for fake news? The roles of bullshit receptivity, overclaiming, familiarity, and analytic thinking. Journal of personality, 88(2), 185–200.
- Grinberg, N., Joseph, K., Friedland, L., Swire–Thompson, B., & Lazer, D. (2019). Fake news on Twitter during the 2016 US presidential election. Science, 363(6425), 374–378.
- Oppenheimer, D. M. (2006). Consequences of erudite vernacular utilized irrespective of necessity: Problems with using long words needlessly. Applied Cognitive Psychology: The Official Journal of the Society for Applied Research in Memory and Cognition, 20(2), 139–156.
- Newman, E. J., Garry, M., Bernstein, D. M., Kantner, J., & Lindsay, D. S. (2012). Nonprobative photographs (or words) inflate truthiness. Psychonomic Bulletin & Review, 19, 969–974.
- Fein, S., McCloskey, A. L., & Tomlinson, T. M. (1997). Can the jury disregard that information? The use of suspicion to reduce the prejudicial effects of pretrial publicity and inadmissible testimony. Personality and Social Psychology Bulletin, 23(11), 1215–1226.
- Nyhan, B., & Reifler, J. (2010). When corrections fail: The persistence of political misperceptions. Political Behavior, 32(2), 303–330.
- Nyhan, B., Reifler, J., Richey, S., & Freed, G. L. (2014). Effective messages in vaccine promotion: a randomized trial. Pediatrics, 133(4), e835–e842
- Hart, P. S., & Nisbet, E. C. (2012). Boomerang effects in science communication: How motivated reasoning and identity cues amplify opinion polarization about climate mitigation policies. Communication research, 39(6), 701–723.
- Wood, T., & Porter, E. (2019). The elusive backfire effect: Mass attitudes’ steadfast factual adherence. Political Behavior, 41(1), 135–163.
- Ecker, U. K., Lewandowsky, S., & Chadwick, M. (2020). Can corrections spread misinformation to new audiences? Testing for the elusive familiarity backfire effect. Cognitive Research: Principles and Implications, 5(1), 1–25.
- Ecker, U. K., Hogan, J. L., & Lewandowsky, S. (2017). Reminders and repetition of misinformation: Helping or hindering its retraction? Journal of Applied Research in Memory and Cognition, 6(2), 185–192.
- Porter, E., & Wood, T. J. (2019). False alarm: The truth about political mistruths in the Trump era. Cambridge University Press.
- Swire–Thompson, B., Ecker, U. K., Lewandowsky, S., & Berinsky, A. J. (2020). They might be a liar but they’re my liar: Source evaluation and the prevalence of misinformation. Political Psychology, 41(1), 21–34.
- MacFarlane, D., Tay, L. Q., Hurlstone, M. J., & Ecker, U. K. (2021). Refuting spurious COVID–19 treatment claims reduces demand and misinformation sharing. Journal of Applied Research in Memory and Cognition, 10(2), 248–258.
- Pennycook, G., McPhetres, J., Zhang, Y., Lu, J. G., & Rand, D. G. (2020). Fighting COVID–19 misinformation on social media: Experimental evidence for a scalable accuracy–nudge intervention. Psychological Science, 31(7), 770–780.
- Mena, P. (2020). Cleaning up social media: The effect of warning labels on likelihood of sharing false news on Facebook. Policy & Internet, 12(2), 165–183.
- Guillory, J. J., & Geraci, L. (2013). Correcting erroneous inferences in memory: The role of source credibility. Journal of Applied Research in Memory and Cognition, 2(4), 201–209.
- Vraga, E. K., & Bode, L. (2017). Using expert sources to correct health misinformation in social media. Science Communication, 39(5), 621–645.
- Amazeen, M. A. (2021). Resisting covert persuasion in digital news: Comparing inoculation and reactance in the processing of native advertising disclosures and in article engagement intentions. Journalism & Mass Communication Quarterly, 98(4), 1129–1156.
- Van der Linden, S., Leiserowitz, A., Rosenthal, S., & Maibach, E. (2017). Inoculating the public against misinformation about climate change. Global Challenges, 1(2), 1600008.
- Schmid, P., & Betsch, C. (2019). Effective strategies for rebutting science denialism in public discussions. Nature Human Behaviour, 3(9), 931–939.
- Diethelm, P., & McKee, M. (2009). Denialism: what is it and how should scientists respond? The European Journal of Public Health, 19(1), 2–4.
- Ecker, U. K., Lewandowsky, S., Jayawardana, K., & Mladenovic, A. (2019). Refutations of equivocal claims: No evidence for an ironic effect of counterargument number. Journal of Applied Research in Memory and Cognition, 8(1), 98–107.
- Guzzetti, B. J. (2000). Learning counter–intuitive science concepts: What have we learned from over a decade of research?. Reading & Writing Quarterly, 16(2), 89–98.
- Durantini, M. R., Albarracin, D., Mitchell, A. L., Earl, A. N., & Gillette, J. C. (2006). Conceptualizing the influence of social agents of behavior change: A meta–analysis of the effectiveness of HIV–prevention interventionists for different groups. Psychological Bulletin, 132(2), 212.
- Becker, J., Porter, E., & Centola, D. (2019). The wisdom of partisan crowds. Proceedings of the National Academy of Sciences, 116(22), 10717–10722.
- Roozenbeek, J., & Van der Linden, S. (2019). Fake news game confers psychological resistance against online misinformation. Palgrave Communications, 5(1), 1–10.
- Maertens, R., Roozenbeek, J., Basol, M., & van der Linden, S. (2021). Long–term effectiveness of inoculation against misinformation: Three longitudinal experiments. Journal of Experimental Psychology: Applied, 27(1), 1.
- Bode, L., & Vraga, E. K. (2018). See something, say something: Correction of global health misinformation on social media. Health Communication, 33(9), 1131–1140.
- Wineburg, S., & McGrew, S. (2019). Lateral reading and the nature of expertise: Reading less and learning more when evaluating digital information. Teachers College Record, 121(11), 1–40.
- Bode, L., & Vraga, E. K. (2015). In related news, that was wrong: The correction of misinformation through related stories functionality in social media. Journal of Communication, 65(4), 619–638.
- Vraga, E. K., Kim, S. C., Cook, J., & Bode, L. (2020). Testing the effectiveness of correction placement and type on Instagram. The International Journal of Press/Politics, 25(4), 632–652.
- Donovan, A. M., & Rapp, D. N. (2020). Look it up: Online search reduces the problematic effects of exposures to inaccuracies. Memory & Cognition, 48(7), 1128–1145.
- Lorenz–Spreen, P., Lewandowsky, S., Sunstein, C. R., & Hertwig, R. (2020). How behavioural sciences can promote truth, autonomy and democratic discourse online. Nature human behaviour, 4(11), 1102–1109.
- Kozyreva, A., Lewandowsky, S., & Hertwig, R. (2020). Citizens versus the internet: Confronting digital challenges with cognitive tools. Psychological Science in the Public Interest, 21(3), 103–156.