Claroscuros del internet

Enfrentando los retos digitales

¿Cómo se puede fomentar el potencial positivo de la web? Hay cuatro áreas en las que se puede trabajar: en leyes y ética; en el plano tecnológico con programas que detecten material dañino y arquitecturas de elección con diseño ético; en la educación, y en el ámbito de las ciencias sociales y la psicología.

El lado oscuro de la web.

El inicio de internet fue muy modesto. En 1969 cuatro universidades de los Estados Unidos (Utah, SRI, UCSB y UCLA) formaron una red y el primer mensaje enviado fue la palabra “login”, y dicen que ni siquiera terminaron de mandar la palabra porque antes de eso la red se cayó. En octubre de 2023 ya había 5.30 billones de personas usándolo, lo cual significa el 65.7% de la población de todo el mundo, y cada vez va aumentando ese número, ya que año con año hay un incremento de 3.7%, es decir, cada año se integran a internet unos 189 millones de personas (DIGITAL 2023).

Internet es una tecnología maravillosa, pero con claroscuros, ya que la opinión pública está formada en gran parte por el contenido en línea, difundido a través de las redes sociales. También se sabe que esas redes sociales están diseñadas para capturar la atención, manipular y difundir información falsa. Son opacas en la medida en que la información con la que nos manipulan proviene de muy lejos en el pasado, tomada de todo el colectivo de personas que nos rodean y que son muchas más de las que yo pienso, y si son inferidas y no dadas por mí (Lorenz–Spreen, Lewandowsky, Sunstein y Hertwig, 2020).

¿Cómo se puede fomentar el potencial positivo de la web? Hay al menos cuatro áreas en las que se puede trabajar: en leyes y ética, fomentando regulaciones y guías éticas; en el plano tecnológico con programas que detecten material dañino y arquitecturas de elección con diseño ético; en la educación fomentando la literacidad digital, y en el ámbito de las ciencias sociales y la psicología, particularmente en esta última con herramientas cognitivas: nudges (empujones), esto significa que se pueden hacer intervenciones en las arquitecturas de la información para que las personas actúen de manera predecible, por ejemplo el uso de los defaults. Los boost (estimulaciones) son intervenciones cognitivas que pretenden mejorar las competencias cognitivas y emocionales, por ejemplo, con reglas simples que fomenten el razonamiento en línea. Y la tecnocognición, que son intervenciones tecnológicas que estén cognitivamente inspiradas, por ejemplo, introducir fricción para que no se comparta tan fácilmente un material ofensivo (Kozyreva, Lewandowsky y Hertwig, 2020). Veamos con más detalle esas cuatro áreas.

Leyes y ética

Cuando hablamos de la regulación de internet y las cuestiones tecnológicas lo primero que se nos viene a la mente son las grandes compañías tecnológicas como Google, Meta y X, pero la regulación debe de abarcar por lo menos tres niveles: el de los gobiernos, las empresas y a los individuos. Sobre todo el primero, porque es el más peligroso de todos dado que tiene a su disposición las tres fuentes en la que se funda el poder: el poder coercitivo que le da tener ejército y policía, el poder económico que maneja vía presupuesto, y el poder ideológico por el uso de todos los aparatos del Estado. Dentro de este último rubro es en el que estamos cuando hablamos de la regulación y de leyes en internet.

Los regímenes autoritarios (que van de Angola hasta Zimbabue) no solamente desacreditan a la oposición, lo cual es un común denominador, sino que además tratan de eliminarla y, lo que es más grave, atentan contra todas las formas de derechos humanos.

De acuerdo con Bradshaw y Howard (2019), los gobiernos promueven las noticias falsas y la desinformación, pero el número de países que lo hacen ha ido aumentando a lo largo del tiempo; en 2017 se contabilizaron 28 países, 48 en 2018 y 70 en 2019, lo cual significa que hay un aumento de 150% en el incremento de países que usan la manipulación de los medios sociales para hacer campañas ideológicas (entre ellos se encuentra México). Y son países tanto de izquierda como de derecha, del norte y del sur, aunque, claro, no todos los países lo usan igual. Los regímenes autoritarios (que van de Angola hasta Zimbabue) no solamente desacreditan a la oposición, lo cual es un común denominador, sino que además tratan de eliminarla y, lo que es más grave, atentan contra todas las formas de derechos humanos.

Y eso lo hacen dentro y fuera de su país. Seguramente todos los países se meten en los asuntos de otros países, de alguna u otra forma, pero se tiene bien documentado que hay unos que han hecho de ello una forma de supervivencia existencial: Estados Unidos ha acusado a Rusia de haber intervenido sus elecciones en apoyo a Donald Trump; China intervino en las pasadas elecciones de Taiwan (no logró su cometido); India y Paquistán tienen una guerra que abarca también la ideológica; Venezuela está haciendo su campaña para justificar su posible anexión del Esequibo; Israel y Hamas están haciendo cada quien lo suyo, pero parece que la va ganando Hamas. De todos los medios Facebook sigue siendo el más utilizado, seguido por X (Twitter) y ya más particularmente WhatsApp, YouTube e Instagram (México usa sobre todo Facebook, X y WhatsApp).

Freedom House es una organización no gubernamental que está interesada en la promoción de la democracia y la libertad (no faltará quien piense que es un thinktank ideológico del capitalismo y de Estados Unidos) que en 2017 publicó una investigación titulada “La libertad en la red” (Kelly, Truong, Shahbaz, Earp y White, 2017), en la que evaluó al 87% de todos los usuarios de internet a escala global y encontró que 36% no era libre, 28% era parcialmente libre y sólo el 26% lo era (la falta de libertad hace referencia al uso deliberado de tácticas de manipulación y desinformación, disrupción del internet móvil, ataques técnicos y físicos a medios independientes del gobierno y defensores de los derechos humanos y restricción del internet por motivos políticos o de seguridad nacional, entre otras razones). En esa evaluación México se encontraba dentro de los parcialmente libres.

El dato más preocupante de ese reporte es que hay una tendencia internacional a la disminución de la libertad: de 65 países 32 bajaron en sus niveles de libertad, siendo el peor de todos China (aunque subió un poco en su nivel de libertad con respecto a junio de 2016); México fue de los que bajó. Solo 13 países aumentaron su nivel de libertad y la mayoría de las veces su aumento fue menor.

En los países democráticos las empresas de tecnología han acumulado una cantidad sin precedentes de recursos, ventajas de mercado y control sobre la vida de las personas. Zuboff le llama a esto capitalismo de vigilancia.

Hasta aquí lo que tiene que ver con el mal uso del internet y los medios tecnológicos por parte de los gobiernos. Veamos un poco de la forma en que se manejan las compañías. En los países democráticos las empresas de tecnología han acumulado una cantidad sin precedentes de recursos, ventajas de mercado y control sobre la vida de las personas (Zuboff, 2019). Zuboff le llama a esto capitalismo de vigilancia, el cual comienza con el descubrimiento del excedente conductual, es decir, se generan más datos de comportamiento de los necesarios para mejorar el servicio. Este excedente alimenta la inteligencia de las máquinas —el cual considera es un nuevo medio de producción— que fabrica predicciones del comportamiento del usuario, y estos productos se venden a clientes comerciales en nuevos mercados de futuros conductuales. Esto se repite una y otra vez, dando inicio a un ciclo comportamental de reinversión del valor.

En términos más llanos (y menos rojillos) Kozyreva, Lewandowsky y Hertwig (2020) nos describen una serie de actividades, buenas y malas, que las compañías usan para manipularnos, lo cual se denominan patrones oscuros (dark patterns). Entre ellos se encuentran el sneaking, que es el intento de tergiversar acciones o bien el retraso de información que, si se hiciera disponible para los usuarios, éstos probablemente se opondrían, por ejemplo, agregar productos sin el consentimiento de los compradores o revelar costos ocultos justo antes de realizar la compra. Urgencia, poniendo una fecha de vencimiento en una venta para acelerar la toma de decisiones de compra, por ejemplo con relojes en cuenta regresiva o con mensajes de tiempo limitado. Prueba social, que es el intento de influenciar a los usuarios describiendo las experiencias de otros pero usando testimoniales falsos, dudosos o de procedencia incierta. Escasez, diciendo que pronto el producto no va a estar disponible. Obstrucción, haciendo fácil suscribirse y muy difícil salirse.

Entre esos países se encuentra México, y no deja de ser divertido ver que cuando uno sigue la liga que sugieren nos lleva a una nota periodística en la que se consigna que los verificadores de datos profesionales en México se están quejando de la página del gobierno “verificado” porque ha ignorado años de mentiras expresadas por el presidente.

Otro cosa que utilizan las compañías es el uso de la inteligencia artificial, ya sea ésta el aprendizaje de máquinas o algoritmos inteligentes. Su uso viene en diferentes variedades: sistemas de recomendación como el de Netflix, YouTube, Spotify y Amazon. Algoritmos de búsqueda y sistemas de rankeo. Bots y asistentes inteligentes, y herramientas algorítmicas como traducción y reconocimiento del habla, algoritmos de filtrado para detectar spam y los algoritmos para la orientación en la navegación y uso de mapas.

Investigaciones recientes en el campo de las ciencias sociales computacionales sugiere que los perfiles psicológicos de las personas se pueden predecir con precisión de las huellas digitales que dejan con cada paso que dan en línea, esto permite que las compañías que tienen acceso a esa información puedan dirigir sus anuncios a personas en particular. En 2017 Matz y colaboradores demostraron que esa estrategia de elección de blancos de mercado era una estrategia efectiva de persuasión; en su investigación tenían tres variables de interactuaban entre sí: personalidad de la audiencia (podían ser o no introvertidos o bien ser o no abiertos a la experiencia); anuncios (dirigidos a los diferentes tipos de audiencia), y tasa de conversión, que es una medida de cuántas personas realizaron una acción deseada (como hacer una compra) después de haber sido expuestas a un anuncio. Lo que encontraron fue que había una mayor compra cuando el anuncio coincidía con la personalidad de la audiencia.

Por último, una vez habiendo hablado de los gobiernos y las compañías, en lo que respecta a los individuos, se ha documentado cómo han aparecido nuevas formas de malos comportamientos, como el ciber bulling; por ejemplo, Kowalski, Giumetti, Schroeder y Lattanner (2014) encontraron una serie de correlaciones positivas y negativas con respecto al ciber bulling, así, a más puntajes en inteligencia social, menos ciber bulling, y, por el contrario, estar estresado aumenta la posibilidad de que lo perpetre. O bien, las discusiones en internet suelen volverse bastante ásperas, muy incivilizadas. Anderson y colaboradores (2014) encontraron que cuando las personas se comportaban de manera incivilizada (participar en una discusión de manera ofensiva impidiendo por ello el ideal democrático del intercambio racional de ideas) se fomentaba la polarización y se aumentaba la percepción de riesgo.

Después de haber hablado de gobiernos, empresas o sujetos que pueden portarse mal, se hace necesario promover regulaciones y guías éticas a todos esos niveles. Algunas leyes son las que tiene la Unión Europea sobre la inteligencia artificial (High–Level Expert Group on Artificial Intelligence, 2019), el código de prácticas de la desinformación (European Commission, 2018, 26 de septiembre), en el que representantes de plataformas en línea, redes sociales, anunciantes y la industria publicitaria acordaron un Código de prácticas de autorregulación para abordar la difusión de desinformación y noticias falsas en línea. Incluso hay una guía (Funke y Flamini, 2019) para revisar las acciones que han tomado los países de todo el mundo para combatir la desinformación. Entre esos países se encuentra México, y no deja de ser divertido ver que cuando uno sigue la liga que sugieren nos lleva a una nota periodística en la que se consigna que los verificadores de datos profesionales en México se están quejando de la página del gobierno “verificado” porque ha ignorado años de mentiras expresadas por el presidente. Hay también leyes que tratan de regular la protección de datos (European Parliament, 2016). Incluso se ha propuesto un marco regulatorio sobre cómo impedir que la desinformación se propague (Jaursch, 2019), ya sea enfocándose en la remoción de contenido ilegal o bien fortaleciendo la privacidad en línea.

Tecnología

Habíamos comentado ya anteriormente que en el ámbito tecnológico se podía fomentar el potencial positivo de la red con programas que detecten material dañino y arquitecturas de elección con diseño ético. De lo que estamos hablando es de soluciones estructurales que deben ser introducidas en las arquitecturas de los sistemas en línea para mitigar los efectos perversos que ya hemos mencionado. Por ejemplo, la detección y eliminación de cuentas falsas, tener políticas claras y transparentes sobre sus métodos de comercialización y detectar y eliminar las fake news y toda información mal intencionada. A continuación expongo los intentos que explícitamente las compañías tecnológicas dicen que realizan para mejorar sus prácticas. Que lo hagan o no y hasta qué grado ya es motivo de otro escrito.

Podemos ver así que Meta ha instrumentado esfuerzos (Harbath y Chakrabarti, 2019) para proteger las elecciones, tanto las pasadas de 2019 como las que vienen en el 2024 (Clegg, 2023). Entre sus esfuerzos se incluye su política de mercadeo, los recursos asignados no sólo a Estados Unidos, sino también a las elecciones en Europa y Asia; han expandido su capacidad para enfrentar la desinformación y las noticias falsas incluyendo expertos investigadores que remueven manualmente redes más sofisticadas de actividad dañina; bloquearán los anuncios políticos durante la última semana antes de las elecciones, y exigirán a los anunciantes de todo el mundo que revelen cuándo utilizan la IA o métodos digitales para crear o alterar un anuncio sobre un tema político o social.

Google, por su parte, se ha comprometido a proteger a sus usuarios con prácticas de datos responsables y controles de privacidad fáciles de usar; ha donado mil millones de dólares en subsidios e inversiones en comunidades, individuos y economías locales con el objetivo de prepararlos para oportunidades actuales y futuras, y un millón de horas de trabajo voluntario; se han comprometido también a promover la inclusión y la diversidad dentro y fuera de la compañía; han puesto a disposición sus productos para ayudar a víctimas en caso de emergencias, y dicen estar a favor de la sustentabilidad.

En el caso de X, esta compañía pone como política el rechazo al lenguaje violento, la explotación sexual de menores, la conducta de odio, medios y servicios ilegales, el desnudo no consensuado, todo intento de meterte con las cuentas de otros, las identidades falsas, los medios manipulados, entre otros compromisos.

Educación

Se había comentado antes que los sujetos son tanto receptores y creadores de información, y que por lo tanto los currículos escolares deberían de estar diseñados para una formación digital que enseñe a los alumnos a buscar, filtrar, evaluar y manejar datos, información y todo contenido digital. Esto a pesar de que los sujetos dicen saber detectar cuál es la información falsa de la que no lo es; sin embargo, las investigaciones dicen lo contrario.

Breakstone, McGrew, Smith, Ortega y Wineburg (2018) encontraron que los estudiantes tienen tres errores muy comunes al momento de evaluar la información en línea. El primero de ellos es que se enfocan demasiado en aspectos superficiales de las páginas que visitan, como las gráficas, el diseño y el URL, todas ellas cosas fáciles de manipular; por ejemplo, les igualmente válido a los sujetos la página de la American College of Pediatricians (ACP) que la American Academy of Pediatrics (AAP). Sin embargo, la primera es una división de la segunda, tiene 500 miembros comparados con 64,000 de la segunda, y la división se dio en 2002 después de que ésta apoyara a las parejas del mismo sexo que tenían hijos.

Un segundo error es que creen que porque una página presenta gráficas, infografías, fotografías y videos por ello es evidencia de que lo que están diciendo es verdad. Por ejemplo, el video “Democrats Busted On Camera Stuffing Ballot Boxes” fue utilizado como evidencia de que los demócratas hacían fraude en sus elecciones. El problema es que lo que se ve en el video sucedió en Rusia, no en Estados Unidos.

El tercer problema que se detectó es que malentienden Wikipedia. Se les presentaron dos textos con referencia al uso de armas en Estados Unidos, uno de Wikipedia titulado “Gun politics in the US” y otro titulado “Ten Myths about gun control” puesto por parte de personas afines a la Asociación Nacional del Rifle. Los estudiantes opinaron que el segundo era más confiable que el artículo de Wikipedia porque por definición todo lo que viene de Wikipedia no es creíble, y no lo es porque cualquiera puede meterle mano. Así, los alumnos no han aprendido cómo Wikipedia regula y monitorea su contenido.

¿Cómo se les puede ayudar a los estudiantes? En primer lugar, aprendiendo de los profesionales, en este caso de los verificadores de información (fact checkers); ellos realizan lo que se llama lectura lateral, la cual consiste en salirse de la página que les causa alguna extrañeza y abren otras fuentes alternativas de información que les den otra visión a la que originalmente habían estado trabajando.

En segundo lugar, se les debe enseñar un razonamiento en línea que les permita evaluar la información a la luz de al menos las siguientes tres preguntas: ¿quién está detrás de esta información? ¿Cuál es la evidencia que apoya sus afirmaciones?, y ¿qué es lo que dicen otras fuentes sobre el mismo tema?

Hay estudios que nos dan cierta esperanza de que hacer este tipo de cosas sirven. McGrew, Smith, Breakstone, Ortega y Wineburg (2019) pusieron a prueba una intervención en la que se les enseñaban un conjunto pequeño pero flexible de heurísticas (evaluar la fuerza de las evidencias, la confiabilidad de las fuentes y el uso de la lectura lateral) y encontraron que se podía mejorar la capacidad de los estudiantes para navegar en internet.

Ciencias sociales y psicología

Lo anterior nos lleva directamente a la cuarta y última área de trabajo para mejorar internet. Aquí de lo que se trata es de que las políticas mejoren la toma de decisiones y es lo que, como psicólogo, más me interesa. Básicamente hablamos de tres aproximaciones: nudging, boosting y la tecnocognición.

Veamos la primera. Nudging viene de nudge, palabra en inglés que podríamos traducir como “empujón” y que fue propuesta por el premio nobel Richard Thaler. La idea es que se puede ayudar a las personas a tomar mejores decisiones dándoles pequeños empujones hacia las decisiones correctas; su propuesta es por lo tanto parte de lo que se llama economía conductual, y la idea es que se pueden diseñar ambientes en los cuales se facilite la toma de decisiones correcta. A este diseño de ambiente se le denominó arquitectura de la decisión. Para saber más de su teoría recomendamos el libro que escribió junto a Sunstein (Thaler y Sunstein, 2008). Algunas estrategias que se pueden poner en marcha para influir en la conducta en línea de las personas pueden ser, sin ser exhaustivo, alejar tu celular, controlar las notificaciones, remover las app distractoras, ajustar los defaults y controlar el tiempo de pantalla.

El boosting (Hertwig y Grüne–Yanoff, 2017) busca mejorar las competencias cognitivas a través de cambios en los conocimientos, habilidades, herramientas de decisión o ambientes en los que se desenvuelven los sujetos, de tal manera que su conducta se vea modificada por un buen tiempo aun cuando los elementos de la intervención ya no estén presentes. Esas competencias deben ser no sólo persistentes, sino también generalizables más allá del dominio específico en el que se enseñaron. Se puede mejorar la autonomía y la agenciación autoimponiendo limitaciones en nuestras actividades digitales con la finalidad de aumentar nuestro autocontrol y disminuir las distracciones. También se puede filtrar y bloquear la información para controlarla (por ejemplo, los correos electrónicos, los mensajes de WhatsApp, etc.) para reducir la exposición a información de baja calidad o francamente falsa. Es deseable también que se mejore la habilidad de las personas para analizar la información que se encuentran en la red. Y, por último, se encuentra la inoculación, que es una intervención previa que mejora la resistencia de las personas a la manipulación en línea.

Finalmente, se encuentra la tecnocognición, que intenta diseñar soluciones tecnológicas que se basen en principios psicológicos identificados en el estudio de la cognición humana (Lewandowsky, Ecker y Cook, 2017). Éste es el concepto que engloba mucho de lo dicho hasta aquí y que incluso va más allá de lo que me he centrado en este texto, que es el mal uso del internet. Hay otras tecnologías que requerirán del mismo enfoque, me refiero específicamente a las inteligencias artificiales como ChatGPT y otras que irán apareciendo y cuyo estudio es motivo de mucho trabajo por hacer. ®

Bibliografía

Anderson, A. A., Brossard, D., Scheufele, D. A., Xenos, M. A., & Ladwig, P. (2014). The “nasty effect”: Online incivility and risk perceptions of emerging technologies. Journal of Computer–mediated Communication, 19(3), 373–387.
Bradshaw, S., & Howard, P. N. (2019). The global disinformation order: 2019 global inventory of organised social media manipulation.
Breakstone, J., McGrew, S., Smith, M., Ortega, T., & Wineburg, S. (2018). Teaching students to navigate the online landscape. Social Education, 82(4), 219-221.
Clegg, N. (2023, 28 de noviembre). How Meta is planning for elections in 2024. Press release.
Digital 2023: Global Overview Report.
European Parliament. (2016). Regulation (EU) 2016/679 of the European Parliament and of the council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing directive 95/46/EC (General Data Protection Regulation), 2016 O.J. (L 119) 1. http:// data.europa.eu/eli/reg/2016/679/oj
European Commission. (2018, 26 de septiembre). Code of practice on disinformation.
Funke, D., & Flamini, D. (2019). A guide to anti–misinformation actions around the world. Poynter Institute.
Google (s.f.). Our commitments.
Harbath, K., & Chakrabarti, S. (2019, 28 de enero). Expanding our efforts to protect elections in 2019 [Press release]. Facebook.
Hertwig, R., & Grüne–Yanoff, T. (2017). Nudging and boosting: Steering or empowering good decisions. Perspectives on Psychological Science, 12(6), 973–986.
High–Level Expert Group on Artificial Intelligence. (2019). Ethics guidelines for trustworthy AI. European Commission.
Jaursch, J. (2019). Regulatory reactions to disinformation: How Germany and the EU are trying to tackle opinion manipulation on digital platforms.
Kelly, S., Truong, M., Shahbaz, A., Earp, M., & White, J. (2017). Freedom on the net 2017: Manipulating social media to undermine democracy. Freedom of the Net Project.
Kowalski, R. M., Giumetti, G. W., Schroeder, A. N., & Lattanner, M. R. (2014). Bullying in the digital age: A critical review and meta–analysis of cyberbullying research among youth. Psychological Bulletin, 140, 1073–1137.
Kozyreva, A., Lewandowsky, S., & Hertwig, R. (2020). Citizens versus the internet: Confronting digital challenges with cognitive tools. Psychological Science in the Public Interest, 21(3), 103–156.
Lewandowsky, S., Ecker, U. K., & Cook, J. (2017). Beyond misinformation: Understanding and coping with the “post–truth” era. Journal of applied research in memory and cognition6(4), 353-369.
Lorenz–Spreen, P., Lewandowsky, S., Sunstein, C. R., & Hertwig, R. (2020). How behavioural sciences can promote truth, autonomy, and democratic discourse online. Nature human behaviour, 4(11), 1102–1109.
Matz, S. C., Kosinski, M., Nave, G., & Stillwell, D. J. (2017). Psychological targeting as an effective approach to digital mass persuasion. Proceedings of the National Academy of Sciences, 114(48), 12714–12719.
McGrew, S., Smith, M., Breakstone, J., Ortega, T., & Wineburg, S. (2019). Improving university students’ web savvy: An intervention study. British Journal of Educational Psychology, 89(3), 485–500.
Thaler, R. H., & Sunstein, C. R. (2008). Nudge: Improving decisions about health, wealth, and happiness. Yale University Press.
X. (s.f.). The X Rules.
Zuboff, S. (2019). The age of surveillance capitalism: The fight for the future at the new frontier of power. Profile Books.

Compartir:

Publicado en: Medios

Apóyanos:

Aquí puedes Replicar

¿Quieres contribuir a la discusión o a la reflexión? Publicaremos tu comentario si éste no es ofensivo o irrelevante. Replicante cree en la libertad y está contra la censura, pero no tiene la obligación de publicar expresiones de los lectores que resulten contrarias a la inteligencia y la sensibilidad. Si estás de acuerdo con esto, adelante.