En un mundo rendido a las redes sociales se puede estar bien informado y en tiempo real, con imágenes, audios, textos, full detalles. En ese aluvión también se cuelan datos falsos, que se muestran como ciertos, y se crea un rico caldo de desinformación vía internet. Cundo se funden ambas vertientes, ¿cómo distinguir la veracidad de unas fuentes de otras?
Esta duda y confusión se adueña de las herramientas y nuestras percepciones. Más de la mitad de los usuarios de redes sociales en 40 países encuentran semanalmente información falsa o engañosa. Estamos ante una crisis de desinformación a escala global.
Como una suerte de árbitro en este campo de la información y desinformación, están los algoritmos. Concepto que se refiere a la serie de pasos organizados para dar solución a un problema específico. Pero en términos tecnológicos son unas misteriosas fórmulas computacionales que determinan qué asuntos o temas aparecen en nuestros feeds o flujo de contenido por el que pueden desplazarse.
Estos algoritmos están diseñados para mostrar a los usuarios el contenido con el que es más probable que interactuemos. A menudo conduce a la proliferación de información falsa que se alinea con nuestras creencias.
Un ejemplo destacado son los algoritmos de Facebook, con fines de lucro, que respaldaron una oleada de información errónea llena de odio dirigida al pueblo rohingya que contribuyó su genocidio a manos del ejército de Myanmar (Birmania) en 2017, escribió Myojung Chung en un artículo para The Nieman Journalism Lab. Un portal que intenta ayudar al periodismo a descubrir su futuro en la era de Internet, dice en su sitio.
Chung es profesora asistente de periodismo e innovación de medios en la Universidad Northeastern. Dedicada al estudio de los medios digitales, la información errónea y desinformación y la formulación de políticas.
Papel de los algoritmos en la desinformación
El mecanismo de alimentación de información impulsado por decisiones algorítmicas a menudo se percibe como una caja negra. Es casi imposible para los usuarios reconocer cómo un algoritmo actúa, opera y llega a conclusiones. Es como conducir un auto sin saber cómo funciona el motor.
Aunque, agrega la experta, no está claro si teniendo esos conocimientos sobre el mecanismo algorítmico se pueda realmente combatir la desinformación por internet. Es ahí donde entra en juego el estudio, publicado en Harvard Kennedy School Misinformation Review.
Comenta Chung que como investigadora de las contramedidas a la desinformación, dirigió una prueba para explorar cómo la comprensión individual de los procesos algorítmicos moldea las actitudes y acciones hacia la desinformación. El análisis lo desarrolló en cuatro países diferentes: Estados Unidos, el Reino Unido, Corea del Sur y México. Con más de 5.000 participantes en la encuesta, los hallazgos arrojaron varias ideas.
En primer lugar, el estudio encontró que el conocimiento algorítmico hacía que las personas estuvieran más alertas ante la información errónea. Es decir, cuando los receptores comprenden cómo los algoritmos filtran la información y cómo se utilizan los datos de los usuarios para crear algoritmos, verán mejor los peligros potenciales de alimentar algoritmos. Y reconocerán que estos pueden amplificar la información errónea.
Esta comprensión los llevó a dar un paso adelante para contrarrestar la información errónea. Sus acciones abarcaron desde dejar comentarios para resaltar posibles sesgos o riesgos en publicaciones en las redes sociales y difundir información que exponga problemas en el contenido inexacto, hasta informar publicaciones específicas de desinformación en la plataforma de redes sociales. Este hallazgo es alentador.
Polarización y perfiles de países
El estudio reveló además que el conocimiento algorítmico no está distribuido uniformemente entre las personas. En los cuatro países estudiados hubo marcadas diferencias. Cada uno con su propio entorno tecnológico, político y social único. Por tanto, la comprensión de los algoritmos varió entre los diferentes grupos sociodemográficos.
En Estados Unidos, el Reino Unido y Corea del Sur, los jóvenes tendían a comprender los algoritmos mejor que las personas mayores. En Corea del Sur y México, los niveles educativos definieron la diferencia, ya que las personas más educadas comprenden mejor cómo funcionan los algoritmos de las redes sociales. Y en Estados Unidos y el Reino Unido, donde la polarización política ha alcanzado altos niveles en los últimos años, la ideología política fue el factor clave para explicar las diferencias en el conocimiento algorítmico. Los liberales, por ejemplo, tienen una mejor comprensión de los algoritmos de las redes sociales que los conservadores.
Además de la brecha de conocimiento algorítmico a nivel nacional, el estudio también encontró que el conocimiento algorítmico difería según el país. Los encuestados de EE UU demostraron la mayor comprensión, seguidos por los del Reino Unido, México y luego Corea del Sur.
Curiosamente, aunque Corea del Sur tiene las tasas más altas de uso de Internet y acceso a redes sociales entre los cuatro países, tenía el nivel más bajo de conocimiento algorítmico. Estas diferencias ponen de relieve una nueva forma de brecha digital, que va más allá de la distinción binaria entre personas con acceso a Internet y quienes no.
Con una distribución tan desigual del conocimiento algorítmico dentro y entre países, algunos pueden tener la capacidad de examinar y emitir juicios informados sobre la información errónea presentada por los algoritmos. Mientras que otros pueden ser más susceptibles a las narrativas falsas o sesgadas incorporadas en los resultados algorítmicos.
Programas de alfabetización sobre algoritmos
Las personas que no entienden cómo los algoritmos personalizan la información pueden pasar por alto los riesgos de quedar atrapados en burbujas de filtro, lo que limita la exposición a diversos puntos de vista, sostiene Chung. Por lo tanto, creen erróneamente que todo el contenido de las redes sociales es objetivo y preciso. En consecuencia, es más probable que difundan información errónea y sean más vulnerables a los efectos negativos de esa información.
Estos hallazgos tienen implicaciones importantes para las plataformas de redes sociales, los formuladores de políticas, investigadores y educadores. Tradicionalmente, los esfuerzos para combatir la desinformación se han centrado en gran medida en estrategias como la verificación de hechos, el pre-bunking o la moderación de contenidos. Pero a menudo se ha cuestionado la eficacia de estos métodos.
El estudio plantea que educar a las personas sobre cómo funcionan los algoritmos y cómo se selecciona la información en las redes podría ser una alternativa prometedora. Sostiene que al comprender mejor los algoritmos, las personas pueden estar más equipadas para reconocer y responder a la información errónea. El beneficio de este enfoque es que podría ser ampliamente aplicable en diferentes poblaciones y eficaz a nivel mundial.
Además, muestra que es posible que no todas las personas de diferentes orígenes sociales y culturales comprendan los algoritmos igualmente. Esto significa, comenta Chung, que es importante crear programas de alfabetización sobre algoritmos que se personalicen para satisfacer las necesidades de diferentes grupos. Esto puede ayudar a garantizar que todos puedan navegar en el mundo digital de manera efectiva.
Las tecnologías en constante evolución (desde el metaverso hasta el deepfake y ChatGPT) crean un entorno mediático en el que la curación algorítmica de información falsa o no confiable es más fácil que nunca.