Las controvertidas elecciones presidenciales de Estados Unidos de 2020, en las que se midieron Joe Biden y Donald Trump, todavía repercuten en los tribunales y medios de comunicación. Varios estudios innovadores se han dedicado a hurgar en los algoritmos utilizados por Facebook e Instagram en la desinformación y la polarización política en EE UU. Y, obviamente, su incidencia en el comportamiento de los electores.
Tres artículos publicados en Science y uno en Nature presentan algunas de las primeras conclusiones del Estudio de elecciones de Facebook e Instagram (FIES) de 2020. Allí, los investigadores se unieron a Meta, la empresa detrás de Instagram y Facebook, para estudiar los efectos de las redes sociales en las actitudes de decenas de miles de usuarios durante el polémico proceso electoral.
“Estos son grandes experimentos”, comentó Stephan Lewandowsky. Un psicólogo de la Universidad de Bristol que no formó parte del trabajo. “Y los resultados alcanzados son bastante interesantes”.
Con la cooperación de Meta, los investigadores analizaron datos de millones de usuarios de Facebook e Instagram relacionados con las elecciones presidenciales de EE UU de 2020. Y encuestaron a usuarios específicos que aceptaron participar.
Un área de investigación se centró en los algoritmos de las redes sociales y cómo afectan las actitudes y el comportamiento de los votantes.
Los algoritmos sugieren contenido para los usuarios haciendo suposiciones basadas en los grupos, amigos, temas y titulares en los que un usuario ha hecho clic en el pasado. Los algoritmos han sido criticados por amplificar la información errónea y el contenido ideológico que ha empeorado las divisiones políticas en EE UU. Las propuestas para regular estos sistemas se encuentran entre las ideas más discutidas para abordar el papel de las redes en la difusión de información errónea y el fomento de la polarización.
Faceboock y la polarización política en EE UU
Pero cuando los investigadores cambiaron los algoritmos para algunos usuarios durante las elecciones de 2020, vieron poca diferencia. «Descubrimos que los algoritmos son extremadamente influyentes en las experiencias de las personas en la plataforma. Y existe una segregación ideológica significativa en la exposición de noticias políticas», señaló Talia Jomini Stroud, directora del Centro para la Participación de los Medios en la Universidad de Texas en Austin y una de las líderes de los estudios. “También encontramos que las propuestas populares para cambiar los algoritmos de las redes no influyeron en las actitudes políticas”, agregó.
Cuando los investigadores reemplazaron el algoritmo con una simple lista cronológica de publicaciones de amigos, una opción que Facebook puso recientemente a disposición de los usuarios, no tuvo un impacto medible en la polarización en comicios de EE UU. Cuando desactivaron la opción de compartir de Facebook, que permite a los usuarios compartir rápidamente publicaciones virales, los usuarios vieron significativamente menos noticias de fuentes no confiables, y menos noticias políticas en general. Pero no hubo cambios significativos en sus actitudes políticas.
Asimismo, reducir el contenido que los usuarios de Facebook obtienen de cuentas con la misma alineación ideológica no tuvo un efecto significativo sobre la polarización. La susceptibilidad a la desinformación o las opiniones extremistas, revelan los estudios científicos.
Juntos, los hallazgos sugieren que los usuarios de Facebook buscan contenido que se alinee con sus puntos de vista. Y que los algoritmos ayudan «haciendo que sea más fácil para las personas hacer lo que les gusta hacer», según David Lazer, profesor de la Universidad Northeastern que trabajó en los cuatro papeles, reseñó The Guardian.
Desinformación entre liberales y conservadores
Los investigadores observaron que eliminar el algoritmo por completo redujo drásticamente el tiempo que los usuarios pasaban en Facebook o Instagram. Mientras aumentaba su tiempo en TikTok, YouTube u otros sitios, lo que demuestra cuán importantes son estos sistemas para Meta en el panorama cada vez más concurrido de las redes sociales.
El trabajo también reveló el alcance de las diferencias ideológicas de los usuarios de Facebook y las diferentes formas en que conservadores y liberales usan la plataforma para obtener noticias e información sobre política y su polarización en EE UU.
Los usuarios conservadores de Facebook tienen más probabilidades de consumir contenido que los verificadores de datos han etiquetado como información errónea. También tienen más fuentes para elegir. El análisis encontró que entre los sitios web incluidos en las publicaciones políticas de Facebook, muchos más se dirigen a los conservadores que a los liberales.
El 97 % de las fuentes de noticias políticas en Facebook que difundieron información errónea fueron más populares entre los conservadores que entre los liberales. Los investigadores obtuvieron un acceso sin precedentes a los datos de Facebook e Instagram de las elecciones de 2020. Mediante una colaboración con Meta. Señalaron que Meta no ejerció ningún control sobre sus hallazgos.
Los autores de los artículos reconocieron algunas limitaciones en su trabajo. Si bien descubrieron que cambiar los algoritmos de Facebook tuvo poco impacto en la polarización, señalan que el estudio solo cubrió unos pocos meses durante las elecciones de 2020. Y, por lo tanto, no puede evaluar el impacto a largo plazo que han tenido los algoritmos.
También notaron que la mayoría de las personas obtienen sus noticias e información de varias fuentes (tele, radio, Internet y el boca a boca). Y que esas interacciones podrían afectar las opiniones de las personas.
Incidencia de las redes sociales
Katie Harbath, exdirectora de políticas públicas de Facebook, indicó que los hallazgos mostraron la necesidad de una mayor investigación sobre las redes sociales y la polarización en EE UU. Y desafió las suposiciones sobre el papel que juegan las redes sociales en la democracia estadounidense. Ella no participó en la investigación.
“La gente quiere una solución simple y lo que muestran estos estudios es que no es simple”, adicionó Harbath. También miembro del Bipartisan Policy Center y directora de la firma de tecnología y política Anchor Change. “Refuerza que cuando se trata de polarización, o de las creencias políticas de las personas, hay mucho más en esto que las redes”.
Entretanto, el presidente de asuntos globales de Meta, Nick Clegg, se refirió a los hallazgos. Mostraron que «hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización ‘afectiva’ dañina. O tengan un impacto significativo en las actitudes, creencias o comportamientos políticos clave».
Pero la realidad es más complicada que eso, según los críticos. Advirtieron que los hallazgos no deberían permitir que las empresas de redes se liberen de la lucha contra la desinformación.
“Los estudios que respalda Meta no deberían servir para permitir que se propaguen mentiras”, señaló al Washington Post, Nora Benavidez. Asesora principal del grupo de derechos civiles digitales Free Press. “Las plataformas de redes sociales deberían intensificarse antes de las elecciones. No inventar esquemas para eludir la rendición de cuentas”.
Frances Haugen, exempleada de Facebook, criticó el momento de la investigación. Dijo que se produjo después de que Meta promulgó medidas de protección electoral más agresivas para abordar la información errónea previa a los comicios. Y cuando comenzó el experimento, muchos usuarios ya se habían unido a grupos que los habrían inundado con contenido cuestionable.