La elección presidencial de los Estados Unidos está a la vuelta de la esquina. Todavía está vivo el recuerdo de la injerencia rusa en los comicios de hace cuatro años a través campañas de desinformación por las redes sociales. Se teme que algo igual o peor pueda ocurrir esta vez. Tratar de evitarlo es una aspiración muy extendida en las instituciones y en la ciudadanía, en especial en el mundo académico.
Un equipo de investigadores de la Universidad de Princeton dio un paso importante utilizando la inteligencia artificial. Desarrolló una forma de detectar campañas de desinformación en línea que podría usarse para rastrear acciones encubiertas contra Estados Unidos en tiempo real.
Los expertos esperan que los ingenieros de sistemas con esta idea puedan construir un sistema de monitoreo en tiempo real para exponer y combatir la influencia extranjera en la política estadounidense. El trabajo serviría, por ejemplo, para detectar campañas de desinformación que puedan surgir para influir en las elecciones presidenciales de noviembre.
Los detalles del proyecto aparecen en el artículo Las características basadas en el contenido predicen las operaciones de influencia de las redes sociales, que publicó la revista Science Advances.
Aprendizaje automático
La herramienta identifica trolls maliciosos en función de su comportamiento. Utiliza una herramienta de aprendizaje automático alimentada con datos de campañas de desinformación realizadas por China, Rusia y Venezuela.
El equipo identificó los patrones que seguían estas campañas. Analizó sus publicaciones en Twitter y Reddit, así como sus hipervínculos o direcciones URL. Después de una serie de pruebas descubrieron que su modelo era efectivo para identificar publicaciones y cuentas que formaban parte de una campaña de influencia extranjera. Sirve incluso en la detección de cuentas que nunca antes utilizadas.
El trabajo fue realizado por Jacob Shapiro, profesor de política y asuntos internacionales en la Escuela de Asuntos Públicos e Internacionales de la Universidad de Princeton, y el investigador asociado Meysam Alizadeh. También participaron Joshua Tucker, profesor de política en la Universidad de Nueva York, y Cody Buntain, profesor asistente de informática en el Instituto de Tecnología de Nueva Jersey.
«Las campañas de influencia en línea tienen algunos límites inherentes si prestamos atención. O tienen que decir cosas que no se están diciendo o dicen mucho más de algo que ya está en la conversación de lo que normalmente sucedería» , dijo Shapiro. Estas inconsistencias lógicas ayudan a distinguir una publicación real de un troll.
Una idea simple
El equipo comenzó con una estrategia simple. Utilizando solo características basadas en contenido y ejemplos de actividades de campañas de desinformación conocidas, ¿podría mirar otro contenido y saber si una publicación determinada era parte de una campaña?
Eligieron investigar una unidad conocida como un «par postURL», que es simplemente una publicación con un hipervínculo. Para tener una influencia real, las operaciones coordinadas requieren un intenso intercambio de información humana y basada en bots. El equipo teorizó que publicaciones similares pueden aparecer con frecuencia en todas las plataformas a lo largo del tiempo.
El equipo probó su método exhaustivamente. Para ello, examinó el rendimiento mes a mes en 5 tareas de predicción diferentes, en 4 campañas de influencia. En casi todas las 463 pruebas diferentes estaba claro cuáles publicaciones eran parte de una operación de influencia y cuáles no. Esto significa que las características basadas en contenido pueden ayudar a encontrar campañas de desinformación e influencia coordinadas en las redes sociales.
El equipo consideró las características de la publicación en sí, como el tiempo, el recuento de palabras o si el dominio URL mencionado es un sitio web de noticias.
También analizaron lo que llamaron «metacontenido». Este aspecto busca cómo los mensajes en una publicación se relacionan con otra información compartida en ese momento. Por ejemplo, si una URL estaba en los 25 principales dominios políticos compartidos por los trolls.
Unos son más fáciles de detectar que otros
En algunos países los patrones eran más fáciles de detectar que otros. Los trolls venezolanos solo retuitearon ciertas personas y temas. Por ello son fáciles de detectar. Los trolls rusos y chinos fueron mejores para hacer que su contenido se viera orgánico. Pero también pudieron encontrarse, aunque con mayor dificultad.
A principios de 2016, por ejemplo, los trolls rusos a menudo se vinculaban a algunas URL de extrema derecha. Este era un hecho inusual, dados los otros aspectos de sus publicaciones. Además, a principios de 2017, se vinculaban a sitios web políticos de maneras extrañas.
En general, la actividad del troll ruso se hizo más difícil de encontrar con el paso del tiempo. Es posible que grupos de investigación u otros capten la información falsa, señalen las publicaciones y obliguen a los trolls a cambiar sus tácticas o enfoques, dice la investigación. Aunque los rusos también parecen haber producido menos contenidos en 2018 que en años anteriores.
Trabajo muldisciplinario
Los autores dijeron que el trabajo destaca la importancia de la investigación interdisciplinaria entre las ciencias sociales y la informática.
Para que el método funcione se requiere que alguien haya identificado la actividad reciente de la campaña de influencia. Ese conocimiento sirve para aprender cómo funciona. También se debe comprender cómo se combinan las diferentes características para indicar cambios de contenido cuestionables a lo largo del tiempo y entre campañas. Aquí entran en juego las ciencias sociales.
Por el otro lado, el desarrollo de algoritmos y modelos matemáticos, con tecnología de inteligencia artificial, es lo que hace posible que se puedan detectar las campañas de desinformación en tiempo real y neutralizarlas. Este es el trabajo de los técnicos en informática.
Lea también: