Por Gonzalo Toca
29/07/2017
Las redes sociales están en crisis. Y la gravedad de la situación se entiende mejor recurriendo a dos conceptos que se han popularizado en los últimos meses. El primero es la posverdad, que se refiere a un contexto político en el que los líderes explotan la ansiedad de un público muy golpeado por la crisis y la globalización que se cree, antes que cualquier noticia veraz, los argumentos que le emocionan y se ajustan a sus prejuicios, aunque sean mentira.
En estas circunstancias, las noticias falsas se convierten en los mucho más respetables ‘hechos alternativos’ y se forma una constelación de webs aparentemente informativas y fiables que se dedican a ganar dinero generando contenidos totalmente manipulados. Los usuarios que se “tragan” las patrañas las comparten con sus contactos en las redes sociales y éstos, a veces, las dan por ciertas porque confían en la honestidad de sus amigos y coinciden con sus prejuicios.
El segundo concepto importante que permite entender lo que está ocurriendo es la poscensura, una idea acuñada por el periodista Juan Soto Ivars en su libro Arden las redes (Debate, 2017). En conversación con Cambio16, el autor define la poscensura como “el poder de utilizar, preferentemente mediante campañas de acoso en las redes sociales y otras plataformas digitales como change.org, el miedo y la humillación pública para silenciar tanto a aquellos que emiten una opinión molesta como a los que podrían compartirla en distintos grados”.
El papel de los lobbies
La principal diferencia entre la censura y la poscensura es que, mientras la primera es vertical y depende de la mano de hierro del Estado y de las prioridades de un régimen dictatorial, la segunda existe gracias a unos usuarios que se adhieren espontáneamente a la agenda que promueve un grupo de presión. Ese lobby asegurará que representa a millones de personas –un grupo feminista dirá que lo hace en nombre del feminismo y un grupo católico en nombre de los católicos– muy ofendidas con las opiniones del sujeto al que se dispone a acosar, insultar y humillar en las redes sociales hasta que ‘rectifique’.
La campaña, aclara Soto Ivars, “provocará el silenciamiento de los puntos de vista moderados y la configuración de dos bloques extremos que se enfrentan en una guerra cultural”. Funciona más o menos así: primero, el acoso masivo de un lobby en las redes sociales desata otro movimiento igual pero en contra y capitaneado por otro colectivo. Y, segundo, en medio de las bofetadas, todos los que defiendan posiciones intermedias se callarán para que nadie los califique de traidores o paniaguados. Llegamos así a un mundo ideal para los extremistas, porque la guerra proyectará la imagen de que la sociedad está dividida en dos bloques irreconciliables y radicalizará por el camino a miles de ciudadanos moderados y razonables.
El papel de las grandes redes sociales –Facebook, Twitter y YouTube– resulta especialmente delicado porque ellas, aunque no son las que están generando o promoviendo directamente las noticias falsas o las campañas, y tampoco fueron el origen del clima social que las alumbró, sí son el vehículo prioritario por el que la posverdad y la poscensura han multiplicado su influencia. Además, se benefician del aumento del tráfico que suponen las polémicas multitudinarias y, por eso y por lo anterior, los reguladores y ciudadanos europeos les exigen que hagan algo al respecto. Después de muchas resistencias, en el último año, las principales redes sociales se han puesto en marcha.
Las reacciones
Mark Zuckerberg, fundador de Facebook, dijo en mayo que estaban invirtiendo en el desarrollo de algoritmos y herramientas que aceleren la identificación y denuncia de contenidos sospechosos, y prometió que los profesionales que se ocupan de supervisar los contenidos sospechosos pasarían de 4.500 a 7.500 personas. En junio, la Comisión Europea confirmó que esta red social, a diferencia de Twitter y YouTube, estaba cumpliendo su compromiso de revisar en 24 horas los contenidos que denunciaban los usuarios.
Más allá de la supervisión, en Alemania, según el informe del Ministerio de Justicia local, Facebook sólo fue capaz de borrar, en 24 horas, el 39% de los posts ilegales reportados en distintos periodos del año pasado. Es verdad que la compañía capitaneada por Zuckerberg ha cambiado la estrategia desde entonces y, sin ir más lejos, en Francia, en las semanas previas a las elecciones presidenciales, cerró 30.000 cuentas que difundían noticias falsas, publicó guías en los periódicos para identificarlas y se asoció con Google y con medios de comunicación de referencia para localizarlas y desmentirlas.
Twitter, que según el Ministerio de Justicia alemán eliminó solo un 1% de sus contenidos ilegales reportados en distintos períodos de 2016, apenas ha anunciado iniciativas novedosas en la prevención de noticias falsas más allá de intentar que los perfiles automáticos (bots) no las amplifiquen haciéndolas virales. En cuanto al discurso del odio, han empezado a cerrar y suspender cada vez más las cuentas desde las que se abusa y humilla, especialmente cuando tienen muchos seguidores.
YouTube, que según el Ministerio de Justicia alemán eliminó el 90% de los vídeos ilegales reportados en distintos periodos de 2016, ha apostado este año por impartir seminarios a adolescentes y por recortar el acceso a la financiación publicitaria a productores de contenidos odiosos, falsos, pirateados o extremistas. Lo quieren hacer eliminando la publicidad de todos los vídeos con menos de 10.000 visitas.
Para Enrique Dans, profesor de Innovación de IE Business School, las compañías tienen que “desarrollar algoritmos que tipifiquen y tengan en cuenta elementos comunes de las noticias [y comentarios ofensivos] de ese tipo, que evalúen la reacción y los patrones de difusión, que tengan en cuenta las señales de alarma generadas por la comunidad (peer-rating systems) y que, finalmente, introduzcan opiniones expertas como las de los fact-checkers independientes”.
Mayores exigencias
David Murillo, profesor del departamento de Ciencias Sociales en ESADE, cree que hay que exigirles más a las redes sociales porque “están contribuyendo a crear con sus algoritmos una burbuja en la que sus usuarios sólo reciben los contenidos que les gustan con independencia de que sean veraces”. Esos contenidos, cuando hablamos de noticias sesgadas o rumores, pueden alimentar las posiciones extremas y el caldo de cultivo que luego aprovechan los falsos medios de comunicación para difundir mentiras y los lobbies para captar perfiles que se sumen a sus campañas de acoso e intimidación.
En estas circunstancias, Alemania, con un pasado muy marcado por el nazismo que la ha llevado a perseguir con dureza la negación del holocausto o los comentarios racistas, decidió en abril que las principales redes sociales se enfrentarían a multas de hasta 50 millones de euros si no eliminaban de sus plataformas el contenido más obviamente delictivo en 24 horas y el contenido menos obvio en siete días. La cuenta atrás empezaría con la queja masiva de los usuarios pero, ¿quién nos garantiza que esas quejas no esconden, en realidad, una campaña de acoso?
Precisamente porque los problemas son muy complejos, muchos expertos en España, Enrique Dans entre ellos, no consideran necesario aumentar la regulación. Miguel Ferrer, director de Políticas Públicas de la consultora Kreab, apuesta por “un acuerdo entre los reguladores y empresas para diseñar un código de buenas prácticas”.
Dentro del mismo, podría incluirse la recomendación de César Zárate, asociado del área de Penal de Écija Abogados, que cree que “las redes sociales deberían cooperar más con las autoridades a la hora de agilizar la identificación de los titulares de las cuentas problemáticas, algo que ahora mismo puede demorarse durante seis meses”. Víctor Domingo, presidente en España de la Asociación de Internautas, apunta que la responsabilidad no debería recaer en las plataformas sino en unos tribunales que tienen que resolver más rápido.
El futuro inmediato
Todo parece indicar que, durante los próximos meses y años, veremos cómo la Unión Europea intenta forzar a las grandes redes sociales para que compartan rápidamente con los tribunales la identidad de los perfiles investigados y para que agilicen la eliminación de las campañas de difamación y las noticias y acusaciones falsas, apoyándose más en las quejas de los usuarios y en la investigación de los reguladores que en la intervención de los magistrados. Las plataformas, sobre todo YouTube y Facebook, continuarán implementando y anunciando medidas con las que intentarán convencer a la población y las instituciones de su buena fe y evitar así leyes y sanciones que dañen sus negocios.
En ese contexto, muchos usuarios seguirán mostrando su preocupación por que sean las empresas o los reguladores quienes decidan a veces los límites de la libertad de expresión ante comportamientos discutibles y exigirán, de nuevo, que los jueces ocupen su lugar y reciban más medios para hacerlo.
Temen que acabemos reemplazando la poscensura por la censura impuesta por los editores de las redes sociales con o sin la supervisión de unos reguladores a veces independientes y a veces demasiado dependientes de los lobbies y los políticos. Recordemos que, a veces, son los propios partidos y sus aliados los que potencian y alimentan el acoso y las noticias falsas sobre sus rivales.