Bien atrás quedaron aquellos tiempos en los que hacerse con una revista para adultos era toda una proeza para algunos adolescente. En la actualidad la facilidad con la que un menor de edad accede a contenido sexual a través de redes sociales dejaría asombrado hasta a los famosos editores detrás de aquellas publicaciones de antaño. Instagram, por ejemplo, se ha dado a la tarea de fungir de tutora sexual de chicos y chicas. Como si de un acosador sexual se tratara, se adentra en la actividad virtual de los pequeños usuarios para captarlos y sugerírselos.
La red social recomienda regularmente videos sexuales a cuentas de adolescentes que parecen interesados en contenido picante. Una estudio realizado por The Wall Street Journal e investigadores académicos arrojó que no pierde tiempo y lo hace a los pocos minutos de que se inicia sesión por primera vez. En una relación directamente proporcional al interés que muestren: mientras mayor sea, mayor también será la crudeza de lo ofrecido.
Si bien las otras redes sociales muestran contenido sexualizado, no tienen una política tan abierta. Solo X, conocida antes como Twitter, cambió este año sus restricciones y permite publicar contenido adulto siempre que se marque como tal. Sin embargo, no es una red social que atraiga especialmente a un público infantil.
No pasó la prueba
Durante siete meses, los investigadores pusieron a prueba lo dicho por Meta en enero. Afirmó que estaba brindando a los adolescentes una experiencia más apropiada para su edad. Que había restringido lo que llama contenido sensible, incluido material sexualmente sugerente. Sin embargo, durante eses tiempo se verificó que el servicio siguió promocionando a menores de edad contenido orientado a adultos.
Laura Edelson, profesora de informática en la Universidad Northeastern, y el diario estadounidense utilizaron una metodología similar para sus análisis. Crearon nuevas cuentas con edades indicadas como 13 años. Luego, con las cuentas visualizaron la transmisión de videos seleccionada, conocida como reels. Instagram ofreció una mezcla de grabaciones que, desde el principio, incluían contenido moderadamente sexual, como mujeres bailando seductoramente o posando en posiciones que enfatizaban sus pechos. Cuando las cuentas pasaron por alto otros clips, pero vieron esos videos hasta el final, la plataforma recomendó contenido más atrevido.
Los creadores de contenido sexual para adultos comenzaron a aparecer en los feeds casi inmediatamente. Después de menos de 20 minutos viendo reels, los feeds de las cuentas de prueba estuvieron dominados por promociones para dichos creadores, algunos de los cuales ofrecían enviar fotos de desnudos a los usuarios que interactuaban con sus publicaciones.
En detalle
Meta aseveró en enero que a los adolescentes menores de 16 años no se les debe mostrar ningún contenido sexual explícito. Pero no es tan cierto lo dicho. Más de una docena de pruebas manuales realizadas, las cuentas de menores de edad no siguieron a nadie ni buscaron nada, para evitar actividades que pudieran influir en las recomendaciones de contenido de Instagram. Los clips iniciales presentaban comedia tradicional, coches o acrobacias, así como imágenes de personas heridas. Las cuentas de prueba pasaron por alto esos videos.
Luego se dedicaron a ver videos recomendados por Instagram que presentaban imágenes de mujeres bailando o posando de una manera que podría interpretarse como sexualmente sugerente. No les gustó, no guardaron ni hicieron clic en ninguno de estos. Después de algunas sesiones cortas, Instagram dejó de recomendar videos de comedia y acrobacias y alimentó a las cuentas de prueba con un flujo constante de grabaciones de mujeres haciendo pantomimas de actos sexuales. O que describían gráficamente su anatomía o se acariciaban con música con letras provocativas.
La plataforma llegó a recomendar a una cuenta de prueba identificada como de 13 años, un clip de una artista adulta que prometió enviar una foto de sus «bolsos en el pecho» por mensaje directo a cualquiera que comentara su video. Otra mostró sus genitales a la cámara. Las sesiones adicionales de los días siguientes produjeron la misma combinación de contenido sexual, junto con anuncios de marcas importantes.
Algoritmos defectuosos
Pruebas similares s e aplicaron a videos cortos de Snapchat y TikTok, pero no produjeron el mismo contenido sexualizado para usuarios menores de edad. «Las tres plataformas también dicen que existen diferencias en el contenido que se recomendará a los adolescentes», precisa Edelson. «Pero incluso la experiencia para adultos en TikTok parece tener contenido mucho menos explícito que la experiencia para adolescentes en reels».
Para Meta, los hallazgos de las pruebas no son representativos de la experiencia general de los adolescentes. «Este fue un experimento artificial que no coincide con la realidad de cómo los adolescentes usan Instagram», afirmó el portavoz Andy Stone. Dijo que los esfuerzos de la compañía para evitar que sus sistemas recomienden contenido inapropiado a menores están en curso. «Como parte de nuestro trabajo de larga data en temas de juventud, establecimos un esfuerzo para reducir aún más el volumen de contenido sensible que los adolescentes pueden ver en Instagram, y hemos reducido significativamente estas cifras en los últimos meses», explicó.
Casi todas las pruebas se llevaron a cabo entre enero y abril; no obstante, en junio el periódico hizo una adicional y la situación estaba peor. La nueva cuenta con perfil adolescente se usó para ver solo videos de mujeres recomendados por Instagram. Cuando habían transcurrido 30 minutos de su creación, comenzó a recibir imágenes sobre sexo anal.
Estos sí funcionan
La función de video de Tik Tok y Snapchat operan con algoritmos detrás similares a los de reels. Se supone que todos se encargan de filtrar miles de millones de publicaciones de video para seleccionar aquellos que no pasan ciertas pruebas de calidad, se crea que presentan contenido considerado «no recomendable» o que no tengan sentido dado el idioma, la edad o la geografía del usuario. Luego, los sistemas hacen recomendaciones personalizadas entre los videos restantes en función de la probabilidad de que un usuario los vea.
A pesar de la mecánica similar de sus sistemas, ni Tik Tok ni Snapchat recomendaron los videos con mucho sexo a cuentas de adolescentes recién creadas como pasó con Instagram. En TikTok, las nuevas cuentas de prueba con edades adultas que vieron videos picantes hasta el final comenzaron a recibir más de ese contenido. Pero las nuevas cuentas de con perfil de adolescentes que se comportaron de manera idéntica prácticamente nunca vieron ese material. Incluso, con una de las cuentas se buscó activamente, siguió y le dio me gusta a videos de creadores de contenido sexual para adultos.
Un ingeniero de TikTok atribuyó la diferencia a estándares de contenido más estrictos para usuarios menores de edad, así como a una menor tolerancia a los falsos positivos al restringir las recomendaciones. «Pecamos de cautelosos», dijo un portavoz de TikTok. Agregó que los adolescentes tienen acceso a un grupo de contenido más limitado.
Ya se sabía
Pruebas internas y análisis adelantados por empleados de Meta identificaron los mismos problemas, según comentaron empleados actuales y anteriores. También se describen en documentos a los que tuvo acceso The Wall Street Journal que forman parte de una investigación de la empresa no divulgada anteriormente sobre las experiencias dañinas de los adolescentes en Instagram. En 2021, el personal de seguridad de la empresa realizó pruebas similares a las de Edelson y el diario y obtuvo resultados comparables, precisaron exempleados.
Otra investigación interna de 2022 encontró que Meta sabía desde hacía mucho tiempo que Instagram mostraba más pornografía, sangre y discursos de odio a los usuarios jóvenes que a los adultos. Los adolescentes informaron estar expuestos a acoso, violencia y desnudez no deseada en tasas que excedieron a los usuarios mayores en encuestas hechas por la compañía. Las estadísticas confirmaron que era muy probable que la plataforma ofreciera contenido a niños que violaba sus propias reglas.
Los adolescentes de la investigación vieron tres veces más publicaciones prohibidas que contenían desnudez, 1,7 veces más violencia y 4,1 veces más contenido de intimidación que los usuarios mayores de 30 años. Los esfuerzos automatizados de Meta para evitar que dicho contenido llegue a los adolescentes a menudo eran demasiado débiles para ser efectivos. El estudio sugiere para evitar que se entregue contenido inapropiado a usuarios menores de edad se cree un sistema de recomendación completamente separado para adolescentes. Pero Meta ni se inmutó ante la propuesta.
Directivos «preocupados»
Algunos altos ejecutivos, incluido el director de Instagram, Adam Mosseri, han expresado preocupación por la exhibición desproporcionada de contenido para adultos y otro material infractor a niños, según manifestó personal de la empresa. La función de los algoritmos de reels, en parte, es detectar los intereses de los usuarios. Determinan en qué videos permanecen más tiempo y recomiendan contenido similar.
Meta ha establecido políticas para controlar estos sistemas automatizados de recomendaciones. Según sus pautas, no se debe recomendar contenido sexualmente sugerente a usuarios de ninguna edad a menos que provenga de cuentas que hayan elegido seguir específicamente. En una reunión a finales del año pasado, altos funcionarios de seguridad discutieron si sería suficiente reducir la frecuencia con la que los menores ven contenido prohibido al nivel que ven los adultos.
Los abogados de Meta comenzaron en la segunda mitad del año pasado a exponer ante los principales líderes de la compañía que los problemas de seguridad infantil en Facebook e Instagram planteaban riesgos legales y regulatorios subestimados. Empleados dijeron que Meta recientemente ha ampliado sus inversiones en trabajo de seguridad infantil luego de años de presupuestos ajustados.