La proliferación de material de abuso sexual infantil en sus plataformas ha convertido Internet en una guarida de pedófilos
La protección de los niños debe ser la máxima prioridad, pero en el siglo digital el futuro es sombrío. La realidad se torna aterradora por la proliferación de contenido de abuso sexual infantil en línea. En Estados Unidos se considera pornografía infantil toda representación visual de conducta sexualmente explícita que involucra a menores de 18 años de edad, pero el término más preciso es «materiales de abuso sexual infantil» (CSAM, por sus siglas en inglés), porque refleja la explotación y el abuso que sufren las víctimas.
Las imágenes y videos no solo capturan el abuso, al ser compartido en Internet perpetúan la revictimización de los niños. Una encuesta del Canadian Centre for Child Protection determinó que el 67% de los sobrevivientes del abuso sexual afirman que las imágenes los afectan. La reproducción no tiene fin y las imágenes son permanentes.
Los datos son alarmantes. En 2023, la ONG Childlight registró, solo en España,104.748 denuncias relacionadas abuso sexual infantil. Unas 2.000 denuncias semanales. A nivel mundial, estiman la existencias 2,6 millones archivos con imágenes sexuales de menores en 21 países de habla hispana. Se estima que más de 300 millones de niños son víctimas de abuso y explotación sexual en línea cada año. Cada segundo se reporta un caso.
En 2023, la organización Internet Watch Foundation (IWF) detectó más de 270.000 páginas web que con contenido sexual explícito relacionado con menores. Las denuncias de imágenes de abuso y explotación sexual infantil alcanzaron un récord absoluto en 2023: 71.867. Otro informe destaca el uso de inteligencia artificial en la creación y difusión de estos contenidos. Son datos alarmantes que ponen de manifiesto la necesidad de que las plataformas digitales tomen medidas rigurosas y efectivas. Sin embargo, las ONG y familiares de las víctimas califican la respuesta de las grandes tecnológicas como indolente y criminal.
Perseguidas por imágenes digitales
El New York Times publicó una historia que ilustra los peligros de la era digital. Dos hermanas que sufrieron abusos sexuales en su infancia viven con el temor constante de ser reconocidas a través de las imágenes y videos de sus traumáticas experiencias que siguen circulando en internet y que fueron colgadas en Internet por el propio padre. En 2024 se encontraron fotografías y videos de las hermanas en más de 130 investigaciones de abuso sexual infantil que involucraban dispositivos móviles, computadoras y cuentas de almacenamiento en la nube.
La industria tecnológica ha fracasado sistemáticamente en tomar medidas que erradiquen el problema, su único logro ha sido mejorar en la identificación de material de abuso sexual infantil en línea. El año pasado fueron marcados como material de abuso infantil 45 millones de fotos y videos. Las tecnológicas disponen de herramientas para detener la recirculación de imágenes de abuso, pero no utiliza plenamente las herramientas.
Amazon, por ejemplo, no busca activamente imágenes ilegales en sus servicios de almacenamiento en la nube ni Apple escanea su almacenamiento en la nube. Además, algunas empresas, como Snapchat y Yahoo, solo buscan fotos y no vídeos, que es el problema más significativo. Sus esfuerzos son inconsistentes y dejana los depredadores en condiciones ventajosas.
Privacidad como excusa
Facebook, la mayor red social del mundo, escanea a fondo sus plataformas, más del 90% de las imágenes el año pasado. Sin embargo, no utilizando todas las bases de datos disponibles para detectar este material sexual ilegal. «Cada empresa busca su propio equilibrio entre privacidad y seguridad, y estas decisiones tienen un impacto enorme en la seguridad de los niños», explicó Alex Stamos, ex jefe de seguridad de la información en Facebook y Yahoo.
Las compañías tecnológicas son mucho más propensas a revisar en sus plataformas fotos, videos y otros archivos para fines como el reconocimiento facial, la detección de malware y los derechos de autor, pero no para la búsqueda de contenido abusivo. Se escudan en la protección de la información personal.
Una de las principales herramientas para detectar imágenes ilegales es PhotoDNA, un programa creado en 2009 por Microsoft y el profesor Hany Farid de la Universidad de California, en Berkeley. Puede reconocer fotos, incluso alteradas, y compararlas con bases de datos de imágenes ilegales conocidas, pero tiene limitaciones que permiten que innumerables imágenes se cuelen por las rendijas.
El Fallo de Bing
Una investigación del New York Times señala que os principales motores de búsqueda, incluido el servicio Bing de Microsoft, siguen permitiendo el acceso a imágenes y videos de abuso sexual infantil. Joshua González, un técnico informático de Texas detenido con más de 400 imágenes de abuso sexual infantil en su computadora, admitió que utilizó el motor de búsqueda Bing de Microsoft para encontrar la parte del ilegal material.
Aunque Microsoft ha sido pionera en la lucha contra las imágenes abusivas, (creó la herramienta de detección PhotoDNA), parece que muchos delincuentes han recurrido a Bing como una plataforma de confianza para acceder al ilegal contenido.
Un informe de enero, encargado por TechCrunch, encontró imágenes explícitas de niños en Bing utilizando términos de búsqueda como «porn kids». En respuesta, Microsoft dijo que prohibiría los resultados que lo utilizaran.
Una investigación posterior encontró repetidamente imágenes marcadas como contenido ilícito conocido por el propio servicio PhotoDNA de Microsoft. Incluso, Bing recomendaba en el cuadro de búsqueda un sitio web conocido por abusos a menores.
Búsquedas similares realizadas por el Times en otros motores de búsqueda como DuckDuckGo y Yahoo, que utilizan los resultados de Bing, también devolvieron imágenes de abusos. En total, se encontraron 75 imágenes de material similar en los tres motores de búsqueda. Después de revisar los hallazgos, Microsoft admitió fallas en sus prácticas de escaneo.
Hemanshu Nigam, exdirector de supervisión de la seguridad infantil en Microsoft, calificó los hallazgos como un «fallo importante» y que parecía que la empresa no estaba utilizando adecuadamente sus propias herramientas. Registros judiciales y entrevistas con funcionarios policiales indican que los pederastas son muy conscientes de las vulnerabilidades de motores de búsqueda como Bing, de Microsoft. Desde hace años, lo han utilizado para encontrar y compartir material ilegal.
Chats de pederastas
En Google también han alojado contenido de abusos sexuales a menores. La empresa se ha resistido en ocasiones a retirar este tipo de imágenes. El Canadian Centre for Child Protection le pidió a Google en agosto de 2023 que retirara la imagen de unos menores de 12 años, forzados a realizar actos explícitos entre ellos. Google respondió que no cumplía su umbral para retirarla. Los analistas presionaron durante nueve meses hasta que cedió.
El problema no se limita a los motores de búsqueda. Los delincuentes a menudo aprovechan múltiples tecnologías y se reúnen en aplicaciones de chat para compartir imágenes almacenadas en la nube, pero especialmente para discutir cómo explotar las vulnerabilidades de las plataformas y compartir manuales que explican cómo producir y distribuir las imágenes.
«Cualquier sistema que permita compartir fotos y vídeos está absolutamente infestado de abusos sexuales a menores», afirma Alex Stamos, exjefe de seguridad de Facebook y Yahoo
No están haciendo lo que podrían
Ha pasado más de una década desde que se desarrolló la tecnología PhotoDNA en Microsoft, pero los esfuerzos de la industria por detectar y eliminar las fotos ilegales no dan resultados. Para detectar los contenidos de abuso sexual infantil en vídeos la ineficacia ha sido mayor. No existe un método para identificar los contenidos de vídeo ilegales. Muchas de las principales plataformas, como AOL, Snapchat y Yahoo, ni siquiera los buscan.
«Las empresas tecnológicas hacen lo mínimo necesario para mantener el respeto público por sus organizaciones, pero no todo todo lo que podrían con las tecnologías disponibles», declaró el experto en informática forense de la Universidad George Mason, Chad M.S. Steel.
Antiguos empleados de Microsoft, Twitter, Tumblr y otras compañías dicen que las tecnológicas saben desde hace años que en sus plataformas se comparten vídeos de menores sufriendo abusos sexuales. El año pasado, las empresas tecnológicas remitieron más de 22 millones de fotos y videos al Centro Nacional para Menores Desaparecidos y Explotados, (centro de intercambio de información sin ánimo de lucro encargado por el gobierno federal de actuar como depositario de las imágenes).
Abiertas a los delincuentes
Los esfuerzos por abordar el urgente problema de los contenidos de vídeo se han topado con obstáculos creados por las propias empresas. En 2017, la industria tecnológica aprobó un proceso para compartir las huellas dactilares de vídeo con el fin de facilitar la detección de material ilícito. Pero el plan no ha llegado a ninguna parte.
Las principales plataformas de almacenamiento en la nube, como Amazon Web Services, Dropbox, Google Drive y OneDrive y Azure de Microsoft, dejan un gran margen de maniobra a los delincuentes.
Un caso en Pensilvania destaca el desafío de detectar y detener la transmisión en vivo de abusos sexuales a menores a través de plataformas de retransmisión en directo. Más de una docena de hombres de todo el mundo estaban conectados a una sesión de Zoom en la que un hombre estaba agrediendo sexualmente a un niño de 6 años.
Las grandes empresas tecnológicas no son capaces de detectar o detener la transmisión en vivo a través del análisis automatizado de imágenes.
Un ejecutivo de tecnología de Zoom informó que la compañía, utilizando otros métodos, había realizado mejoras significativas. Facebook, Google y Microsoft han dicho que están desarrollando tecnologías que encontrarán nuevas fotos y vídeos en sus plataformas.
Promesa incumplida de Apple
Apple presentó en 2021 un sistema de escaneo para buscar abusos sexuales a menores. Anunció que sus iPhones almacenarían una base de datos de firmas digitales asociadas con material conocido de abuso sexual infantil identificado por grupos como el Centro Nacional para Niños Desaparecidos y Explotados. Pero cuando los expertos en ciberseguridad advirtieron que crearía una puerta trasera para los iPhones que podría dar acceso a los gobiernos, la compañía abandonó su plan. Alegó que era casi imposible escanear fotos de iCloud sin poner en peligro la seguridad y la privacidad de nuestros usuarios».
Toda acción genera una reacción. A principios de este año, Sarah Gardner, fundadora de un grupo de defensa de los niños llamado Heat Initiative, comenzó a buscar bufetes de abogados con experiencia en la representación de víctimas de abuso sexual infantil. En marzo, el equipo de Heat le pidió a Marsh Law, una firma que se dedica a representar víctimas de abuso sexual infantil, si podía presentar una demanda contra Apple.
Una mujer de 27 años presentó una demanda en la que le acusa a Apple de haber desarrollado una herramienta que detecta y denuncia imágenes de abusos sexuales a menores que nunca la implementó. Considera que Apple dio falsas esperanzas a las víctimas de abuso sexual infantil al introducir y abandonar su sistema NeuralHash. Eligió la privacidad y las ganancias por sobre las personas. Considera que la inacción de la empresa es desgarradora e imperdonable.
Indolencia y codicia
Apple ha denunciado menos material abusivo que sus pares, apenas una pequeña fracción de lo que captan Google y Facebook. La empresa se defiende alegando que protege la privacidad de los usuarios. Pero los grupos de defensa de la infancia la critican por hacer muy poco para detener la difusión de pornografía infantil.
Riana Pfefferkorn, abogada y miembro del Stanford Institute for Human-Centered Artificial Intelligence, dijo que hay obstáculos significativos para cualquier demanda sobre las políticas de Apple relativas al material de abuso sexual infantil. En una declaración en respuesta a la nueva demanda, Fred Sainz, un portavoz de Apple, dijo que la empresa se compromete a luchar contra las formas en que los depredadores ponen en peligro a los niños.
En opinión de expertos y ONG, la inacción de las tecnológicas en relación con el abuso sexual infantil en línea no se debe a su preocupación por la privacidad de sus clientes. La protección de sus intereses económicos y la preservación de sus modelos de negocio priman sobre la seguridad y el bienestar de los menores.
La industria de la pornografía infantil se beneficia de esta complicidad. Mientras que la necesaria protección de los menores se pasa por alto. El abuso sexual infantil en línea es una epidemia global que exige una respuesta urgente y coordinada. Las cifras son escalofriantes. Millones de casos reportados y una estimación de 300 millones de niños víctimas de abuso y explotación sexual en línea cada año.
Las organizaciones no gubernamentales y familiares de las víctimas consideran que la respuesta de las grandes tecnológicas es indolente y criminal. A pesar de sus recursos y capacidades no utilizan las herramientas a su disposición para detener la recirculación de imágenes de abusos. Como guardianas del acceso a Internet, las compañías tienen una responsabilidad ineludible en esta crisis. Su inacción es una traición a la confianza de millones de usuarios y un peligro para la infancia.