La inteligencia artificial ha abierto una puerta peligrosa en esta realidad cada vez más digitalizada: la creación de deepfakes, imágenes y videos falsos generados por algoritmos. Si bien han sido utilizados para todo tipo de propósitos, desde sátiras hasta campañas políticas, uno de los aspectos más preocupantes es su impacto en la pornografía, especialmente cuando se trata de menores de edad.
Lo más inquietante es que los niños y adolescentes también están involucrados en su creación. Sin tener una clara noción de las consecuencias, algunos estudiantes comparten desnudos falsos de sus compañeras de clase generados por IA. Estos jóvenes, a su vez, se convierten en victimarios sin entender completamente el impacto de sus acciones. La falta de leyes específicas que prohíban los deepfakes de pornografía infantil complica aún más la situación.
EL DATO
El término “deepfake” fue acuñado a finales de 2017 por un usuario de Reddit que usó Googleos, tecnología de intercambio de caras de código abierto para hacer videos pornográficos. El término es la combinación de “deep learning” o aprendizaje profundo (una técnica de inteligencia artificial) y “fake” que en español se traduce a falso.
Casos por doquier
La tranquilidad de padres, alumnos y docentes de la escuela secundaria Westfield High School, en Nueva Jersey, Estados Unidos, fue sacudida en noviembre del año pasado cuando la directora de dicha institución informó que un grupo de alumnos se valió de la inteligencia artificial para generar deepfake pornográficas de compañeras de clases. Las imágenes falsas de algunas adolescentes desnudas fueron difundidas a través de correos electrónicos entre otros estudiantes. La directora Mary Asfendis lo calificó de incidente “muy grave”, aunque no precisó el número de personas afectadas ni la identidad o sanciones que enfrentan los responsables, pues el tema entra en espectro de la confidencialidad por ser menores de edad.
Pero este no es un incidente aislado. Ya había sucedido uno similar dos meses antes. La policía de Seattle también investiga el caso de un adolescente que habría empleado IA para crear y distribuir imágenes pornográficas falsas de otras estudiantes del Distrito Escolar de Issaquah. En España también se registró un caso en Almendralejo, un pueblo de Extremadura, que hizo saltar las alarmas. Menores de edad se convirtieron en víctimas de deepfakes. Sus fotografías fueron manipuladas utilizando herramientas de IA para desnudarlas, y estas imágenes se distribuyeron sin su consentimiento. Aunque este fue el primer caso mediático en el país, expertos advirtieron que no sería el último. Las herramientas de IA generativa, como DALL·E o Stable Diffusion, ofrecen a los ciberdelincuentes un abanico de posibilidades para cometer delitos.
Igualmente, han sido víctimas de la práctica personalidades públicas, incluidas la congresista Alexandria Ocasio-Cortez, la estrella de Hollywood Scarlett Johansson y la cantante Taylor Swift, así como varios youtubers y twitch streamers que se han visto atrapados en escándalos de pornografía falsos.
En auge
Se trata de una tendencia creciente entre los jóvenes y adultos que, al igual que los delitos de pornografía tradicional, se basa en el aprovechamiento de los sectores más vulnerables, como mujeres, niños y adolescentes, y que pone en riesgo la reputación de sus víctimas. Son imágenes, videos o audios manipulados con técnicas de IA y aprendizaje profundo, que hacen parecer que una persona está diciendo o haciendo algo que nunca dijo o hizo. Los mismos se generan superponiendo rostros o modificando la expresión facial y vocal en grabaciones existentes. El nivel de realismo cada vez es mayor, lo que dificulta la distinción entre lo falso y lo auténtico.
No es una práctica nueva, pero ahora con la inteligencia artificial no solo se pueden alterar imágenes, sino también crearlas. Hasta hace poco era muy difícil sustituir un rostro en unos fragmentos de video. Únicamente algunos estudios de cine podían afrontar el gasto que significaba llevarlo a cabo. Pero los avances tecnológicos permiten que actualmente cualquier persona pueda hacer un deepfake con mayor o menor calidad.
Un estudio de la firma investigadora independiente Genevieve Oh reveló que en 2023 se compartieron en línea más de 143.000 videos manipulados por la IA o deepfake, lo que supera los totales de años anteriores combinados. La Fundación para la Vigilancia de Internet (IWF) en el Reino Unido ha descubierto casi 3.000 imágenes de abusos creadas por IA que infringen la legislación británica. Estas imágenes, que representan a menores en situaciones sexuales, amenazan con saturar Internet. La falta de leyes específicas que prohíban los deepfakes de pornografía infantil complica aún más la situación
Niños convertidos en victimarios
Estos jóvenes estudiantes que comparten desnudos falsos de sus compañeros de clases generados por IA son, a la misma vez, víctimas y victimarios sin entender completamente el impacto de sus acciones. Esta difusión puede derivar en distintas consecuencias emocionales y de comportamiento. Si bien siempre dependerá del alcance de la conducta sufrida, el tiempo o la importancia subjetiva de quien sufre este tipo de agresión pueda tener, varias investigaciones ya han evidenciado efectos negativos.
Estos pueden hacerse visibles a partir de trastornos depresivos y de ansiedad, pérdida de autoestima, impotencia, alteraciones del sueño, de la conducta alimentaria o el consumo de sustancias, entre otros. Según un estudio del Observatorio Nacional de Tecnología y Sociedad, el 42 % de las niñas y las jóvenes que ha sufrido acoso online muestran estrés emocional, baja autoestima y pérdida de autoconfianza.
Internet Watch Foundation afirma que existen pruebas de que la IA permite desnudar literalmente a los niños cuyas imágenes vestidas se han subido a internet. La situación incrementa el potencial de revictimización de niños y niñas que han sufrido abuso sexual. Advierte que la mayoría de los contenidos de abuso sexual infantil hechos con IA son lo suficientemente realistas como para tratarse como contenidos de abuso sexual infantil real. Especialistas consideran cada vez más difícil distinguir el contenido real del falso.
Aseguran que los sistemas generadores de inteligencia artificial han corregido de forma progresiva los errores en la disposición de los elementos de una cara, de las manos. Además, ha ocurrido muy rápidamente, en los últimos seis meses o un año. Todo focalizado en mejorar el algoritmo sin atender a cuáles podrían ser las consecuencias derivadas del mal uso de esta tecnología.
Proliferan por vacíos legales
Rocío Pina, profesora de los Estudios de Psicología y Ciencias de la Educación y del grado de Criminología de la Universitat Oberta de Catalunya, asegura que la creación de imágenes sexuales con inteligencia artificial, o deepfakes sexuales, no se considera aún como un delito específico en el código penal de muchos países.
Algunos estados de Estados Unidos, como Texas, Minnesota, Nueva York, Virginia, Georgia y Hawaii, han promulgado leyes contra la distribución no consensual de contenido pornográfico. Por su parte, China es uno de los primeros países en realizar una normativa específica de deepfakes. Espera controlar el uso dañino y evitar difusión de videos engañosos en que se comprometa el derecho a la integridad del ser humano. En otras naciones, como Inglaterra, también se está abordando la parte legal del problema.
Y aunque no esté presente en la legislación, el fenómeno vulnera dos grandes derechos: la protección de datos o privacidad, y la intimidad, honor y propia imagen. Eduard Blasi, experto en derecho a la privacidad, precisa que se vulnera la normativa de protección de datos porque se difunde información que, aunque sea esencialmente falsa, utiliza datos personales reales, como el rostro de una persona o a veces incluso la voz sin consentimiento del afectado.
Expresa que «la norma obliga a recabar el permiso del interesado no solo para la creación de estas imágenes, sino también para su posterior difusión a un alto número de personas o en redes sociales” . Expertos dicen que la falta de coherencia entre las leyes estatales crea problemas, y las regulaciones federales están muy atrasadas. También dicen que las plataformas, no solo las personas, deben ser consideradas responsables de falsificaciones profundas no consensuadas.
Grandes empresas detrás
Hasta la fecha, nadie en Estados Unidos ha sido procesado por crear contenido sexualizado no consensuado generado por IA. Sin embargo, un contingente creciente de abogados, académicos y víctimas de políticas tecnológicas han comenzado a explorar una nueva táctica para abordar el problema.
Para atraer usuarios, ganar dinero y mantenerse en funcionamiento, los sitios web deepfake dependen de una extensa red de productos y servicios tecnológicos. Muchos son proporcionados por grandes empresas. Si bien estos servicios transaccionales en línea tienden a estar bien protegidos legalmente, quienes se oponen a esta industria ven su dependencia a estos servicios de gigantes tecnológicos sensibles a la prensa como una vulnerabilidad potencial. Cada vez más, los presionan públicamente para que retiren de la lista y de la plataforma el contenido dañino generado por IA.
Activistas quieren que los motores de búsqueda y las redes sociales hagan más para limitar su propagación. Cualquiera que escriba el nombre de una mujer conocida en Google junto con la palabra “deepfake” puede recibir docenas de enlaces a web deepfake. Entre julio de 2020 y julio de 2023, el tráfico mensual a los 20 principales de estos sitios aumentó un 285%, según datos de la empresa de análisis web Similarweb.
Google resultó ser el mayor impulsor de tráfico. En julio de 2023, los motores de búsqueda dirigieron 248.000 visitas diarias al sitio más popular, Mrdeepfakes.com, y 25,2 millones de visitas, en total, a los cinco sitios principales. SimilarWeb calcula que Google representa el 79% del tráfico de búsqueda global.
Cifras alarmantes
- En 290% se han disparado los desnudos falsos desde 2018 en los 10 principales sitios web que albergan fotos porno generadas por IA.
- 143.000 videos porno generados por IA se agregaron en 2023 en los 40 sitios web más populares para videos falsos. La cifra supera a todos los videos nuevos de este tipo subidos entre 2016 y 2022.
- 4.200 millones de vistas han generado los 143.000.
- 96% de todos los deepfake, a escala global, se refiere a pornografía no consentida o falsamente generada por IA.
El mensaje llega, la presión continúa
Google dijo que, como cualquier motor de búsqueda, indexa el contenido que existe en la web. El portavoz Ned Adriance asegura que diseñan activamente sistemas de clasificación. Con estos dispositivos buscan evitar que las personas se topen con contenido explícito o dañino inesperado que no quieren ver. La compañía indicó que ha desarrollado protecciones para ayudar a las personas afectadas por pornografía falsa involuntaria. Incluido el hecho de que las personas pueden solicitar la eliminación de páginas sobre ellos que incluyan ese contenido.
La red social X ya cuenta con políticas que prohíben los medios sintéticos y manipulados. Pero estos contenidos continúan circulando entre sus usuarios. Tres hashtags para videos e imágenes deepfaked se postean docenas de veces cada día, según datos de Dataminr, una empresa que monitorea las redes sociales en busca de noticias de última hora. Entre el primer y el segundo trimestre del año pasado, la cantidad de post de ocho hashtags asociados con este contenido aumentó un 25% hasta 31.400 mensajes.
Las campañas de presión pública han logrado convencer a las empresas de servicios web, incluida Cloudflare, de que dejen de trabajar con sitios controvertidos, desde 8Chan hasta Kiwi Farms. Los activistas esperan que una mayor presión contra las empresas que albergan sitios y herramientas de pornografía deepfake pueda lograr un resultado similar.
Legislación más estricta
La creciente preocupación ha llevado a exigir regulaciones más estrictas en el uso de la inteligencia artificial. La comunidad internacional busca cómo actuar de manera urgente para proteger a los más vulnerables y prevenir que los deepfakes sigan proliferando. La regulación de los deepfakes es un desafío complejo que requiere un enfoque multifacético.
La Comisión Europea ha creado un reglamento de IA que entró en vigencia este agosto. El instrumento legal busca armonizar el uso de la inteligencia artificial. Para ello establece normas de transparencia para sistemas de IA que interactúan con personas. También para aquellos utilizados para generar o manipular contenido de imagen, audio o video. También en muchos países, como España y México, existe el “derecho al honor” o “la honra”. Si un deepfake utiliza la imagen de alguien sin su consentimiento y el contenido es comprometedor, podría violar este derecho. Además, se podrían aplicar delitos contra la integridad moral, injurias o calumnias.
Asimismo, si un deepfake se utiliza para difundir información falsa o difamatoria, podría dar lugar a acciones legales por difamación. Algunas plataformas en línea también tienen políticas específicas que prohíben la creación y distribución de deepfakes.
La regulación requiere una combinación de leyes claras, cooperación internacional, tecnología avanzada, educación pública y estrategias corporativas proactivas. A medida que la tecnología avanza, es fundamental abordar este problema para proteger la privacidad y la integridad de las personas.
Más allá de lo legal
Dado que pueden ser utilizados para difundir desinformación, manipular la opinión pública y ser vehículo para cometer delitos sexuales, los deepfakes han generado preocupación en términos de seguridad y privacidad. Más allá del uso impropio de la tecnología, este tipo de accionar puede causar un daño moral y físico-mental en las víctimas. Que pueden tomar medidas drásticas o fatales para dar fin a ese padecimiento. Esto debido a la falta de redes de contención adecuadas para su situación de vulnerabilidad.
Por ello se torna necesario el diseño e implementación de normas orientadas tanto a proteger a las posibles víctimas de este tipo de delito, como a establecer penas para los infractores. Pero desde una perspectiva no solo legislativa, sino también educativa. El fin es dotar a las personas de herramientas tecnológicas necesarias para su desarrollo e inclusión en la comunidad de referencia. Pero alertándolas sobre las potencialidades y peligros a los que pueden verse asociadas. Igualmente, indicándoles los pasos que deben dar y las instancias a las que tienen que acudir en caso de ser víctima de delito cibernético. Factor no menor si se considera que ninguna tecnología es buena o mala de por sí, sino que depende del uso social que se le asigne.
No son malos per se
- Los deepfakes también pueden utilizarse para el bien. Por ejemplo, al permitir que los niños y adolescentes se conviertan en protagonistas de sus programas, videojuegos y películas favoritos. Podemos seguir estos pasos con el fin de enseñarles a hacer un buen uso de este avance tecnológico:
- Ver juntos algunos videos deepfake y empezar a conversar: el primer paso para prevenir el uso indebido de los deepfakes es tomarse el tiempo necesario para ver algunos de estos videos y analizar juntos el tema. Charlar sobre por qué existen y para qué se pueden utilizar.
- Intentar descubrir juntos las diferencias entre los videos deepfake y los reales: aunque cada vez es más difícil identificarlos, algunos aspectos pueden ayudar a detectar su falsedad. En primer lugar, buscar movimientos inusuales, como parpadeos no naturales. Los deepfake tienden a tener problemas para replicar los atributos físicos más sutiles.
- Mostrarles que existen herramientas que evalúan la probabilidad de que el contenido sea falso. Como Microsoft Video Authenticator. El software puede analizar una foto o video para decirte qué tan probable es que el contenido sea real.
- Hablarles acerca de lo que comparten online: cuando los más pequeños suben sus fotos y videos a Internet, pueden compartir, sin saberlo, todo lo necesario para crear un video deepfake de ellos potencialmente dañino.
- Explorar juntos y encontrar medidas preventivas: respetar su privacidad, pero sin dejar de pedirles recorrer juntos sus redes sociales para ver qué tipo de contenidos consumen. Si ellos deciden utilizar apps que les permiten crear deepfakes, como FaceApp o FaceSwap, es bueno probarlas juntos y utilizar la aplicación para entretenerse.