En media hora, con una inversión de cero euros se puede hacer un video porno de 60 segundos usando la Inteligencia Artificial, pero colocando el rostro de una niña o una mujer de carne y hueso. Esas jóvenes sufren una nueva forma de violencia de género y no saben dónde denunciar o cómo borrar estos contenidos falsos de Internet.
En la mayoría de los países no hay una legislación específica que penalice la realización y distribución de estos contenidos falsos. El sentimiento de vulnerabilidad aumenta y saber que estos contenidos pueden circular en Internet con tu rostro es una forma clara de violencia.
Asher Flynn, profesora de la Universidad de Monash, Australia, especialista en IA y abusos facilitados por la tecnología, explica que hay índices muy altos de padecimientos mentales en las víctimas de estos porno deepfakes. Las víctimas desarrollan ansiedad, depresión, se autolesionan y pueden llegar hasta el suicidio, como consecuencia de esta violencia digital. “Las repercusiones potenciales en la salud mental y física de una persona, así como las consecuencias en su vida laboral, familiar y social, pueden ser inmensas, independientemente de que la imagen sea un deepfake o “real”, agrega Flynn.
El inicio con famosas
Los primeros deepfakes empezaron con actrices famosas como Jennifer Lawrence o Scarlett Johansson. Sus fotos eran recortados e incrustadas en escenas pornográficas que después eran colgadas en páginas para entretenimiento de adultos, tanto en vídeo como en imágenes. Sin embargo, cualquier persona también pueden ser víctima de pornografía deepfake. Y lo son. El fenómeno está muy lejos de detenerse. Por el contrario, aumentó 464% en 2023.
El estudio “State of deepfakes 2023” detalló que de 3.725 vídeos en 2022, alcanzó los 21.019 en lo que va de 2023. Se basó en la información obtenida de vídeos de los 10 principales sitios web dedicados a la pornografía, además de 85 canales especializados en deepfakes de YouTube, Vimeo y Dailymotion. Apunta a que de 7 de los 10 principales sitios web de pornografía tienen deepfakes”.
El 99% de las víctimas son mujeres
Otra de las conclusiones es que la producción de estos vídeos es selectiva: el 99% de las víctimas son mujeres. Corea del Sur, el país más afectado por el aluvión de contenidos sexuales falsos. Entre el 53% y el 94% de las víctimas que aparecen vídeos falsos se dedican a la industria del entretenimiento. Las cantantes tienen el primer lugar y les siguen las actrices y las influencers.
La investigación ‘State of deepfakes 2023’ incluye una encuesta entre 1.522 hombres estadounidenses entre el 15 de julio y el 29 de agosto de 2023 que encontró que el 48% de los encuestados han consumido pornografía deepfake al menos una vez en su vida. El 74% de ellos afirmaron que no sienten ningún remordimiento o culpa por consumirla.
Es muy fácil y económico
La inteligencia artificial actualmente permite hacer vídeos sexuales falsos con una inversión mínima y gran facilidad. Hay aplicaciones que “fabrican” un cuerpo desnudo muy realista después de analizar la foto de una persona. Antes había que tener conocimientos y experiencia en el área. Ahora, con los avances tecnológicos, cualquiera puede realizar un deepfake. Hay interfaces gráficas intuitivas, comunidades y aplicaciones gratuitas que permiten desde un intercambio de rostros hasta las manipulaciones más complejas.
Los grandes creadores de deepporno tienen claro que es un negocio muy lucrativo, pero hay quienes los hacen como una forma de avergonzar, extorsionar o vivir fantasías. En cualquier caso, las leyes no amparan con eficacia a las víctimas. No existe todavía una legislación que defina estos actos como delitos.
Sin leyes que protejan la intimidad
En España, la creación de imágenes sexuales creadas por inteligencia artificial, o deepfakes sexuales, no se contempla como un delito específico en el Código Penal. Sin embargo, se le trata como una forma de violencia de género si una mujer denuncia el caso.
«Se considera que la creación de estos contenidos sin consentimiento es una forma más de violencia contra las mujeres. Los contenidos falsos de personas reales desinforman, manipulan y destruyen la reputación de la víctima de la misma manera que lo hace la porno de venganza o la sextorsión, afirmó Rocío Pina, profesora de los Estudios de Psicología y Ciencias de la Educación de la Universitat Oberta de Catalunya, UOC.
De igual forma, abogados consultados consideran que se violan dos grandes derechos: el de la protección de datos o privacidad, y también la intimidad, honor y propia imagen
A la víctima se le aconseja:
- Guardar las imágenes.
- Denunciar ante las autoridades.
- Apoyarse en el entorno de confianza.
- Buscar ayuda psicológica.
- Informarse sobre instituciones que puedan apoyar e informar sobre casos similares y las medidas que se pueden tomar en materia legal.
La IA para abusar de menores
En 2019 aumentó de forma alarmante, el uso de imágenes de niñas y adolescentes, según Sophie Maddocks, investigadora y defensora de los derechos digitales de la Universidad de Pensilvania, Estados Unidos. Dijo que algunos pedófilos utilizan IA para crear y vender material que simula situaciones reales de abuso sexual infantil.
Octavia Sheepshanks, periodista independiente, dijo a la BBC que hay «enorme aluvión de imágenes generadas por IA no solo de adolescentes y niñas, han creado imágenes muy realistas de abuso sexual infantil, incluida la violación». La BBC publicó que los consumidores de estos contenidos logran el acceso a las imágenes pagando subscripciones a cuentas.