EFE Madrid |
La proliferación de ideas machistas entre los jóvenes y la accesibilidad de las aplicaciones de inteligencia de artificial son algunas claves que explican, según expertos consultados por EFE Verifica, la difusión de falsos desnudos de menores en Almendralejo (Badajoz).
La Policía Nacional investiga el uso esta tecnología para generar las fotografías manipuladas o «deepfakes», término que hace referencia a aquellas creaciones digitales que, mediante algoritmos, superponen la cara de una persona en el cuerpo de otra, en un caso en el que por el momento ha identificado a diez menores, de entre 12 y 14 años, y se ha tomado declaración a 22 víctimas.
Raúl Navarro, profesor e investigador de Psicología Social de la Universidad de Castilla-La Mancha (UCLM), sitúa el origen de la conducta de los presuntos autores en la construcción de la masculinidad que tienen las nuevas generaciones, muy influenciada por la proliferación de discursos machistas en la red.
«Algo está pasando últimamente que hace que nuestros jóvenes se estén radicalizando en sus actitudes y conductas hacia las chicas», indica Navarro, que asegura que no se está prestando demasiada atención a lo que los menores aprenden en Internet.
A ese creciente comportamiento machista apunta, precisamente, una reciente investigación del Centro Reina Sofía sobre Adolescencia y Juventud que alerta de «la influencia de la misoginia digital en la percepción que tienen los hombres jóvenes de la violencia sexual».
Aplicaciones accesibles y gratuitas
«Estas tecnologías son demasiado accesibles y su gratuidad y su accesibilidad, por desgracia, son parte de su naturaleza», señala como otra de las claves de este caso Graciela Padilla, directora de Investigaciones Feministas en la Universidad Complutense y autora de varios estudios sobre el uso de «deepfakes».
A ello hay que sumarle el hecho de que los presuntos autores de las fotos manipuladas son «nativos digitales» y tienen «muchísima curiosidad» por aprender y probar «lo nuevo, lo último o lo que es viral”, señala.
«Podrás ver desnuda a cualquier chica con un solo clic», reza el mensaje de bienvenida de una de las aplicaciones más conocidas para crear este tipo de contenidos y cuyo uso es extremadamente sencillo.
Tras completar el formulario de registro, solo es necesario subir una imagen que tenga el usuario guardado, seleccionar la zona que se quiere desnudar y la aplicación genera la imagen.
La página cuenta además con una amplia promoción en redes sociales como TikTok. Una simple búsqueda en esta plataforma revela decenas de vídeos publicados por cuentas cuyos nombres son similares y que hacen uso del humor o de memes para dar a conocerla.
Arma contra la mujer
Sin embargo, los «deepfakes» no son nuevos y llevan años circulando por la red, pero en su mayoría son creaciones con un cariz esencialmente machista, comenta Padilla.
En una de sus investigaciones, esta experta apunta a que mientras este tipo de contenidos presentan a los hombres como protagonistas de discursos o momentos relacionados con el humor o la política, las mujeres protagonizan habitualmente «falsas escenas eróticas y pornográficas».
Según la compañía Sensity AI, entre el 90 % y el 95 % de todos los «deepfakes» en línea son pornografía no consensual y alrededor del 90 % incluye a mujeres.
La cantante Taylor Swift, la «influencer» Laura Escanes o la activista Greta Thunberg han sido víctimas de estos falsos desnudos que ahora también afectan a personas anónimas y a menores.
En agosto, la Fiscalía de Perú abrió una investigación por la divulgación de fotos de varias niñas de un colegio limeño manipuladas con inteligencia artificial que se vendían con fines sexuales.
Nuevas vías para el acoso escolar
Además de ser una potencial arma más de violencia contra las mujeres, un mal uso de la inteligencia artificial abre nuevas vías al acoso escolar, alerta Navarro.
Esta tecnología, argumenta, «amplía el campo de posibilidades a través de las que llevar a cabo el acoso» y permite crear perfiles falsos en redes sociales para propagar estos mensajes a una audiencia más amplia, lo que, a su juicio, «aumenta el daño a las víctimas» y complica la tarea de identificación de los autores.
Sobre sus posibles consecuencias, Navarro explica que estas manipulaciones pueden llevar a la víctima al «ostracismo y al aislamiento» e incluso derivar en «problemas de autoestima, confianza en los demás» o «ansiedad» si no cuenta con una buena red de apoyo.
Es por ello que hay que «educar y sensibilizar de los peligros y consecuencias» del uso de estas aplicaciones, comenta Padilla, antes de poner el acento en la necesidad de «formar a progenitores y educadores» para que «tengan alfabetización mediática».
Por su parte, Navarro ve crucial fomentar una «educación con perspectiva de género» para «atajar las raíces de este problema con un enfoque preventivo».
«Los jóvenes deben contar con espacios para explorar otras formas de masculinidad, contar con diferentes referentes y una mejor educación sexual donde debe hablarse de la importancia del consentimiento para construir relaciones saludables», subraya.
Fuentes:
Raúl Navarro, profesor e investigador de Psicología Social de la Universidad de Castilla-La Mancha (UCLM).
Graciela Padilla, coordinadora del grado de Periodismo y directora de Investigaciones Feministas en la Universidad Complutense.
Estudio publicado por el Centro Reina Sofía sobre Adolescencia y Juventud de la Fundación Fad el 2 de noviembre de 2022: «Jóvenes en la manosfera. Influencia de la misoginia digital en la percepción que tienen los hombres jóvenes de la violencia sexual».
Revista Universidad Complutense de Madrid: Historia del fake audiovisual: deepfake y la mujer en un imaginario falsificado y perverso.