Page 34 - Anuario AC/E de cultura digital 2024
P. 34

 34
Como señalan en el blog de Igualdad de Género del Banco Iberoamericano de Desarrollo,16 los deepfakes se han utilizado con fines varios: como forma de extorsión, para la venta ilegal de conte- nido explícito, para la manipulación de discursos políticos o como una forma de burla, tanto hacia celebridades como hacia personas privadas. Efectivamente, en 2024 la manipulación de las imágenes que las mujeres suben libremente a internet no es solo un problema que afecte a
las actrices famosas. Las mujeres comunes y corrientes lo sufren igualmente; y lo que es más grave todavía: las menores lo están padeciendo también. Baste recordar el caso de los falsos des- nudos de las menores de Almendralejo (Badajoz), noticia que saltó a la prensa el pasado mes de septiembre de 2023. Las imágenes, difundidas por compañeros de las menores, se habrían creado con una herramienta en línea, gratuita
y de fácil acceso. Así lo explica Protección Data, una empresa especializada en protección de datos y negocios digitales, en una entrada reciente de su blog.17 En ella podemos encon- trar infinidad de ejemplos concretos del uso de herramientas para la clonación de voces, desde los audios creados para hacer creer que la actriz Emma Watson recitaba pasajes del Mein Kampf de Adolf Hitler hasta los ejemplos que involucran a muchos otros políticos. Algunos de ellos los menciono en mi reciente libro La fonética forense. Nuevos retos y nuevas líneas de investigación (San Segundo, 2023a).
Los deepfakes se utilizan para extorsionar, para la venta ilegal de contenido explícito, para la manipulación de discursos políticos o como una forma de burla.
Lo cierto es que, si la manipulación de la imagen afecta principalmente a mujeres, sobre todo
16 https://blogs.iadb.org/igualdad/es/deepfakes-vio- lencia-basada-en-genero-inteligencia-artifi- cial/#:%7E:text=En%20lo%20que%20respecta%20 a,de%20naturaleza%20%C3%ADntima%20o%20 sexual
17 https://protecciondata.es/ deepfakes-y-proteccion-de-datos/
a profesionales de la música y el cine, cuando
la manipulación es de la voz y no de la imagen es habitual que la diana apunte a un tipo muy concreto de «famosos»: los políticos. Existen muestras de su voz en todas partes y al alcance de todo el mundo: no solo hablan prácticamente a diario en radio y televisión, sino que también existen discursos enteros disponibles en canales como YouTube. Para el entrenamiento de una
IA generativa, es fundamental que existan datos numerosos y variados, con el fin de dotar de mayor realismo a la voz de la persona clonada.
Existen innumerables ejemplos de vídeos en los que aparecen políticos emitiendo mensajes falsos. Los motivos son diversos: desde difamar a una persona o simplemente generar clickbait hasta motivos serios, como crear noticias falsas con el fin de manipular a la gente: influir en elecciones o en decisiones políticas.
Uno de los ejemplos más tempranos lo pre- senciamos en 2018, con el deepfake de Barack Obama, cuya voz fue manipulada para insultar
a Trump.18 En este caso en concreto, el vídeo se realizó para hacer reflexionar al público sobre
los peligros de la manipulación mediática y en
el propio vídeo queda claro que Obama nunca pronunció nada de lo que aparece diciendo al principio del vídeo. Sin embargo, también encon- tramos casos más serios, como el considerado primer deepfake usado en un conflicto armado. Nos referimos a un vídeo falso del presidente de Ucrania, Zelenski, que apareció al principio del conflicto bélico con Rusia en 2022.19 En el vídeo, que se publicó en un tabloide en lengua rusa, aparece el líder ucraniano pidiendo la rendición de sus tropas. Pese a que el medio acusó a hac- kers enemigos de crear y publicar ese deepfake en su web y el propio Zelenski también lo desmin- tió, lo cierto es que la proliferación de este tipo de vídeos ocasiona que cada vez sea más difícil
18 https://www.youtube.com/ watch?v=cQ54GDm1eL0&t=1s
19 https://www.youtube.com/ watch?v=X17yrEV5sl4&t=3s
PROFUNDIZANDO EN LOS DEEPFAKES: ¿QUÉ HACE HUMANA A UNA VOZ? · EUGENIA SAN SEGUNDO FERNÁNDEZ
                                                                Anuario AC/E de cultura digital 2024















































































   32   33   34   35   36