Page 33 - Anuario AC/E de cultura digital 2024
P. 33
mayúscula cuando lo descubrió, pues él nunca había dado su consentimiento para ese uso comercial de su voz:11
It could therefore have me read anything from a call to storm parliament to hard porn, all without my knowledge and without my permission. And this, what you just heard, was done without my knowledge. so, I heard about this, I sent it to my agents on both sides of the Atlantic, and they went ballistic—they had no idea such a thing was possible.12
Para el que quiera conocer mejor este caso, se menciona también en este pódcast de la BBC Radio 4: Deepfakes and the Law (Law in Action),13 emitido el pasado 7 de noviembre de 2023.
El uso pernicioso de los deepfakes ha llevado a que la tecnología se convierta en un arma para acosar y humillar a las mujeres.
El caso de Stephen Fry no difiere demasiado
de lo expuesto en la primera sección de este artículo sobre las reivindicaciones del sector doblaje y los artistas de la voz. Sin embargo,
una diferencia esencial entre los intérpretes y dobladores anónimos, por un lado, y los cómicos y actores famosos, por otro. En ambos casos,
el delito sería el mismo: se trata del hurto de una parte de la identidad de la persona. En el caso de personajes célebres, sin embargo, las
11 https://deadline.com/2023/09/harry-potter-uk-au- diobooks-narrator-stephen-fry-warns-ai-ri- poff-1235548993/
12 «Por lo tanto, podría hacerme leer cualquier cosa, desde una llamada a asaltar el Parlamento hasta pornografía dura, todo sin mi conocimiento y sin mi permiso. Y esto, lo que acabas de escuchar, se hizo sin mi conocimiento. Entonces, cuando me enteré de esto, se lo envié a mis agentes a ambos lados del Atlántico y se pusieron furiosos: no tenían ni idea de que tal cosa fuera posible».
13 https://podcasts.apple.com/za/ podcast/deepfakes-and-the-law/ id265307843?i=1000634023260
repercusiones del uso ilícito de su voz pueden ser catastróficas, precisamente por la popularidad
de estas personas, frente a los trabajadores de la voz que suelen vivir en el anonimato. En palabras del propio Stephen Fry, su voz podría llegar a utilizarse para llamar a asaltar el Parlamento, por poner un ejemplo. Si se emite un mensaje falso con su voz, y este se hace viral, las consecuencias políticas son inimaginables. El otro mal uso de
la voz que le preocupa al actor es que se utilice para simular prácticas pornográficas por su parte. Aquí estaríamos ante un claro ejemplo de difamación de un personaje público. El porno de venganza es precisamente uno de los principales usos perniciosos de la IA, que desgraciadamente afecta principalmente a mujeres, según un informe publicado por la empresa tecnológica DeepTrace, que recoge este artículo de 2019 del MIT Technology Review.14
Ya a finales de 2018, cuando empecé a inte- resarme científicamente en los deepfakes y comencé a escribir mis primeras solicitudes de proyectos de investigación en este ámbito, leía con asombro y tristeza en este reportaje del Washington Post15 cómo el uso de deepfakes en
la industria del contenido pornográfico había experimentado un aumento vertiginoso. Estamos hablando de hace cinco años. Por entonces solo se oía hablar de casos aislados que afectaban so- bre todo a celebridades, como Scarlett Johansson o Jennifer Lawrence. Sin embargo, la tecnología se había convertido ya en un arma para acosar
y humillar a las mujeres, pues permitía generar imágenes y crear vídeos sorprendentemente rea- listas a partir de fotografías obtenidas fácilmente de internet.
del hay
14
15
https://www.technologyreview. com/2019/10/07/132735/deepfake-porn-deeptra- ce-legislation-california-election-disinformation/ https://www.washingtonpost.com/ technology/2018/12/30/fake-porn-vi- deos-are-being-weaponized-harass-humiliate-wo- men-everybody-is-potential-target/
ANUARIO AC/E DE CULTURA DIGITAL 2024
Anuario AC/E de cultura digital 2024
33