Kate Isaacs es una activista británica que hace campaña contra la pornografía no consentida.
Imagina que tu rostro
hubiera sido añadido de manera digital a un video porno sin tu consentimiento y
compartido en internet. Así le ocurrió a Kate Isaacs.
Una
noche, mientras revisaba Twitter, Kate Isaacs se encontró un inquietante video
entre sus notificaciones.
"Me
invadió el pánico", cuenta la británica, quien habla por primera vez de
forma pública sobre lo que le pasó.
"Alguien
agarró mi cara, se la puso a un video pornográfico, e hicieron que pareciera
que era yo".
Kate estaba siendo víctima de un deepfake. Alguien había utilizado inteligencia artificial
para manipular un video y colocar su rostro de forma digital sobre el de otra
persona; en este caso, una actriz porno.
Para el video falso habían
utilizado imágenes de una entrevista televisiva de Kate, quien hace campaña
contra la pornografía no consentida, y la habían etiquetado al compartirlo en
Twitter. Parecía mostrarla teniendo relaciones sexuales.
"Se
me cayó el alma a los pies. No podía pensar
con claridad", dice. "Recuerdo haber pensado que el video
llegaría a todas partes. Fue horroroso".
Durante un tiempo fueron los famosos y políticos de alto perfil las
víctimas más comunes de estos deepfake. Los videos no siempre eran
pornográficos, algunos fueron creados con el objetivo de hacer reír.
Pero eso ha cambiado con los años: de acuerdo a la empresa de
ciberseguridad Deeptrace, el 96% de todos estos videos son pornografía
no consentida.
Abuso sexual basado en imágenes
Al igual que la "pornovenganza", la pornografía deepfake se
considera abuso sexual basado en imágenes, un término paraguas que
abarca la toma, la creación y/o el intercambio de imágenes íntimas sin
consentimiento.
En Escocia, por ejemplo, ya es delito mostrar o compartir imágenes y
videos que presentan a alguien en una situación íntima sin su consentimiento.
Pero en otras partes de Reino Unido solo lo es si se prueba que el
objetivo era generarle angustia a la víctima, una laguna por la cual los
perpetradores con frecuencia no enfrentan consecuencias legales.
El gobierno británico lleva tiempo trabajando en un proyecto de
ley de seguridad en internet, que ha sido sometido a revisiones sin fin y
repetidamente archivado.
De aprobarse, daría al ente regulador, Ofcom, la potestad para emprender
acciones contra cualquier página web a la que se considere que permite causar
daño a los usuarios británicos, sin importar en qué país tengan la sede.
A principios de mes la secretaria de Cultura, Michelle Donelan, dijo que
ella y su equipo están "trabajando a toda máquina" para que el
proyecto de ley salga adelante.
Su activismo contribuyó a que al año siguiente Pornhub eliminase de su
página web todos los videos subidos por usuarios no verificados: la mayor parte
de su contenido.
Así que Kate asumió que quien fuera que estuviera
detrás de su video falso era alguien molesto con su campaña. Al fin y al
cabo, ella les había "quitado su porno".
Pero no tenía ni idea de quién había sido, ni quién había podido ver el
video.
Y si bien ella podía ver que le habían puesto su rostro a una actriz
porno, el video era tan convincente que no tenía claro que otros
pudieran darse cuenta del engaño.
"Era una violación. Habían usado mi identidad de una manera que yo
no había consentido", dice.
Bajo el video, la gente comenzó a dejar comentarios abusivos, diciendo
que la iban a seguir hasta casa, que la violarían, que grabarían el ataque y
que lo publicarían en internet.
"Empiezas a pensar en tu familia", relata, conteniendo el
llanto. "¿Cómo se sentirían si vieran el contenido?".
"El peligro es real"
La amenaza se intensificó cuando alguien publicó su dirección de casa y
la de su trabajo bajo el video, una práctica conocida como doxing.
"Me volví totalmente paranoica. ¿Quién conoce mi
dirección? El que hizo esto, ¿es alguien a quien conozco?",
cuenta.
"Recuerdo haber pensado: 'Estoy realmente en problemas. No es solo
gente hablando en internet, hay un peligro real".
Por su experiencia apoyando a otras personas que habían pasado por lo
mismo, sabía perfectamente qué debe hacer una víctima de esta práctica. Pero en
aquel momento se quedó paralizada.
"No seguí ninguno de los consejos que yo misma suelo dar",
reconoce. "Por una parte estaba Kate, la activista, que era muy fuerte y
no se mostraba vulnerable, y por otra yo, Kate, quien estaba realmente
asustada".
Una colega denunció el video, los comentarios malintencionados y
el doxing a Twitter, y fueron eliminados de la plataforma.
Pero una vez que se ha compartido un deepfake en
internet, es difícil sacarlo completamente de circulación.
"Solo quería que el video desapareciera de internet", dice
Kate. "Pero no había nada que pudiera hacer al respecto".
El mercado del "deepfake"
Existe un mercado para los deepfakes en ciertos foros
online. Es gente que pide que se hagan estos videos de sus esposas,
vecinas, compañeras de trabajo e incluso, y por muy increíble que
parezca, de sus madres, hijas y primas.
Los creadores de contenido responden con instrucciones paso a paso,
desde qué material original necesitarán hasta consejos sobre qué ángulos de
grabación funcionan mejor, e informan de lo que costará su trabajo.
Gorkem, un creador de contenido deepfake con sede en el
sureste de Inglaterra, habló con la BBC bajo la condición de anonimato.
Empezó a crear este tipo de videos de celebridades para sí mismo. Dice
que permiten a cualquiera "hacer realidad sus fantasías en formas
que antes no eran posibles".
Después siguió creando deepfakes de mujeres que le
atraían, incluso de compañeras de trabajo a las que apenas conocía.
"Una estaba casada, otra tenía una relación", cuenta.
"Me sentí raro al ir a trabajar tras haber creado videos falsos de
estas mujeres, pero logré controlar mis nervios. Podía actuar como si nada
hubiera pasado. Nadie sospechaba nada".
Al darse cuenta de que podía ganar dinero con lo que él llama su
"pasatiempo", Gorkem empezó a aceptar encargos de clientes.
Imágenes originales de redes sociales
Una buena parte del material original la recopila de las cuentas de
redes sociales de las mujeres en cuestión. Dice que hace poco hizo un deepfake usando
una conversación de Zoom grabada.
"Una buena cantidad de video, mirando directamente a cámara, es un buen material.
El algoritmo puede extrapolar los datos y hacer una
buena reconstrucción del rostro sobre el video destino".
Reconoce que las falsificaciones pueden afectar psicológicamente a
"algunas mujeres", pero se muestra indiferente ante el potencial
impacto de haberlas cosificado.
"Pueden simplemente decir: 'No soy yo, es falso'. Deberían poder
reconocerlo y seguir con su día", explica.
"Desde el punto de vista moral, no creo que haya nada que me
detenga", sigue. "Si voy a ganar dinero con un encargo, lo haré, es
obvio".
El estándar de estos videos puede variar enormemente, y depende tanto de
la experiencia de quien los hace como de la sofisticación de la tecnología
utilizada.
Pero el hombre detrás del mayor sitio web de pornografía deepfake admite
que ya no es fácil estar seguro de si lo que estás viendo son imágenes
manipuladas o no.
Su página web atrae hasta 13 millones de usuarios al mes y puede
llegar a tener hasta 20.000 videos. Tiene su sede en Estados Unidos y
raramente habla con los medios, pero accedió a conversar con la BBC de forma
anónima.
Colgar deepfakes de mujeres "comunes" es una
línea roja que no está dispuesto a cruzar, dice, pero tener en su plataforma
videos de famosas, influencers de las redes sociales y
políticas es, en su opinión, justificable.
"Están acostumbradas a la negatividad en los medios, su contenido
está disponible para la gran audiencia. Son distintas a las ciudadanas
normales", dice.
"Tal como yo lo veo, pueden lidiar con ello de una manera
diferente: pueden simplemente ignorarlo. Realmente no siento que el
consentimiento sea necesario. Es una fantasía, no es real".
¿Cree que lo que hace está mal? Parte de él está en "negación sobre
el impacto que puede tener en las mujeres", reconoce, y revela que su
mujer no sabe a qué se dedica.
"No se lo he dicho a mi esposa. Tengo miedo de cómo le pueda
afectar".
Hasta hace relativamente
poco tiempo, el software para
crear deepfakes no
era de fácil acceso y la gente promedio no tenía las habilidades para
utilizarlo.
Pero
ahora, cualquier persona mayor de 12 años
puede descargar legalmente docenas de aplicaciones y hacer deepfakes convincentes
con apenas unos clics.
Para
Kate es preocupante y "realmente aterrador".
"Ya
no es algo de la internet oscura, están en las tiendas de apps, en nuestra
cara".
También
teme que el esperado proyecto de ley sobre seguridad en internet no pueda
mantenerse al día con el avance de la tecnología.
Hace
tres años, cuando se redactó el primer borrador, la creación de deepfakes era una
habilidad profesional para la que se necesitaba capacitación, no se trataba
solo de descargar una aplicación.
"Llevamos
años en esto y el contenido del proyecto de ley está desactualizado. Le faltan
muchas cosas", dice.
Pero
Gorkem cree que si se criminaliza la creación de este material falso, las cosas
van a cambiar.
"Si
me pudieran seguir el rastro en internet, probablemente lo dejaría y me
buscaría otro pasatiempo", reconoce.
Haber
sido víctima de un deepfake y
de doxing ha
afectado la salud de Kate y su capacidad de confiar en la gente.
Cree
que aquellos que están detrás de los ataques no solo querían intimidarla y
humillarla, sino también silenciarla.
De
hecho, durante un tiempo dejó de hacer campaña y se cuestionó si podía seguir
denunciando la misoginia.
Pero
ahora está aún más entusiasmada. Se dio cuenta de que es un tema que le importa
demasiado como para hacerse a un lado. "No les voy a dejar ganar".
Los deepfakes pueden ser
usados para controlar a las mujeres, y se debería alentar a las empresas
tecnológicas, incluidas aquellas que crean las apps que posibilitan el
intercambio digital de rostros, a implementar medidas de seguridad, añade.
"Cualquier
aplicación debería ser capaz de detectar contenido sexual", prosigue.
"Si
las empresas no han invertido dinero, recursos y tiempo en asegurarse de que su
aplicación no está siendo usada para crear contenido sexualmente abusivo,
entonces están siendo deliberadamente irresponsables. Son culpables".
Se cree que ni Gorkem ni
el hombre detrás de la página web más grande de videos deepfake estuvieron
detrás del deepfake de Kate Isaacs.
Fuente: BBC News Mundo