Taylor Swift, los deepfakes y la violencia de género
Con los avances de la tecnología se han creado nuevas formas de violencia de género, deepfakes, que se usan constantemente para crear contenido sexual falso de mujeres, que se publica en redes sociales y sitios web sin su consentimiento.
por
Laura Duque
directora No es Normal
04.03.2024
La inteligencia artificial está planteando problemas en distintos campos de la vida, entre ellos el de violencia de género. Recientemente se puso el foco en este tema, cuando se publicaron deepfakes de Taylor Swift en la red social X. A partir de la denuncia pública que ella hizo se empezó a discutir la posibilidad de crear normas sobre el tema en Estados Unidos y en redes sociales. Esto sucedió a finales de enero de 2024 y Taylor manifestó su preocupación por la seguridad de las mujeres e informó que iba a tomar medidas legales contra las plataformas donde se estaba publicando el contenido. Por consiguiente, se bloquearon las búsquedas con el término “Taylor Swift» en X, Instagram y Threads, y se eliminaron las imágenes publicadas de la cantante. No obstante, las publicaciones de los deepfakes ya habían llegado a millones de personas. Es más, una de las publicaciones en la red social X logró alcanzar más de 40 millones de visitas antes de que fuera eliminada. Este suceso creó indignación por parte de activistas, políticos, e incluso la Casa Blanca, que afirmaron que están dispuestos a crear regulaciones al respecto, pero se trata de un fenómeno que evoluciona muy rápido y es difícil de controlar.
En realidad, los casos de mujeres víctimas de los deepfakes son extensos, y le sucede tanto a mujeres famosas y del ámbito público, como a mujeres comunes y corrientes. Otras famosas como Jennifer Lawrence, Billie Eilish, Emma Watson y Scarlett Johansson también han sido víctimas de esta práctica. Incluso, ha habido casos de adolescentes que se han quitado la vida por ser víctimas de esta práctica, y se han generado muchos problemas de salud mental a partir del tema. Se ha normalizado tanto el consumo de este contenido, que se han creado sitios web donde se publica material pornográfico específicamente creado con deepfakes. Lo más curioso de estos sitios es que, según un estudio realizado por Deeptrace, la totalidad de las publicaciones en estos sitios son sobre mujeres, donde el contenido además de ser pornográfico, suele ser violento.
El reto obvio de los deepfakes es que inducen al error: son videos que se ven auténticos. A pesar de que existen desde hace varios años, en 2019 cobraron mucha importancia cuando se publicó en la red social Reddit contenido pornográfico falso de famosas creado por la inteligencia artificial. A partir de esto han surgido numerosos casos donde mujeres de todas las edades son víctimas de esta práctica y, a pesar de las denuncias y quejas en todas partes del mundo, no se ha encontrado una manera efectiva para controlarlo. Mientras evoluciona este fenómeno, las únicas afectadas dejaron de ser mujeres famosas, y las jóvenes y niñas se volvieron el foco de estas prácticas. Empezaron a presentarse casos de acoso sexual a menores por medio de la creación de deepfakes especialmente en espacios escolares, y ha habido un incremento en cuanto a pornografia infantil creada con este mismo medio.
Estos avances tecnológicos han facilitado cada vez más la violencia basada en género. No fue hace mucho que surgieron métodos como el ciberacoso, la sextorsión, la publicación de información personal, la revictimización de sobrevivientes de acoso o abuso y demás. La lista de modos de acoso cibernético usados es extensa y no cesa de crecer. Aunque estos pueden ser utilizados para vulnerar a cualquier persona que tenga (o no) presencia en redes sociales, se han utilizado especialmente para atacar a las mujeres. Ahora bien, con el desarrollo de la inteligencia artificial, que recientemente ha obtenido mucha relevancia, han aparecido una serie de riesgos adicionales para mujeres y niñas. Entonces, surge una preocupación acerca de este fenómeno y para el cual, como sociedad, no estamos preparados.
Hablar con la máquina: anhelos y temores de la IA generativa
Con la llegada de Sora, el nuevo modelo de IA generativa que crea videos a partir de textos, quedó en evidencia que la industria creativa necesita replantear algunas cuestiones. Sobre todo, cuando el arte y la técnica se adentran cada vez más en el mundo digital.
Es verdaderamente preocupante ver cómo las creaciones del ser humano, que tienen como propósito mejorar la calidad de vida, son usadas como un mecanismo de violencia contra la mujer. Con el surgimiento de incluso otra forma de acoso se puede evidenciar, una vez más, la cosificación de la mujer convirtiéndola en un objeto sexual a disposición del público. Parece que la creatividad nunca se agota si se trata de imaginar nuevas formas de violencia de género, de tratar a la mujer como un objeto y aprovecharse de ella. Este método se usa constantemente debido a que no suelen haber repercusiones, pues es difícil saber quién está haciendo publicaciones y las sanciones no son graves, consisten únicamente en el bloqueo o suspensión de las cuentas.
¿Qué se puede hacer al respecto? ¿Cómo se puede proteger a las víctimas cuando ni siquiera es posible saber quien está al otro lado de la pantalla? ¿Quién puede brindar algún tipo de garantía a las mujeres? ¿Cuántos casos más tienen que darse para que se tomen medidas?
No se han propuesto mayores regulaciones legales hasta el momento, y este problema no es solo en Colombia, sino en todo el mundo. Actualmente, son muy reducidos los países que regulan la violencia basada en género causada por la inteligencia artificial, por ejemplo, solo países como China y Corea del Norte han regulado el tema. Adicionalmente, hay un vacío en las políticas de las redes sociales para evitar la difusión de este contenido. Con el caso de Taylor Swift se demostró que a pesar de que X intentó eliminar y bloquear el contenido, ya una gran parte de usuarios habían tenido acceso a este. Y la única repercusión que tuvo el perpetrador fue la suspensión de su cuenta. Es evidente que los deepfakes van mucho más rápido que la normativa de los diferentes países y las políticas de uso de las redes sociales. Si ni siquiera ha sido posible controlar otras formas de acoso cibernético que existen previos a los deepfakes, esta nueva modalidad de acoso supone un enorme reto. Pero también es complicado implementar normas que regulen el fenómeno, sin que se afecten otros derechos. Se ha demostrado que los países que las emplean en la actualidad son regímenes que controlan mucho el uso de internet –China, Corea del Norte–, a tal punto de ir en contra de derechos individuales como la libertad de expresión. Siendo así, ¿cómo se podrían conciliar estos dos derechos que se ven confrontados? ¿Puede, entonces, la libertad de expresión pasar por encima de la dignidad y los derechos de las mujeres? Esta falta de respuestas muestra cómo la mujer está –y probablemente seguirá estando– expuesta y desprotegida de esta modalidad de acoso que las reduce únicamente a su cuerpo y al placer de otros, sin su consentimiento.