Chronic Ink’s blog explains the beauty of the fine line tattoo style.

“La tecnología tiene demasiada capacidad para ser mal utilizada”: Kolina Koltai, de Bellingcat, sobre el riesgo de los deepfakes

Hablamos con Kolina Koltai, quien investiga desde Bellingcat temas relacionados con la desinformación, inteligencia artificial y, en particular, el uso de deepfakes. ¿Cuál es el pasado, presente y futuro de esta nueva tecnología?

por

Isaac Vargas


21.10.2024

Arte por Diego Forero

Imagina por un momento que alguien copiara tu cara y la pegara en el cuerpo de alguien más. Y que ese cuerpo, que no es tuyo, hiciera o dijera algo que tú jamás dirías.  ¿Qué crees que podría pasar si alguien suplantara tu identidad así? 

Por cuenta de los deepfakes, lo que antes parecía una fantasía distópica digital ahora es una realidad. Estos son imágenes o videos manipulados con inteligencia artificial (IA) que permiten replicar la cara o la voz de alguien, suplantando su identidad para que parezca hacer o decir lo que el ‘imitador’ desee. Y aunque usar la tecnología para esto no es nuevo, ahora se ve más realista que nunca.  

La gran mayoría de deepfakes son pornografía no consensuada que suplanta la identidad de mujeres famosas, las principales víctimas. Un caso reciente fue el de Taylor Swift, cuyos deepfakes publicados en X a este año recibieron más de 47 millones de vistas en menos de un día.

Su proliferación aumentó un 2000% en 2023 y plataformas como Google ya están tomando medidas para contrarrestar su difusión. Ahora es posible pedir que se elimine un deepfake y, si se acepta la solicitud, la plataforma se encargaría de eliminar duplicados de este, así como videos o fotos explícitas similares de esa persona. Esto ha disminuido la exposición a deepfakes en Google en un 70%.

¿Cómo se originaron? ¿Cuáles son los retos actuales a los que nos enfrentan? ¿Qué escenarios empiezan a vislumbrarse como posibles gracias a la IA? Para entender mejor, hablamos con Kolina Koltai, investigadora de Bellingcat, un medio de periodismo investigativo que se especializa en verificación e inteligencia de fuentes abiertas. Koltai, que ha investigado la desinformación y los mitos en redes sociales, ahora se enfoca en el uso de deepfakes, especialmente los de contenido pornográfico. 

“Aún  no sabemos si habrá un techo en el que la tecnología sea tan buena, que no podremos distinguir (lo generado de lo real)”, explica Koltain, quien nos hizo un repaso por el pasado, presente y futuro de los deepfakes. “Veo imágenes generadas que son muy perfectas. Simplemente no se puede decir si es real o no, y ya estamos en ese punto. Creo que estamos en un terreno peligroso”.

070 recomienda

Hablar con la máquina: anhelos y temores de la IA generativa.

Click acá para ver

Los deepfakes existen desde que existe la fotografía

“La idea de editar imágenes para hacer una imagen falsa existe desde que tenemos la fotografía”, señala Koltai. Aunque Photoshop transformó la edición de imágenes, la investigadora explica que desde antes modificábamos las imágenes, recortando y pegando fotos. Ahora, con la IA, “la velocidad, la facilidad y el costo de generar esas imágenes han disminuido drásticamente en comparación a hace tres, cuatro, cinco años”.  

Ahora ni siquiera es necesario tener un programa para generar deepfakes. No se necesita ni un computador, ni una aplicación costosa, lo que aumenta el riesgo de su mal uso: “Cuando miras tecnologías como Stable Diffusion, que es de código abierto, cualquiera puede descargarla de forma gratuita y ejecutarla en su propio ordenador. (…) El costo de hacerlo es mínimo, es tan fácil que alguien de 12 años o de 80 puede entenderlo y hacerlo”. 

¿Qué es real y qué no lo es?

Koltai explica que toda plataforma digital donde se difunda contenido es un punto de partida para desinformar con contenido manipulado por IA. Plataformas como Telegram y Discord facilitan estas actividades porque puedes unirte con un número temporal. De ahí pasan a X, Facebook, Instagram o WhatsApp. “Si no podemos determinar con certeza si algo es real o no estamos ante un gran problema, y es a lo que nos estamos acercando”.  

Para la investigadora, uno de los mayores riesgos de esto es que ahora hay contenido real acusado de ser falso: “Esta afirmación se ha convertido en un arma”. Un ejemplo es la campaña presidencial en EE.UU., en la cual Donald Trump acusó a Kamala Harris de usar IA en fotos que sí eran reales. “Esto podría empeorar con el tiempo”.

La publicación fue hecha en Truth Social.

Otro reto es la imposibilidad de ubicar y cerrar las páginas que crean y difunden deepfakes. “Por ejemplo, en una historia en la que estoy trabajando, hay un sitio que parece estar en Vietnam, pero en realidad opera desde otro lugar. (…) Mucho del contenido de deepfakes no consensuados proviene de sitios como ‘Cloth Off’ o ‘Undress’, y todavía no sabemos quién está detrás de ellos”. Koltai admite que así, con responsables que se esconden para evitar las consecuencias, tratar de cerrar un sitio de deepfakes es muy complicado. 

La situación es parecida con el contenido que usa IA para desinformar: es muy difícil rastrear a los responsables. “Si una gran red de noticias publica desinformación, podría haber repercusiones. Pero si es una persona común la que publica algo, generalmente no hay muchas consecuencias”. 

Así como ocurre con medios organizaciones que luchan contra la desinformación, hay empresas de generación de imágenes con IA que están implementando regulaciones para evitar contenido perjudicial. “Por ejemplo, MidJourney es una compañía de generación de imágenes por IA que trata de limitar el uso de celebridades y evitar cosas como deepfakes o pornografía”. 

Futuro: ¿Vamos hacia un mundo de deepfakes en tiempo real?

“Estamos bastante listos a nivel tecnológico para mapear en vivo la cara de alguien”, afirma Koltai, aunque no sería una imitación perfecta ni accesible a través de un celular, por ahora. Sin embargo, hace poco se conoció un caso en el que un empleado de una empresa financiera de Hong Kong fue víctima de estafa al transferir casi 25 millones de euros a la filial de su empresa en Reino Unido: con ayuda de los deepfakes, los estafadores lograron suplantar la identidad del director financiero y otros colegas durante una videollamada.

"Si una gran red de noticias publica desinformación, podría haber repercusiones. Pero si es una persona común la que publica algo, generalmente no hay muchas consecuencias"

Si esto es posible en el presente, ¿Qué más se podrá hacer en un futuro cercano? Koltai afirma que  ya es posible imaginar manos criminales recopilando contenido de las redes sociales de su víctima, “obteniendo un poco la voz de sus hijos para hacer una llamada telefónica diciendo: ‘mamá, papá, soy yo, tu hijo, necesito que me envíes dinero, me robaron’. Eso no está fuera de la posibilidad en el futuro”.

La tecnología está lo suficientemente avanzada como para hacer un mapeo facial en vivo y, “aunque en este momento no sea perfecto ni accesible para cualquiera con un teléfono, no está fuera del alcance en el futuro cercano, porque sabemos que nuestros teléfonos son muy capaces”.

¿Podemos evitar un futuro digital distópico?

“No es una opinión muy popular, pero sí creo que necesita haber regulación”, asegura Koltai. “La tecnología es demasiado poderosa y tiene demasiada capacidad para ser mal utilizada”. La investigadora compara esta tecnología con la invención de los carros: con la IA también se deberían establecer estándares de seguridad que se integren de manera inherente en el sistema, de tal manera que se conviertan en la norma. “Si una tecnología no cumple con esos estándares, no debería ser lanzada. Al igual que con los autos, puede que tome tiempo, pero el riesgo es: ¿cuántas personas necesitan tener un ‘accidente’ antes de que surjan regulaciones más estrictas que se conviertan en el estándar?”.

*Este contenido es posible gracias al apoyo del Gobierno de Canadá y su compromiso con la democracia y los derechos humanos. Las opiniones, ideas y contenidos expresados son responsabilidad de sus autores y no reflejan posiciones oficiales del Gobierno de Canadá

COMPARTIR ARTÍCULO
Compartir en Facebook Compartir en LinkedIn Tweet Enviar por WhatsApp Enviar por WhatsApp Enviar por email
  • Ojalá lo lean
    (0)
  • Maravilloso
    (0)
  • KK
    (0)
  • Revelador
    (0)
  • Ni fú ni fá
    (0)
  • Merece MEME
    (0)

Relacionados

#ElNiusléterDe070 📬