Las Deep Fakes en auge

 

Fue en 2017 que Reddit acuñó el término «deepfake» (DF) en un foro dedicado a compartir videos manipulados. No obstante, la tecnología que está detrás de las DF existe desde hace largo tiempo. Incluso se puede decir que las iniciales DF se remontan a la década de 1990, cuando derivado de experimentaciones diversos investigadores en Inteligencia Artificial (IA) empezaron a usar las redes neuronales para manipular imágenes y videos. Sin embargo, esos primeros usos no tenían nada que ver con lo que hoy se relaciona a las DF.

Hoy una DF tiene una clara y precisa definición: es un video, imagen o audio que se genera de manera artificial para emular la apariencia y la voz de una persona real. Para lograr eso las DF se elaboran con la denominada tecnología de aprendizaje profundo, que es un tipo de IA, que permite a los equipos de cómputo apoyarse en enormes cantidades de datos y usarlos con la finalidad de generar nuevos contenidos.

Hoy, se puede decir, que una porción destacada de videos que se consumen por las redes sociales tiene que ver con videos manipulados o DF, con el fin de hacer que las personas «digan» lo que en realidad no han referido. Pero esa manipulación de las voces también se hace en las DF de audio, en donde los mismos se manipulan para distorsionar lo que una personas o personas dicen o han dicho. Y ya nada escapa a la falsificación, porque esto también se hace con las imágenes, con la finalidad de darle a una persona una apariencia diferente a la que tiene en realidad.

Hoy gracias a la perfección, el poder de procesamiento de cálculo y dominio de estas tecnológicas emergentes, tenemos un progreso en las denominadas «redes neuronales antagónicas generativas», que es una vía ideal para generar nuevos datos a partir de una batería de datos que se usan para entrenar a dichas redes.

Hoy vivimos la era de las DF, ya que lo mismo se usan para ilustrar o ambientar entornos en películas y televisión, como en el campo musical o artístico, en situaciones terapéuticas para combatir algunos problemas psicológicos y/o de conducta, pero también se han usado de manera intensa e indiscriminada en aspectos maliciosos que van desde la difusión de información errónea (en muchos casos con claros fines políticos), para difamar a las personas (también con claro uso político) o para cometer fraudes. Tal es el despliegue de las DF que actualmente existen múltiples aplicaciones que permiten a cualquier persona efectuar DF con una sola foto y sin tener experiencia en el campo.

Pero las DF han tenido un destacado interés cuando en días pasados circularon intensamente imágenes pornográficas falsas de la estrella del pop Taylor Swift, que ha derivado que en Estados Unidos se hagan llamados para dar paso a una legislación estricta que aborde la explosión de abusos sexuales falsos facilitados por la IA (shre.ink/rMo9). Al ser la víctima Taylor Swift Twitter (X) se vio invadida por imágenes manipuladas que mostraban a la artista en poses sexualmente explícitas. Tal fue su efecto que según The Verge (shre.ink/rMqP), una de las imágenes obtuvo más de 45 millones de visitas y 24.000 compartidos en X en menos de 24 horas, al grado que dicha red social se vio obligada a bloquear todas las búsquedas de las palabras «Taylor Swift».

El problema del acoso sexual con DF no es nuevo, ni tampoco Taylor Swift es la primera celebridad en sufrir dichas consecuencias, pero lo que sí ha sido relevante en su caso es la alta viralidad de dichas imágenes que franqueó los «guetos» (4chan o las comunidades cerradas de Telegram) donde de manera habitual se intercambian este tipo de materiales. La otra cuestión es que el software usado para generar la DF de Taylor Swift podría haber sido Designer, una aplicación de Microsoft y accesible a cualquier persona.

Para las feministas está claro que es censurable lo que ha pasado con la estrella del pop, pero es terrible que fuera por un caso tan extremo y una celebridad ubicada en la cima de su popularidad para que se hablara masivamente sobre un problema del que activistas, asociaciones e investigadores feministas llevan años alertando. Pero está por verse qué sucederá en el devenir cercano con las falsificaciones que afectan la imagen de las mujeres, que se usan como instrumentos de acoso y que ven cómo dichas técnicas de falsificación se usan en varios casos para cuestiones de venganza. Queda, pues, por esperar si el affaire Taylor Swift tendrá consecuencias que ayudarán a las mujeres que no tienen millones de fans para llamar la atención sobre el acoso que sufren.

Si bien los políticos se preocupan por la posibilidad de que imágenes y videos inventados afecten o distorsionen la libre decisión de los ciudadanos en los procesos electorales, la gran mayoría de las DF que circulan tienen más un cariz pornográfico de mujeres, y son imágenes que se pusieron en marcha sin que ellas lo aprobaran. Sin embargo, el caso de la estrella pop ha llevado en varios países a plantearse impulsar mecanismos legales para frenar la circulación de ese tipo de contenidos.

En el caso de nuestro país no contamos con una ley específica que regule las DF, aunque existen algunas leyes que se pueden usar para combatirla. Entre las que se pueden mencionar está la Ley Olimpia —promulgada en 2021—, la cual tipifica como delito la violencia digital, incluyendo la difusión de contenido íntimo sin consentimiento. Si bien es cierto que no se refiere directamente a las DF, puede ser utilizada para perseguir la difusión de DF de contenido sexual sin consentimiento, pero también abre la ventana para ser usada en sentido contrario ya que su «mal uso» puede afectar la misma libertad de expresión. También el Código Penal Federal tipifica como delitos la difamación, la injuria y el fraude, que se pueden usar de manera indirecta para sancionar la difusión de DF.

El problema es que no es fácil descubrir quién hizo las DF: quienes las hacen las ponen en circulación parapetados en redes privadas virtuales (VPN) para ocultar su identidad, camuflar su IP y su zona geográfica; incluso en el mejor de los casos si se localizan a los creadores, pueden encontrarse en una jurisdicción diferente del demandante de la sanción por su difusión y, por lo tanto, no se podrá hacer gran cosa para condenarlo. Pero, además, hay creadores de DF que las suben por un corto lapso, las bajan pronto, pero son retomadas por otras personas que las ponen en circulación y si se hacen virales por diferentes vías se torna imposible saber quién fue el autor intelectual de las mismas.

Por lo complicado que es el proceso, y porque se pueden llevar entre las patas a la libertad de expresión, vale la pena que las medidas que se tomen tienen que ser respaldadas por opiniones de expertos y de equipos multidisciplinarios que hagan que no termine siendo, como coloquialmente se dice, más caro el caldo que las albóndigas.

@tulios41