
Entre videos y artículos, en Internet hay tanta información que no nos alcanza el tiempo para consumirla toda. La expectativa de vida de un peruano es de casi 75 años, lo que equivale a 657 mil horas de vida. En contraste, aproximadamente 30 mil horas de video se suben a YouTube cada hora. Esto es, 720 mil horas por día.
Nos podríamos pasar toda la vida, desde que salimos del vientre de nuestras madres hasta la muerte, frente a una pantalla de YouTube, y no podríamos ver todo el contenido que es subido en un solo día a esta plataforma.
Esto aplica para toda la información que existe en la web: hay tanta que es imposible leerla toda y, también, hay tanta que no podemos filtrar qué es valioso o creíble y qué no.
Por ejemplo, existe el fenómeno recientemente popularizado conocido como fake news, que puede ser traducido a “noticias falsas”. Este término se refiere a todo aquél contenido, presentado como periodístico, que sea falso o inexacto. Una definición planteada por la Universidad de Berlín sugiere que solo se utilice el término para casos en los que se haga deliberadamente.
Sin embargo, la tecnología no solo permite la producción de información a velocidades nunca antes vistas, sino que podría llevar el fake news a niveles más profundos. Tal es el caso de los deepfakes.
Resumen
- Los deepfakes permiten colocar el rostro de una persona sobre el cuerpo de otra.
- El desarrollo del deep learning o aprendizaje automático, útil para el desarrollo tecnológico, ha facilitado la creación de deepfakes.
- Hay esfuerzos preventivos para crear mecanismos automáticos de detección de videos deepfake.
- Los deepfakes son herramientas que podrían servir para usos políticos negativos y que se utilizan hoy para crear pornografía.
- Hoy se discute las consecuencias legales que podrían traer.
¿Qué es el deepfake?
Imagina que un día encuentras un video de ti dando un discurso en un lugar en el que nunca estuviste, diciendo cosas que nunca dijiste. O, mejor, para entender de forma más sencilla, veamos un ejemplo:
Podemos ver a Keanu Reeves, actor de “The Matrix” y “John Wick”, hablando, en blanco y negro, sobre cómo “ser agua”. Sin embargo, Reeves no dijo esas palabras. El verdadero autor es Bruce Lee, como podemos ver aquí:
En esencia, eso es un deepfake. La superposición del rostro de una persona al video de otra para, en simple, hacer que parezca que dijo y estuvo en ese lugar.
Esto es posible gracias a una herramienta tecnológica que permite, fácilmente, intercambiar las caras cada vez de forma más “realista”.
¿Por qué se le llama deepfake?
La palabra deepfake es la unión entre dos términos: «deep learning” y “fake”. Algo “fake” es algo falso. Por otro lado, Microsoft Research define el deep learning de varias formas. Una de ellas dice lo siguiente:
“El Deep Learning es una nueva área de la investigación del aprendizaje automático (o aprendizaje de máquinas) que ha sido introducida con la finalidad de acercar el aprendizaje automático a uno de sus objetivos originales: la inteligencia artificial. Deep Learning es sobre aprender múltiples niveles de representación y abstracción que ayudan a hacer sentido de data, tales como imágenes, sonido o texto”.
En otra palabras, un software puede hacer sentido de, por ejemplo, una imagen, e identificar patrones de movimiento, cambios de color, entre otros, para codificarlos. Así, puede, de forma automática, codificar los rasgos faciales de dos rostros distintos en dos videos distintos, para luego poder intercambiarlos.
Los peligros del deepfake
Si bien el deep learning es útil para el desarrollo de herramientas tecnológicas, han surgido preocupaciones relacionadas con los deepfakes.
Un estudio publicado por el Institute of Electric and Electronics Engineers dicta lo siguiente: “un software gratuito basado en aprendizaje automático ha facilitado la creación de cambios de caras en videos que dejan pocas huellas de manipulación, en lo que se conoce como videos ‘deepfake’. Escenarios en los que estos videos falsos realistas sean usados para crear zozobra, para extorsiones o terrorismo falso son fácilmente previsibles”.
Ante esta situación, el estudio, elaborado por el Laboratorio de Procesamiento de Imagen y Video de la Universidad de Purdue, prueba mecanismos para detectar, automáticamente, este tipo de videos.
Por otro lado, un estudio publicado por la Universidad de Texas y la Universidad de Maryland se adelanta y analiza las posibles consecuencias legales y soluciones ante el riesgo de los deepfakes.
¿Casos reales?
Si bien aún no existe ningún caso a nivel político del uso de deepfakes, la posibilidad sí ha sido discutida, especialmente tras la difusión de un video realizado por Buzzfeed, en el que se utiliza la imagen de Barack Obama:
Sin embargo, hay casos en los que se ha utilizado la tecnología para elaborar videos pornográficos con la imagen de celebridades para crear escenas sexuales con sus rostros.
Un artículo del International Journal of Evidence and Proof discute la utilización de los deepfakes en videos eróticos, pero también discute un problema adicional: el peligro en el ámbito judicial. Ello porque se puede utilizar videos como evidencia; sin embargo, la sola existencia de la tecnología para crear deepfakes pone en tela de juicio su confiabilidad.
Ante la posibilidad de superponer el rostro de una persona en un video, se puede crear evidencia falsa, por lo que mecanismos para identificar estas modificaciones tendrán que desarrollarse.