Agencias / MonitorSur, Ciudad de México.- El término deepfake nació de la unión de dos conceptos: el deep learning, como se conoce al aprendizaje profundo de sistemas de inteligencia artificial y la palabra fake, falso. Según The Economist, la palabra se acuñó en un foro de Reddit, cuando se hicieron virales videos en que, supuestastamente, algunas celebridades tenían relaciones sexuales.
Lo que pasó, básicamente, es que algunos usuarios usaron un software para poner el rostro de actrices de Hollywood —como Natalie Portman, Daisy Ridle, Jessica Alba, Emma Watson, entre otras— en videos de actrices porno. Desde que ocurrió esto, en 2018, se han perfeccionado las herramientas para que la generación de estos videos truqueados donde se suplanta la identidad parezcan más reales.
A partir de ahí, empezó a extenderse su uso hasta superponer el rostro de una persona en un video donde sale otra persona, igualando gestos para hacerle creer a quien lo ve que quien sale en el video es alguien más.
Para detener el avance del deepfake, en Estados Unidos se comenzó a penalizar la distribución de imágenes y videos pornográficos falsos desde julio de 2019. Sin embargo, cada vez más hay videos deepfake que no tienen contenido sexual, sino que se suplantan identidades de personas famosas diciendo o haciendo cosas que jamás harían.
¿Cómo se hace un deepfake?
En realidad, ahora es muy sencillo hacer un deepfake con la tecnología que existe. FakeApp, por ejemplo, es una de muchas aplicaciones que se pueden descargar para hacerlo. Una vez tenien do el software, se recopilan videos de las personas que quieras intercambiar, los cargas en el programa y listo, la inteligencia artificial hace el resto.
Los programas de deepfake trabajan cada video como si se tratara de una fotografía y extraen cuadro por cuadro cada imagen que subas. De manera que entre más videos uses, con diferentes iluminaciones —es decir, mientras más información le des a la inteligencia artificial— el resultado parecerá más real.
¿Por qué debería preocuparnos?
Según el diario The Economist, el foro de discusión sobre los videos pornográficos falsos fue cerrado, sin embargo, de inmediato empezó a usarse la tecnología para generar variaciones en algunas escenas icónicas del cine. Por ejemplo, la del actor Jim Carrey (The Mask) “suplantando” a Jack Nicholson en tres videos de la película The Shining.
Los videos están alojados desde julio de este año, en un canal de YouTube llamado Ctrl Shift Face. Un mes después de la impresionante manipulación del rostro de Nicholson, apareció otro deepfake realmente digno de espantarnos.
La base de este nuevo deepfake fue una entrevista que dio el comediante Bill Hader en 2008 a David Letterman, en donde el actor cuenta anecdotas de su trabajo con otros actores. Con una sincronización de gestos casi perfecta la cara del actor de It: Chapter Two se transforma en la de Tom Cruise (Top Gun: Maverick) y luego la de Seth Rogen (The Interview), de quienes habla e imita en la entrevista original.
Por su parte, Jordan Peele, director de la película Get Out, fue uno de los primeros en alertar sobre las consecuencias de manipular cualquier imagen para confundir a la audiencia. Para demostrarlo, protagonizó y publicó un video como si fuera el expresidente de Estados Unidos, Barack Obama. En el montaje, entre otras cosas, insulta al presidente de Estados Unidos, Donald Trump.
“Estamos entrando en una era en la que nuestros enemigos pueden hacer parecer que cualquier persona dice cualquier cosa en cualquier momento. Este es un momento peligroso. En el futuro, debemos estar más atentos con las cosas de Internet en las que confiamos”, dice Peele en el video como si fuera Obama.
Otras manipulaciones publicadas incluyen al mandatario de Rusia, Vladimir Putin, al presidente ejecutivo de Facebook Mark Zuckerberg, “confesando” la manipulación de información de sus usuarios y a la política Nancy Pelosi, aparentemente en estado de embriaguez.
Según The Economist, ahora todavía se puede buscar las imágenes verdaderas en Internet para compararlas con los deepfakes. Sin embargo, añade que al ritmo que se está desarrollando la tecnología, en poco tiempo se podrán generar contenidos propios, sin la necesidad de una imagen previa, lo que dificultará poder saber si un video es real o no.
Por último, las consecuencias no solo pueden pensarse en términos masivos, advierte The Economist, como la manipulación de una elección mediante mensajes falsos; también en círculos más pequeños, como el potencial riesgo para hacer bullying a un compañero de escuela o para que las agencias de publicidad generen nuevos patrones de belleza, manipulando a placer cualquier físico.
Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC
Parlamento Juvenil 2019, espacio para el análisis y participación democrática
Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami