MonitorSur

Sign in / Join

Login

Welcome! Login in to your account
Lost your password?

Lost Password

Back to login

logo

MonitorSur

  • Investigación y colecciones científicas, un instrumento para la conservación: Semahn

  • Chiapas será sede del concurso nacional de textiles

  • Gobierno garantiza abasto de productos durante contingencia sanitaria por COVID-19

  • Detecta FGE a bandas de secuestradores y narcos infiltrados en la “Caravana Migrante” en Chiapas

  • Encontramos un desorden, dice alcalde de Tuxtla, al rendir informe

  • Crecimiento económico para todos, no para unos cuantos: Rutilio Escandón

  • El campo florecerá con políticas públicas apegadas a sus necesidades: Rutilio

  • MVC, al amparo presidencial

  • Sancionan a secretaria por difundir fotos desnuda

  • Recuperan 70 autos robados

  • Ratifican a Chiapas como uno de los estados más seguros del país

  • El colmo: los dejan sin banquetas

  • Quiebra el centro de Tuxtla

  • Linchan a dos más en los Altos; suman nueve en 20 meses

  • Niños reciben clases de atacar a migrantes

  • Detenidos con las manos en la masa.

  • Lo detienen con droga en la mano

  • Piden reparación de baches en la colonia Penipak

  • Bajan las Copoyitas del cerro.

  • Duras palabras del pontífice.

Ciencia y TecnologíaPrincipal
Home›Ciencia y Tecnología›¿Qué es un deepfake?

¿Qué es un deepfake?

By Pablo Zavala Penilla
septiembre 25, 2019
1283
0
Share:

Agencias / MonitorSur, Ciudad de México.- El término deepfake nació de la unión de dos conceptos: el deep learning, como se conoce al aprendizaje profundo de sistemas de inteligencia artificial y la palabra fake, falso. Según The Economist, la palabra se acuñó en un foro de Reddit, cuando se hicieron virales videos en que, supuestastamente, algunas celebridades tenían relaciones sexuales.

Lo que pasó, básicamente, es que algunos usuarios usaron un software para poner el rostro de actrices de Hollywood —como Natalie Portman, Daisy Ridle, Jessica Alba, Emma Watson, entre otras— en videos de actrices porno. Desde que ocurrió esto, en 2018, se han perfeccionado las herramientas para que la generación de estos videos truqueados donde se suplanta la identidad parezcan más reales.

A partir de ahí, empezó a extenderse su uso hasta superponer el rostro de una persona en un video donde sale otra persona, igualando gestos para hacerle creer a quien lo ve que quien sale en el video es alguien más.

Para detener el avance del deepfake, en Estados Unidos se comenzó  a penalizar la distribución de imágenes y videos pornográficos falsos desde julio de 2019. Sin embargo, cada vez más hay videos deepfake que no tienen contenido sexual, sino que se suplantan identidades de personas famosas diciendo o haciendo cosas que jamás harían.

Detecting deepfakes is one of the most important challenges ahead of us. Following our release of a synthetic audio dataset in Jan, we're releasing a large dataset of visual deepfakes to support researchers working on synthetic video detection #GoogleAIhttps://t.co/sDW7BP34qL

— Sundar Pichai (@sundarpichai) September 24, 2019

¿Cómo se hace un deepfake?

En realidad, ahora es muy sencillo hacer un deepfake con la tecnología que existe. FakeApp, por ejemplo, es una de muchas aplicaciones que se pueden descargar para hacerlo. Una vez tenien do el software, se recopilan videos de las personas que quieras intercambiar, los cargas en el programa y listo, la inteligencia artificial hace el resto.

Los programas de deepfake trabajan cada video como si se tratara de una fotografía y extraen cuadro por cuadro cada imagen que subas. De manera que entre más videos uses, con diferentes iluminaciones —es decir, mientras más información le des a la inteligencia artificial— el resultado parecerá más real.

This is pretty fascinating. Deepfake technology being used to de-age celebrities like @DavidHasselhoff https://t.co/FLVsjfLFNZ via @Chris_Ume pic.twitter.com/0C7swJ1EqQ

— Mikael Thalen (@MikaelThalen) September 16, 2019

¿Por qué debería preocuparnos?

Según el diario The Economist, el foro de discusión sobre los videos pornográficos falsos fue cerrado, sin embargo, de inmediato empezó a usarse la tecnología para generar variaciones en algunas escenas icónicas del cine. Por ejemplo, la del actor Jim Carrey (The Mask) “suplantando” a Jack Nicholson en tres videos de la película The Shining.

Los videos están alojados desde julio de este año, en un canal de YouTube llamado Ctrl Shift Face. Un mes después de la impresionante manipulación del rostro de Nicholson, apareció otro deepfake realmente digno de espantarnos.

La base de este nuevo deepfake fue una entrevista que dio el comediante Bill Hader en 2008 a David Letterman, en donde el actor cuenta anecdotas de su trabajo con otros actores. Con una sincronización de gestos casi perfecta la cara del actor de It: Chapter Two se transforma en la de Tom Cruise (Top Gun: Maverick) y luego la de Seth Rogen (The Interview), de quienes habla e imita en la entrevista original.

Por su parte, Jordan Peele, director de la película Get Out, fue uno de los primeros en alertar sobre las consecuencias de manipular cualquier imagen para confundir a la audiencia. Para demostrarlo, protagonizó y publicó un video como si fuera el expresidente de Estados Unidos, Barack Obama. En el montaje, entre otras cosas, insulta al presidente de Estados Unidos, Donald Trump.

“Estamos entrando en una era en la que nuestros enemigos pueden hacer parecer que cualquier persona dice cualquier cosa en cualquier momento. Este es un momento peligroso. En el futuro, debemos estar más atentos con las cosas de Internet en las que confiamos”, dice Peele en el video como si fuera Obama.

Otras manipulaciones publicadas incluyen al mandatario de Rusia, Vladimir Putin, al presidente ejecutivo de Facebook Mark Zuckerberg, “confesando” la manipulación de información de sus usuarios y a la política Nancy Pelosi, aparentemente en estado de embriaguez.

Según The Economist, ahora todavía se puede buscar las imágenes verdaderas en Internet para compararlas con los deepfakes. Sin embargo, añade que al ritmo que se está desarrollando la tecnología, en poco  tiempo se podrán generar contenidos propios, sin la necesidad de una imagen previa, lo que dificultará poder saber si un video es real o no.

Por último, las consecuencias no solo pueden pensarse en términos masivos, advierte The Economist, como la manipulación de una elección mediante mensajes falsos; también en círculos más pequeños, como el potencial riesgo para hacer bullying a un compañero de escuela o para que las agencias de publicidad generen nuevos patrones de belleza, manipulando a placer cualquier físico.

Previous Article

Jubilados tendrán aumento en pensión

Next Article

Musk muestra imágenes del Raptor

0
Shares
  • 0
  • +
  • 0
  • 0
  • 0
  • 0

Related articles More from author

  • Información GeneralNoticiasPrincipal

    Mancera entrega nuevos helicópteros y más equipo de emergencia

    enero 23, 2015
    By Alejandra Dohi
  • Ciencia y TecnologíaPrincipal

    Ya no se podrá espiar la actividad de otros usuarios en Instagram

    octubre 10, 2019
    By Pablo Zavala Penilla
  • InternacionalPrincipal

    Las naciones ricas se disputan a los trabajadores migrantes

    diciembre 4, 2021
    By Mariana Herrera
  • PrincipalTiempo Libre

    Filtran detalles del PlayStation Plus Video Pass

    abril 28, 2021
    By Pablo Zavala Penilla
  • InternacionalPrincipal

    Marcados por la religión, costarricenses eligen presidente en segunda vuelta

    abril 1, 2018
    By Diseñador Agencia Sur
  • ChiapasGobernador ChiapasNoticiasPrincipal

    Llama Rutilio Escandón a reforzar medidas preventivas para erradicar al COVID-19

    octubre 2, 2020
    By Diseñador Agencia Sur
0

Te recomendamos:

  • ChiapasJusticia y SeguridadNoticias

    Reconoce Llaven Abarca labor de las Fuerzas Armadas para garantizar la paz en México

  • Noticias

    Pide PRD esclarecer asesinato de precandidatos

  • CampoCiencia y Tecnología

    Identifican más plagas para el café

Síguenos en Facebook

Publicidad

Síguenos en Twitter

Tweets by MonitorSur

¡Viaja a Chiapas!

Nuestras publicaciones

marzo 2026
D L M X J V S
1234567
891011121314
15161718192021
22232425262728
293031  
« Feb    

Publicidad

Lo más reciente

  • marzo 1, 2026

    Eduardo Ramírez: “Todo el peso de la ley”, de confirmarse que “Pakales” estaban la lista de “El Mencho”

  • marzo 1, 2026

    Abre FGE de Chiapas investigación contra Pakales por filtración de narconómina de “El Mencho”

  • marzo 1, 2026

    “No encubrimos a nadie”, señala el jefe de los Pakales, Oscar Aparicio, y se abre a la investigación

  • marzo 1, 2026

    Gobierno del Estado fortalece coordinación intermunicipal en seguridad pública

  • marzo 1, 2026

    La UNACH abre convocatoria para docentes de Tiempo Completo

Las tendencias

  • Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en ...

    By Nelson
    mayo 26, 2016
  • Acusa “Marcos” a César Chávez de lucrar con el EZLN

    By Ery Acuña
    enero 4, 2014
  • Sembrador del conocimiento, reconocen trayectoria de Andrés Fábregas Puig

    By Ery Acuña
    febrero 10, 2014

Lo más comentado

  • Política Educativa en Contexto chiapaneco – Gestión de la Educación
    on
    septiembre 11, 2019
    […] Parra Chávez, presidenta de la Comisión Provisional de Igualdad de Género y No Discriminación, expuso ...

    Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC

  • Política Educativa en Contexto chiapaneco – Gestión de la Educación
    on
    agosto 28, 2019
    […] https://monitorsur.com/parlamento-juvenil-2019-espacio-para-el-analisis-y-participacion-democratica/ […]

    Parlamento Juvenil 2019, espacio para el análisis y participación democrática

  • La guerra sucia electoral alcanza a Zacatecas: los punteros encaran acusaciones | Gabriel Ricardo Morales Fallon
    on
    mayo 28, 2016
    […] priista negó lo publicado por un medio en Chiapas, y luego recogido por Proceso, que ...

    Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami

Todos los derechos Reservados ©2014-2025.