MonitorSur

Sign in / Join

Login

Welcome! Login in to your account
Lost your password?

Lost Password

Back to login

logo

MonitorSur

  • Investigación y colecciones científicas, un instrumento para la conservación: Semahn

  • Chiapas será sede del concurso nacional de textiles

  • Gobierno garantiza abasto de productos durante contingencia sanitaria por COVID-19

  • Detecta FGE a bandas de secuestradores y narcos infiltrados en la “Caravana Migrante” en Chiapas

  • Encontramos un desorden, dice alcalde de Tuxtla, al rendir informe

  • Crecimiento económico para todos, no para unos cuantos: Rutilio Escandón

  • El campo florecerá con políticas públicas apegadas a sus necesidades: Rutilio

  • MVC, al amparo presidencial

  • Sancionan a secretaria por difundir fotos desnuda

  • Recuperan 70 autos robados

  • Ratifican a Chiapas como uno de los estados más seguros del país

  • El colmo: los dejan sin banquetas

  • Quiebra el centro de Tuxtla

  • Linchan a dos más en los Altos; suman nueve en 20 meses

  • Niños reciben clases de atacar a migrantes

  • Detenidos con las manos en la masa.

  • Lo detienen con droga en la mano

  • Piden reparación de baches en la colonia Penipak

  • Bajan las Copoyitas del cerro.

  • Duras palabras del pontífice.

Ciencia y Tecnología
Home›Ciencia y Tecnología›Los deepfakes están causando problemas de veracidad en los videos

Los deepfakes están causando problemas de veracidad en los videos

By Pablo Zavala Penilla
noviembre 2, 2018
1540
0
Share:

Agencias / InsurgentePress, Ciudad de México.- Los últimos años han estado marcados por el auge y la preocupación ante las noticias falsas. Gigantes de Internet y gobiernos buscan soluciones a uno de los grandes males modernos: masas sociales siendo desinformada maliciosamente, algo que puede llegar a tener consecuencias fatales, como la muerte de más de dos decenas de personas en India por la difusión de sus imágenes en WhatsApp como supuestos secuestradores de niños.

Esta tendencia tuvo su vuelta de tuerca con la llegada de los deepfakes, videomontajes hiperrealistas, en forma de falsos vídeos porno protagonizados por famosas creados gracias a algoritmos de aprendizaje automático como TensorFlow. Unos vídeos que no han hecho más que abrir la lata de lo que será la continuación de las noticias falsas: los deepfakes usados para difundir falsos mensajes pronunciados por personas que nunca los pronunciaron.

Las noticias falsas tienen su base en la recompensa que obtienen en redes sociales y aplicaciones de mensajería la información engañosa y polarizante, tal y como explicó Aviv Ovadya, la primera voz que alertó masivamente sobre el advenimiento de este fenómeno. Esta desinformación “adictiva y tóxica” sube de nivel con los deepfakes aplicados a la política y la economía. ¿Quién podría identificar -sobre todo a ojo inexperto- que este vídeo de Obama no es real, sino un sofisticado montaje cuya base es el actor Jordan Peele?

El Center for a New American Security (CNAS) es una organización estadounidense sin ánimo de lucro que promueve asuntos de seguridad entre la clase política. En el mes de julio publicó un estudio sobre usos de la Inteligencia Artificial relacionados con la seguridad nacional. Dijo sobre los deepfakes que es posible que en menos de cinco años puedan engañar a oídos y ojos no entrenados con tal de “difundir contenido falso, engañoso o hiperpartidista”.

Las manifestaciones públicas de preocupación por este fenómeno van aumentando, con la preocupación central del efecto político que puede tener en la sociedad el avance de este método de desinformación. Incluso hay quien no descarta que sean los propios estados quienes utilicen los deepfakes a su beneficio.

Andrew Grotto, experto en seguridad del Centro para la Seguridad y la Cooperación Internacional en la Universidad de Stanford en California, afirmó en un artículo de AP News que los estados no podrán resistirse a usarlos para manipular la opinión pública. También se atrevió a rebajar el plazo fijado por el CNAS, ya que dijo que en “uno o dos años será realmente complicado para las personas distinguir entre vídeos reales y falsos”.

Un estudio anónimo presentado para la próxima Conferencia Anual de Aprendizaje Automático en Nueva Orleans propone nuevas redes neuronales adversarias que conseguirían imágenes de una precisión inédita hasta la fecha, al menos sobre el papel. Estos algoritmos se basan en modelos generativos: aprenden cuáles son las características de un conjunto de datos y luego crea nuevos ejemplos desde cero. Incluso recrea un mismo rostro en diferentes etapas de su vida.

Con una fuente de datos lo suficientemente grande, por ejemplo, de rostros de personas, son capaces de originar nuevas “fotografías” de personas que nunca han existido: las crea en base a lo aprendido. Una buena muestra la tenemos en el siguiente vídeo. Ni siquiera los humanos podemos diferenciar en él entre caras originales y generadas.

Un tiempo de experiencia en Internet blinda a (casi) cualquiera contra las estafas online más comunes. Cuesta encontrar a alguien que crea a estas alturas en príncipes nigerianos que dejan herencias millonarias a un cualquiera mediante un mail. ¿Ocurrirá lo mismo cuando sigan proliferando los deepfakes? Según Francisco Javier Ordóñez, director de Inteligencia Artificial en StyleSage, sí.

“La veracidad de estos contenidos ya no va a ser incuestionable, en un futuro no muy lejano cualquier audio o vídeo que consumamos podrá ser una muestra sintética de laboratorio”.

Esto tendría implicaciones tan importantes como que hasta la justicia tendría que repensar la validez que otorga a las pruebas, al menos sin un sistema detector de falsificaciones con la suficiente fiabilidad. “Un vídeo ya no valdría como prueba en ningún juicio”, vaticina Ordóñez.

¿Qué ocurriría entonces en la relación entre pruebas gráficas y justicia? “Surgiría una legislación que abordaría con más rigor y severidad el tema de los derechos de imagen respecto a los fakes para que quede penado sustraer la imagen de cualquier persona y ponérsela a un actor de película porno, o que se puedan suplantar identidades para cualquier uso malicioso que se nos ocurra”.

Dice el refrán que hecha la ley, hecha la trampa. De trampas nos hablaba Sánchez-Migallón, y esas trampas son al mismo tiempo la mejor herramienta que vamos a tener para combatir los deepfakes: al diseñar redes neuronales adversarias se crean grandes generadores de falsificaciones, pero a la vez, grandes detectores de falsificaciones.

“Esto nos hace ser optimistas a la hora de combatirlos en un futuro. Igual que hoy tenemos una guerra entre virus y antivirus, entre falsificadores de billetes o de obras de arte y autoridades policiales, se dará una guerra entre fakes y anti-fakes”, cuenta.

Ordóñez hace una comparación similar: “Al final habrá una situación como la que se vive en otros ámbitos de la ciberseguridad, donde se establece una carrera tecnológica entre los buenos y los malos, ambos manejando herramientas parecidas”.

Las estrellas del cine o la música tienen en los deepfakes a la generación de vídeos porno con sus rostros (los cuales fueron prohibidos por PornHub con poco éxito). Los políticos, a la creación de discursos pronunciados falsamente por ellos. ¿Qué escenario se podrá encontrar un ciudadano anónimo que le afecte en primera persona, más allá de ser desinformado y confundido? ¿Podríamos cualquiera de nosotros ser víctima de un montaje así que trate de hundir nuestra imagen? Ordóñez da un primer mensaje tranquilizador:

“Para que un algoritmo generativo sea capaz de generar ejemplos de vídeos realistas requiere de una gran cantidad de datos de los que aprender, de ahí que principalmente veamos vídeos de este tipo con personas famosas, de las que se pueden encontrar muchas horas de vídeo de alta calidad en Internet. Por ello actualmente es muy difícil crear un vídeo realista de alguien anónimo, y por tanto es complicado llevar el descrédito a nivel personal”.

Una posibilidad que si bien con la tecnología actual parece remota, quizás sí sea viable dentro de un tiempo al ritmo que se está desarrollando, como él mismo señala. Si llega el momento en el que es factible para cualquiera crear un deepfake que socave nuestra imagen, aun sin disponer de una gran cantidad de vídeos sobre nosotros, nos queda encomendarnos a que las herramientas de detección funcionen correctamente.

Sánchez-Migallón también se atreve a imaginar un escenario a lo Black Mirror en el que nuestra identidad se desdoble en física y digital a un nivel mucho más pronunciado del que pueda haber ahora. Cree que podrían crearse actores virtuales, o que los actores actuales tengan una suerte de avatar que puedan ceder a productoras para que lo usen sin necesidad de tener que seguir trabajando un personaje. ¿Y para los ciudadanos? Algo similar:

“Cualquiera de nosotros podría tener un avatar que consistiera en una copia idealizada y “embellecida” de nuestra propia imagen, y que proyectamos en Internet o en la vida pública en general, mientras que luego estaría nuestra imagen verdadera, solo accesible en el ámbito privado. De hecho quizá podría llegar a existir un derecho a la intimidad de la imagen personal: que nadie pueda publicar imágenes, si yo no quiero, de mi verdadero yo de carne y hueso”.

Imposible no recordar en este punto la recreación digital de Carrie Fisher en Rogue One, que la trajo de nuevo a la vida para poder despedirse de la que fue su franquicia. Lamentablemente, no todo el futuro de los deepfakes será tan melancólico y bienintencionado.

Previous Article

La nueva actualización de Microsoft Word agrega ...

Next Article

Adiós a la leña, desarrolla Xaquixe horno ...

0
Shares
  • 0
  • +
  • 0
  • 0
  • 0
  • 0

Related articles More from author

  • Ciencia y TecnologíaPrincipal

    Humanos cazaron mamuts hace 37,000 años

    agosto 10, 2022
    By Pablo Zavala Penilla
  • Ciencia y Tecnología

    Una nueva tecnología otorga “visión de rayos X” a los coches inteligentes

    noviembre 4, 2021
    By Pablo Zavala Penilla
  • Ciencia y TecnologíaPrincipal

    Encuentran el arte rupestre más antiguo del mundo

    febrero 1, 2021
    By Pablo Zavala Penilla
  • AmbienteChiapasNacionalNoticiasPrincipal

    118 municipios en emergencia por Sismo en Chiapas

    septiembre 19, 2017
    By Diseñador Agencia Sur
  • Ciencia y Tecnología

    Científicos ponen en marcha reloj basado en púlsares

    enero 12, 2019
    By Pablo Zavala Penilla
  • Ciencia y Tecnología

    Realizan el primer viaje a un exoplaneta y el posible contacto humano con alienígenas en el futuro

    noviembre 16, 2021
    By Pablo Zavala Penilla
0

Te recomendamos:

  • DeportesPrincipal

    ¿Qué se esconde detrás de la empresa con derechos de transmisión de los mundiales de fútbol?

  • NoticiasTuxtla

    Detienen a cinco por  robo a casa-habitación en Tuxtla

  • Principal

    Condena Aureoles homicidio de mexicano en EU

Síguenos en Facebook

Publicidad

Síguenos en Twitter

Tweets by MonitorSur

¡Viaja a Chiapas!

Nuestras publicaciones

marzo 2026
D L M X J V S
1234567
891011121314
15161718192021
22232425262728
293031  
« Feb    

Publicidad

Lo más reciente

  • marzo 1, 2026

    Eduardo Ramírez: “Todo el peso de la ley”, de confirmarse que “Pakales” estaban la lista de “El Mencho”

  • marzo 1, 2026

    Abre FGE de Chiapas investigación contra Pakales por filtración de narconómina de “El Mencho”

  • marzo 1, 2026

    “No encubrimos a nadie”, señala el jefe de los Pakales, Oscar Aparicio, y se abre a la investigación

  • marzo 1, 2026

    Gobierno del Estado fortalece coordinación intermunicipal en seguridad pública

  • marzo 1, 2026

    La UNACH abre convocatoria para docentes de Tiempo Completo

Las tendencias

  • Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en ...

    By Nelson
    mayo 26, 2016
  • Acusa “Marcos” a César Chávez de lucrar con el EZLN

    By Ery Acuña
    enero 4, 2014
  • Sembrador del conocimiento, reconocen trayectoria de Andrés Fábregas Puig

    By Ery Acuña
    febrero 10, 2014

Lo más comentado

  • Política Educativa en Contexto chiapaneco – Gestión de la Educación
    on
    septiembre 11, 2019
    […] Parra Chávez, presidenta de la Comisión Provisional de Igualdad de Género y No Discriminación, expuso ...

    Los derechos de inclusión, el gran tema de las elecciones del 2021: IEPC

  • Política Educativa en Contexto chiapaneco – Gestión de la Educación
    on
    agosto 28, 2019
    […] https://monitorsur.com/parlamento-juvenil-2019-espacio-para-el-analisis-y-participacion-democratica/ […]

    Parlamento Juvenil 2019, espacio para el análisis y participación democrática

  • La guerra sucia electoral alcanza a Zacatecas: los punteros encaran acusaciones | Gabriel Ricardo Morales Fallon
    on
    mayo 28, 2016
    […] priista negó lo publicado por un medio en Chiapas, y luego recogido por Proceso, que ...

    Candidato del PRI al Gobierno de Zacatecas y su esposa ocultan compra de residencias en Miami

Todos los derechos Reservados ©2014-2025.