Los videomontajes se convirtieron en una nueva herramienta de manipulación mediática. Cada vez es más difícil diferenciar lo auténtico de las imitaciones. Pero unos científicos elaboraron un método para no caer en la trampa.

Este Barack Obama parece el auténtico, pero no lo es.

La tecnología es capaz de poner palabras en tu boca que no hayas dicho, de crear un rostro idéntico al tuyo y de imitar tus gestos al más mínimo detalle.

Los videos “deepfake”, una suerte de videomontajes que crean identidades falsas usando la inteligencia artificial, cada vez son más precisos y sofisticados. Tanto es así, que a muchos les preocupa que seamos incapaces de distinguirlos de los originales.

Así ocurrió en 2017, cuando un clip que retrataba a un “falso” Barack Obama se viralizó en internet. Millones de personas lo vieron a través de YouTube y medios de comunicación en todo el mundo.

Con un software, un poco de tiempo y algo de experiencia, unos investigadores de la Universidad de Washington fueron capaces de hacer algo que nunca se había logrado hasta entonces: hiperrealismo tecnológico.

“Estamos adentrándonos en una era en la cual nuestros enemigos le pueden hacer a cualquier persona decir lo que sea en cualquier momento dado”, expresaba desde el Despacho Oval el expresidente de Estados Unidos -o, mejor dicho, su doble digital- en el video.

El pequeño detalle al que debes prestar atención para saber si un v 1

Esa misma tecnología también permitió desarrollar “identidades duplicadas” del mandatario ruso Vladimir Putin o del actual presidente estadounidense, Donald Trump.

Pero también comenzaron a aflorar videos pornográficos en los que el rostro de las actrices originales fue modificado por el de otras personas. Por eso, muchos dijeron que los “deepfake” son el nuevo porno de la venganza.

Pero, existe una forma de saber si un video fue manipulado.

En un abrir y cerrar de ojos…

“Es importante que el público en general sea consciente de las capacidades de la tecnología moderna para generar videos y editarlos”, escribió en su blog Michael Zollhöfer, profesor de la Universidad de Stanford, EE.UU., quien desarrolló una nueva herramienta de “deepfake”.

Pero no es menos importante estar atentos a las señales que permiten identificarlos.

La clave, explican Yuezun Li, Ming-Ching Chang y Siwei Lyu en una investigación publicada por la Universidad de Cornell, en Nueva York, EE.UU., está en los movimientos oculares.

Un ser humano promedio parpadea 17 de veces por minuto. ¿Y en un
Un ser humano promedio parpadea 17 de veces por minuto. ¿Y en un “deepfake”?

“Nuestro método se basa en la detección del parpadeo de los ojos en los videos, que es una señal psicológica que no está bien representada en los videos falsos”, explican los investigadores.

La solución entonces para saber si un video es falso, explican los expertos, es prestar atención a los ojos y a la forma y cantidad de veces en que se cierran.

Los protagonistas de los “deepfake” no parpadean como los humanos.

Una persona promedio parpadea 17 veces por minuto. Pero, como la mayoría de las fotografías no capturan a la gente con los ojos cerrados, quienes aparecen en los videos “deepfake” tampoco los cierran.

“Los algoritmos de los ‘deepfake’ heredan este defecto básico”, explica Siwei Lyu.

A través de una herramienta que monitorea los movimientos oculares en los videomontajes, Lyu y su equipo fueron capaces de distinguir los videos falsos con una precisión del 99 por ciento.

Tal vez eso cambie en los próximos meses o años, a medida que avanzan las técnicas para crear esos videos.

En agosto, Zollhöfer y otros científicos de la Universidad de Stanford presentarán sus avances en la ACM SIGGRAPH, una conferencia internacional sobre computación gráfica en donde tal vez den a conocer un parpadeo “más humano”.

La tecnología puede llegar muy lejos.
La tecnología puede llegar muy lejos.

Algunos, como el periodista tecnológico Kevin Roose, creen que, a medida que avanza la tecnología, menores serán nuestras posibilidades de descubrir las manipulaciones.

“Probablemente no haya nada que podamos hacer más que intentar combatir los engaños cuando salgan a la luz, ejercer presión sobre las empresas de redes sociales para que luchen decididamente contra la desinformación y confiar en nuestros ojos un poco menos cada día“, escribió Roose en el diario estadounidense The New York Times.

Otros, como Lyu, creen que la propia ciencia podrá aportar soluciones: “Es como jugar al gato y al ratón”, asegura.

El pequeño detalle al que debes prestar atención para saber si un v 4

Otras señales a las que prestar atención

Estos son algunos indicios a los que, según los especialistas en “deepfake”, debes estar atento para sospechar de un video:

El pequeño detalle al que debes prestar atención para saber si un v 5

Redacción

Fuente: BBC MUNDO

Share
Temas: Categorías: Tecnologia

Video Destacados

Ad will display in 09 seconds