Category

Política

Category

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Fighting Deepfakes Using Body Language Analysis”, de Yasrab, R.; Jiang, W. y Riaz, A. (2021), en el que los autores nos explican lo que son los deepfakes y cómo reconocerlos utilizando las herramientas del lenguaje no verbal.

El desarrollo de la tecnología nos ha traído cosas buenas y malas al mismo tiempo. Ahora, por ejemplo, todos tenemos acceso de internet, la mayor red de información de la historia; pero también existen peligros de los que debemos defendernos. 

Uno de ellos son los vídeos falsos, llamados “deepfakes” de ahora en adelante, que representan una amenaza para la privacidad de las personas.  

Hasta ahora sabíamos que las imágenes se podían manipular digitalmente con herramientas como Photoshop, y ya estamos entrenados para distinguir, casi siempre, las falsas de las verdaderas.

Sin embargo, los vídeos falsos cada vez son más convincentes debido al rápido desarrollo de lo que los autores llaman “método de aprendizaje profundo”, que ha extendido y popularizado los deepfakes. Actualmente, se pueden manipular los vídeos de forma que el rostro de una persona se reemplaza por otro, conservando en cierta medida las expresiones faciales y acciones originales, consiguiendo gran realismo. 

Debido a que la cantidad de datos necesarios para conseguir un modelo deepfake es enorme, resulta muy sencillo centrarse en celebridades y líderes mundiales (presidentes, vicepresidentes, etcétera), ya que existen muchas imágenes y vídeos suyos en múltiples plataformas. Por ello, son los principales objetivos de los deepfakes aparentemente reales.

La peligrosidad de los deepfakes reside en que la desinformación se difunde tan rápido como las noticias verídicas en internet y por tanto, se utilizan para engañar al público en general. Por ello, son un problema grave para la seguridad nacional y social si se utilizan con fines políticos. 

Líderes mundiales como Barack Obama y Donald Trump han provocado polémicos debates debido a esto. Por ejemplo, el ex presidente Trump compartió en Twitter unos gifs deepfake de Joe Biden en medio de la campaña por la presidencia de los Estados Unidos. 

Como hemos mencionado, también afecta a las celebridades. Hace poco el actor Tom Cruise apareció por la red social TikTok, para más tarde revelar que nunca tuvo cuenta en dicha red y en realidad fue un deepfake. 

Lo más preocupante es que esta tecnología se ha vuelto muy accesible en los últimos años, donde con una simple aplicación para el Smartphone, como Zao o FaceApp, se pueden crear vídeos y gifs muy realistas. Incluso la ya mencionada TikTok ha introducido filtros que pueden utilizarse para, como fue el caso de Tom Cruise, dañar la credibilidad de alguien o difundir desinformación. 

Por tanto, es fundamental ayudar a la audiencia a identificar los vídeos falsos y proteger a las personas de los deepfakes. 

La investigación conducida por los autores tuvo como objetivo crear un método nuevo de detección de deepfakes que pueda hacer frente a estas amenazas emergentes, así como mejorar los métodos ya existentes. 

Ya hemos mencionado que la mayoría de los objetivos de estos fraudes son personas famosas o líderes mundiales. Por ello, la investigación se centra en estos últimos, cuyas apariciones en público suelen ser tras un atril, dejando la parte superior de su cuerpo al descubierto. Los autores plantean la hipótesis de que los movimientos de esta parte del cuerpo son radicalmente distintos para cada individuo, y las redes de aprendizaje profundo pueden utilizar el lenguaje de estas zonas para identificar a las personas y exponer las falsificaciones. 

Esta zona superior del cuerpo constaría de unos puntos clave: los ojos, la nariz, el cuello, los hombros, los codos y las muñecas. Los autores plantean que estos puntos se podrían usar para entrenar una red neuronal de aprendizaje profundo, de forma que interiorice la postura y gestos de cada persona.

Los métodos que han surgido recientemente se dividen en la detección de imágenes falsas y la detección de vídeos falsos. Se utiliza el análisis de vídeos basado en inteligencia artificial, lo cual es relativamente novedoso. Sin embargo, los métodos existentes hasta la actualidad son en realidad transitorios, porque los deepfakes cada vez se perfeccionan más, corrigiendo sus errores y dificultando el trabajo de detección. Por tanto, es necesario desarrollar nuevas técnicas o mejorar las existentes, y una de las propuestas para ello es la de los autores, en la que se incluye la parte superior del cuerpo, y no únicamente el rostro. 

Proponen entrenar un software para que aprenda la pose de la persona objetivo, su lenguaje corporal, y detecte vídeos falsos. Para su estudio, eligieron vídeos de George W. Bush, Barack Obama, Donald Trump y Joe Biden. 

Los resultados fueron prometedores. El modelo de los autores, susceptible de ser mejorado, acertó con una precisión del 94,39% qué vídeos eran falsos y qué videos eran verdaderos. Esto demuestra que el lenguaje corporal de la parte superior del cuerpo es muy útil para exponer deepfakes. 

Para mejorar esta investigación, los autores proponen recopilar más vídeos, ya que entrenar el software con un conjunto de datos más grande podría mejorar su rendimiento. 

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Club del Lenguaje No Verbal