Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Survey On Emotional Body Gesture Recognition” de Noroozi, F.; Kaminska, D.; Corneanu, C. P.; Sapinski, T.; Escalera, S. y Anbarjafari, G. (2018), en el que los autores hacen una breve revisión sobre algunos de los sistemas utilizados para el reconocimiento de los gestos corporales y su decodificación.

Sabemos que el lenguaje no verbal tiene un papel indispensable en nuestra comunicación diaria. Y además, las personas cambiamos constantemente las pistas no verbales que emitimos a través del movimiento corporal y las expresiones faciales.

Aunque es un aspecto significativo de la psicología social humana, los primeros estudios sobre el lenguaje corporal se hicieron populares en la década de los 60.

Pero el, probablemente considerado, trabajo más importante fue publicado mucho antes del siglo XX: “La expresión de las emociones en el hombre y los animales”, de Darwin. Él observó, por ejemplo, que la gente de todo el mundo utilizaba las expresiones faciales de forma similar.

Esto fue estudiado más adelante por Paul Ekman, que, junto a Friesen, desarrolló el sistema de codificación de acción facial (FACS) para establecer grosso modo una clasificación de las expresiones faciales humanas.

Tal es el papel de la comunicación no verbal, que muchos investigadores coinciden en que son los movimientos corporales los que permiten formar relaciones, no las palabras.

Los gestos serían una de las formas más importantes de comunicación no verbal. Incluyen movimientos de manos, cabeza y otras partes del cuerpo que permiten a las personas comunicar sus sentimientos y emociones.

La mayoría de los gestos básicos son los mismos en todo el mundo: cuando estamos felices, sonreímos; cuando estamos enfadados, fruncimos el ceño.

La posición de la cabeza también revela mucha información sobre el estado emocional. Por ejemplo, las personas tienden a hablar más si el oyente les anima asintiendo con la cabeza. Si se levanta la barbilla, puede significar que la persona está mostrando superioridad o incluso arrogancia, mientras que exponer el cuello puede interpretarse como una señal de sumisión.

Señalamos, como siempre, la necesidad de tener en cuenta el contexto y diferentes partes del cuerpo para interpretar correctamente el estado emocional.

Si bien las emociones se pueden expresar de diferentes formas, el reconocimiento automático de ellas se ha centrado principalmente en las expresiones faciales y el habla, dejando en un segundo plano los trabajos sobre gestos/movimientos corporales y la postura.

En este artículo, los autores intentan ofrecer una visión general de las técnicas más novedosas para el reconocimiento automático de emociones a partir de gestos corporales.

Nos referimos a sistemas digitales y tecnológicos de reconocimiento. Para utilizarlos, primero se debe utilizar una base de datos, bien de acceso público, o bien propia, para buscar imágenes o vídeos.

El primer paso es detectar los cuerpos de las personas como un todo y restar el fondo. Después, se detecta y se sigue la pose para reducir la variación de datos irrelevantes causada por la postura. Por último, se debe hacer una representación adecuada de los datos y aplicar técnicas para mapear ésta.

La mayoría de los datos disponibles en bases de datos públicas contienen expresiones actuadas, pero muestran emociones claras y sin distorsiones. Sin embargo, algunos investigadores refieren que no reflejan las condiciones del mundo real. Por ello, muchos expertos recomiendan utilizar películas, reality shows o programas en directo, donde es posible que la calidad del material no sea óptima, pero sí mucho más real.

Las aplicaciones del reconocimiento de gestos corporales emocionales son principalmente de tres tipos.

En primer lugar, están aquellos sistemas que detectan las emociones de los usuarios.

En segundo lugar, aparecen agentes conversacionales animados, reales o virtuales, como robots o avatares que se espera que actúen de forma similar a los humanos.

Por último, están los sistemas que pueden aplicarse en videotelefonía, videoconferencias, herramientas de monitorización del estrés, detección de violencia o videovigilancia, entre otros ámbitos.

Los sistemas automáticos de reconocimiento pueden utilizar fuentes de información que se basan en el rostro, la voz y los gestos corporales al mismo tiempo. Por lo tanto, si el sistema es capaz de combinar aspectos emocionales y sociales del contexto, y tomar una decisión basada en las señales disponibles, puede ser un asistente útil para los humanos.

Un ejemplo de estimación y seguimiento de posturas, en este caso de varias personas, es “Arttrack”. Con este software se logran resultados a la vanguardia mediante el uso de una tecnología capaz de detectar y asociar las articulaciones corporales de la misma persona incluso en el desorden.

Este modelo es especialmente útil cuando se trata de formular un seguimiento articulado de la postura. Permite, por tanto, resolver el problema de asociación para personas en la misma escena.

Sin embargo, en general, las representaciones actuales siguen siendo superficiales. Aunque recientemente se está aprendiendo a darles profundidad y relevancia para el reconocimiento de afectos, todavía queda un largo camino por delante.

Una limitación es la escasez de gestos corporales y datos afectivos multimedia. Otra sería la falta de consenso en cuanto a la interpretación de los gestos.

En general, para un análisis humano afectivo integral a partir del lenguaje corporal, el reconocimiento de gestos corporales debe aprender del reconocimiento facial emocional.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Author

Write A Comment

Club del Lenguaje No Verbal