Tag

Tecnología

Browsing

Amigos del Club de Lenguaje No Verbal, esta semana presentamos el artículo “Nonverbal Behaviors ‘Speak’ Relational Messages of Dominance, Trust, and Composure” de Burgoon, J. K.; Wang, X.; Chen, X.; Pentland, S. J. y Dunbar, N. E. (2021), en el que los autores se preguntan cuáles son las muestras no verbales de dominancia, confianza y compostura y, además, cómo de fácilmente se pueden percibir de forma automatizada, con dispositivos tecnológicos.

Sabemos que gracias a las señales no verbales somos capaces de interpretar con mayor precisión los mensajes que recibimos en las relaciones interpersonales, así como somos capaces de emitirlos con más eficacia.

Debido a su importancia, sin ellos nuestra capacidad de comunicación se vería fuertemente mermada.

Hasta hace unos años contábamos únicamente con la capacidad humana de observación para estudiar el comportamiento no verbal, pero con el desarrollo de las nuevas tecnologías, parece que la precisión con la que se investiga este tipo de conducta podría llegar a ser más objetiva, siendo estudiada de forma más detallada.

Los autores de este artículo eligen tres rasgos de relevancia, que son la dominancia-sumisión, la compostura-nerviosismo y la confianza-desconfianza.

Además, se proponen detectarlos con la ayuda de dispositivos tecnológicos para comprobar hasta qué punto podemos confiar en la tecnología en esta materia.

Hablaremos primero de la dominancia-sumisión. La dominancia es uno de los rasgos de la personalidad y el comportamiento humano más reconocidos en las relaciones personales.

Los autores señalan algunas conductas no verbales que pueden estar relacionadas con la dominancia. Tenemos, por ejemplo, el silencio, un tono de voz bajo, un volumen alto o también velocidad de discurso rápida, en lo relacionado con la prosodia. En cuanto a la expresión facial, se observa bajar las cejas o no sonreír.

En cuanto al movimiento corporal, la contracción del cuerpo y evitar la mirada se asociaría con el extremo contrario de la dominancia, es decir, la sumisión. En las personas dominantes aparecerían posturas corporales más expansivas, con inclinaciones de cabeza hacia arriba.

Por otro lado, tenemos la compostura-nerviosismo. Generalmente, cuando aumentan los niveles de compostura o calma durante las interacciones, se obtienen mayores beneficios. Por ejemplo, en el caso de que los jefes o encargados de negocio la manifiesten, aumentará la satisfacción de los empleados.

Se cree que las personas con este rasgo de personalidad poseen un gesto facial agradable, mostrando con frecuencia emociones en su voz, siendo expresivos, hablando mucho. Tienen una postura relajada en cuerpo y cabeza y tienden a ser relajados en general.

En cuanto a sus voces, suelen tener un tono más grave, una risa contenida y relajada y un volumen de habla moderado.

Por otro lado, se considera que las personas que están nerviosas se encuentran más rígidas, tensas, evitan el contacto visual, tienen un tono de voz más alto y miran menos a los ojos.

Por último, aparece la confianza-desconfianza. Esta se expresa en relaciones interpersonales y suele aparecer en forma de reciprocidad, convergencia y sincronía en momentos en que interactúan dos o más personas. Además, parece que, en primera instancia, es complicado asociarla con comportamientos no verbales de forma objetiva.

Para realizar su estudio y saber si pueden utilizarse dispositivos electrónicos para estudiar estos estados mentales de forma objetiva y precisa, los autores diseñan un experimento.

En él participaron un total de 379 personas. Los autores utilizaron unos juegos de mesa con un cierto componente de rol, en el que los voluntarios participaban en grupos pequeños.

Estos grupos se dividían a su vez en dos, creando una rivalidad entre ellos dentro de la misma partida.

Los rostros, gestos y movimientos corporales de los participantes se medían con cámaras y micrófonos de dispositivos que cada uno de ellos tenía delante.

Posteriormente, tras ver las grabaciones de sus compañeros, se les dijo que debían puntuar a los demás participantes de su partida en las dimensiones de dominancia-sumisión, compostura-nerviosismo y confianza-desconfianza, según una lista de factores de interés.

Los resultados mostraron que la dominancia fue la asociada a más factores (101/150). La percepción de la dominancia, según los resultados, se asociaba a un volumen alto de voz, un comportamiento no verbal facial más expresivo, más movimientos de cabeza y turnos de habla de mayor duración.

Por otro lado, tenemos las señales no verbales de nerviosismo y compostura. Los autores creían en un principio que el nerviosismo sería percibido por un tono de voz aguda, pero no se obtuvieron resultados consistentes con esta idea. Sin embargo, sí confirmaron otras, como que las personas que están nerviosas tienden a tener una postura corporal más rígida.

Por último, tenemos la confianza-desconfianza. Fue la más complicada de detectar. No se encontró que ninguna expresión facial o movimiento corporal invitase a creer que se estaba ante una persona en la que se podía confiar.

Es posible que esto sea porque ninguno de los participantes se conocía y, por tanto, era muy complicado establecer una relación de confianza o desconfianza en tan poco tiempo.

En resumen, los resultados nos dicen que, si bien gracias a los dispositivos tecnológicos podemos registrar de forma objetiva el comportamiento no verbal, sigue siendo necesario contar con la ayuda de personas para ello, de forma que no se pase nada por alto.

Un avance importante de este estudio es que para el reconocimiento de los rasgos de personalidad se utilizó a grupos de personas, en lugar de hacer parejas, que viene siendo lo más común.

Los autores proponen continuar mejorando los recursos tecnológicos para poder mejorar su rendimiento y, en un futuro, utilizarlos como detectores no verbales con mayor confianza.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Expressing robot personality through talking body language”, de Zabala, U.; Rodríguez, I.; Martínez-Otzeta, J. M. y Lazkano, E. (2021), en el que los autores investigan si es posible que los robots sociales expresen emociones de forma correcta a través de su lenguaje corporal.

La robótica ha dejado de ser una invención de las películas de ciencia ficción para convertirse en una realidad que, cada día, se asienta más en nuestras vidas.

Esta semana vamos a hablar de los robots sociales. Este tipo de robots están pensados, por ejemplo, para ayudar a personas dependientes e incluso para acompañar a quienes están en situaciones de aislamiento.

Al ser robots pensados para interactuar con las personas, es muy importante que manejen los matices de la comunicación, y esto incluye tanto aspectos verbales como no verbales.

Además, deben ser capaces de expresar afecto, percibir las emociones humanas e incluso tener una cierta personalidad, de forma que puedan establecer vínculos sociales.

Es por ello por lo que los autores intentan mejorar este aspecto de la comunicación de los robots, realizando una serie de cambios en su programación y su mecánica, para coordinar con sus cuerpos lo que quieren decir o transmitir.

Dentro del lenguaje no verbal, como ya sabemos, se incluyen diferentes áreas. Tenemos gestos, posturas, movimientos del cuerpo y la cara, entre otros. Por lo tanto, vemos que hacer que un robot asemeje su lenguaje corporal al humano no es una tarea sencilla.

Los autores realizan una serie de cambios en el robot escogido para lograr su propósito.

Por un lado, tenemos la importancia de los movimientos corporales. Es necesario que éstos estén coordinados con las palabras de la máquina. Para ello, los autores adaptan la velocidad de los movimientos según la emoción que sería coherente transmitir con el discurso del robot.

Por ejemplo, si la emoción es entendida como positiva, los gestos se realizarán de forma más viva y dinámica que si es entendida como negativa o incluso neutral.

Los autores también modificaron los movimientos de cabeza del robot. Cuando una emoción neutral se muestra, el robot simplemente mira al frente. Si la emoción es positiva, levantará la cabeza; si es negativa, la inclinará hacia abajo.

Lo mismo ocurriría con la parte del torso, que se inclinaría hacia abajo en un contexto negativo, hacia arriba en uno positivo y se mantendría algo más recto en uno neutral.

Sabemos que también es muy importante la expresión facial. En el caso de los robots como el utilizado para el estudio, la expresión facial manipulable por los programadores se reduce a los ojos.

Los autores decidieron instalar unas luces LED en los ojos del robot y programarlas de diferentes maneras. La idea era que la intensidad del color fuese cambiando en función de la intensidad de la emoción que el robot quiere transmitir.

Por tanto, existía un color con dos intensidades diferentes para cada uno de los tres tipos de emociones. Las emociones negativas fueron asociadas al azul; gris para las emociones neutrales y amarillo para las emociones positivas.

La prosodia o paralenguaje también era un área que los autores debían explorar. Las personas modulan la entonación de sus voces según el contexto y también añaden o restan énfasis a sus discursos. Además, la entonación también se relaciona con el estado de ánimo del hablante.

Una limitación del robot, y por tanto también del estudio, es que no se puede variar la entonación de su voz. Sin embargo, sí podían programarse otros aspectos, como el volumen o la velocidad del habla.

Para comprobar si con los cambios realizados en el robot se obtenían los resultados deseados, los autores realizaron dos pruebas.

Primero, hicieron que el robot leyese una definición de Wikipedia, manipulando su funcionamiento para que su lenguaje corporal pasase por los tres tipos de emociones propuestos: negativas, neutrales y positivas.

Después, el robot leyó unos pasajes de un libro y los autores intentaron adecuar su lenguaje corporal a los sucesos de éste. Por ejemplo, si había escenas tristes, el robot mostraría emociones negativas; ocurriría lo mismo con las escenas felices y las emociones positivas.

Los autores consideraron sus experimentos todo un éxito, ya que con los ajustes configurados se entendía que el robot estaba transmitiendo sentir uno u otro tipo de emociones según su lenguaje corporal.

De esta forma, se facilita la creación de una personalidad aproximada para el robot, lo que también hace más sencillo establecer relaciones o vínculos con las personas.

Una limitación de esta investigación es que los autores consiguieron que el robot reaccionase con “emociones” pero únicamente al emitir discursos largos o al escuchar durante unos segundos lo que se le dice. Es decir, no reacciona con tanto éxito ante frases sutiles o cortas.

Los autores señalan que poco a poco irán perfeccionando las limitaciones que se encontraron. Además, comentan que es necesaria una evaluación en público y ante personas que no pertenecen al grupo de autores.

De esta forma, se sabría definitivamente si se ha conseguido que el robot transmita emociones con su comportamiento, tanto verbal como no verbal, de forma que sea más sencillo establecer relaciones sociales.

Además, también se buscaba emular el comportamiento humano, por lo que se puede considerar un objetivo conseguido si los resultados ante el público también son positivos.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.