Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Expressing robot personality through talking body language”, de Zabala, U.; Rodríguez, I.; Martínez-Otzeta, J. M. y Lazkano, E. (2021), en el que los autores investigan si es posible que los robots sociales expresen emociones de forma correcta a través de su lenguaje corporal.

La robótica ha dejado de ser una invención de las películas de ciencia ficción para convertirse en una realidad que, cada día, se asienta más en nuestras vidas.

Esta semana vamos a hablar de los robots sociales. Este tipo de robots están pensados, por ejemplo, para ayudar a personas dependientes e incluso para acompañar a quienes están en situaciones de aislamiento.

Al ser robots pensados para interactuar con las personas, es muy importante que manejen los matices de la comunicación, y esto incluye tanto aspectos verbales como no verbales.

Además, deben ser capaces de expresar afecto, percibir las emociones humanas e incluso tener una cierta personalidad, de forma que puedan establecer vínculos sociales.

Es por ello por lo que los autores intentan mejorar este aspecto de la comunicación de los robots, realizando una serie de cambios en su programación y su mecánica, para coordinar con sus cuerpos lo que quieren decir o transmitir.

Dentro del lenguaje no verbal, como ya sabemos, se incluyen diferentes áreas. Tenemos gestos, posturas, movimientos del cuerpo y la cara, entre otros. Por lo tanto, vemos que hacer que un robot asemeje su lenguaje corporal al humano no es una tarea sencilla.

Los autores realizan una serie de cambios en el robot escogido para lograr su propósito.

Por un lado, tenemos la importancia de los movimientos corporales. Es necesario que éstos estén coordinados con las palabras de la máquina. Para ello, los autores adaptan la velocidad de los movimientos según la emoción que sería coherente transmitir con el discurso del robot.

Por ejemplo, si la emoción es entendida como positiva, los gestos se realizarán de forma más viva y dinámica que si es entendida como negativa o incluso neutral.

Los autores también modificaron los movimientos de cabeza del robot. Cuando una emoción neutral se muestra, el robot simplemente mira al frente. Si la emoción es positiva, levantará la cabeza; si es negativa, la inclinará hacia abajo.

Lo mismo ocurriría con la parte del torso, que se inclinaría hacia abajo en un contexto negativo, hacia arriba en uno positivo y se mantendría algo más recto en uno neutral.

Sabemos que también es muy importante la expresión facial. En el caso de los robots como el utilizado para el estudio, la expresión facial manipulable por los programadores se reduce a los ojos.

Los autores decidieron instalar unas luces LED en los ojos del robot y programarlas de diferentes maneras. La idea era que la intensidad del color fuese cambiando en función de la intensidad de la emoción que el robot quiere transmitir.

Por tanto, existía un color con dos intensidades diferentes para cada uno de los tres tipos de emociones. Las emociones negativas fueron asociadas al azul; gris para las emociones neutrales y amarillo para las emociones positivas.

La prosodia o paralenguaje también era un área que los autores debían explorar. Las personas modulan la entonación de sus voces según el contexto y también añaden o restan énfasis a sus discursos. Además, la entonación también se relaciona con el estado de ánimo del hablante.

Una limitación del robot, y por tanto también del estudio, es que no se puede variar la entonación de su voz. Sin embargo, sí podían programarse otros aspectos, como el volumen o la velocidad del habla.

Para comprobar si con los cambios realizados en el robot se obtenían los resultados deseados, los autores realizaron dos pruebas.

Primero, hicieron que el robot leyese una definición de Wikipedia, manipulando su funcionamiento para que su lenguaje corporal pasase por los tres tipos de emociones propuestos: negativas, neutrales y positivas.

Después, el robot leyó unos pasajes de un libro y los autores intentaron adecuar su lenguaje corporal a los sucesos de éste. Por ejemplo, si había escenas tristes, el robot mostraría emociones negativas; ocurriría lo mismo con las escenas felices y las emociones positivas.

Los autores consideraron sus experimentos todo un éxito, ya que con los ajustes configurados se entendía que el robot estaba transmitiendo sentir uno u otro tipo de emociones según su lenguaje corporal.

De esta forma, se facilita la creación de una personalidad aproximada para el robot, lo que también hace más sencillo establecer relaciones o vínculos con las personas.

Una limitación de esta investigación es que los autores consiguieron que el robot reaccionase con “emociones” pero únicamente al emitir discursos largos o al escuchar durante unos segundos lo que se le dice. Es decir, no reacciona con tanto éxito ante frases sutiles o cortas.

Los autores señalan que poco a poco irán perfeccionando las limitaciones que se encontraron. Además, comentan que es necesaria una evaluación en público y ante personas que no pertenecen al grupo de autores.

De esta forma, se sabría definitivamente si se ha conseguido que el robot transmita emociones con su comportamiento, tanto verbal como no verbal, de forma que sea más sencillo establecer relaciones sociales.

Además, también se buscaba emular el comportamiento humano, por lo que se puede considerar un objetivo conseguido si los resultados ante el público también son positivos.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Author

Write A Comment