Tag

emociones

Browsing

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “The effect of optimism on the facial expression of pain: Implications for pain communication” de Basten-Günther, J.; Kunz, M.; Peters, M. y Lautenbacher, S. (2021), en el que los autores realizan un experimento para saber si influye el optimismo en la expresión facial del dolor, y si es así, cómo lo hace. 

El optimismo se define normalmente como las expectativas positivas que podemos tener sobre el futuro. Se ha demostrado que tiene numerosos efectos positivos relacionados con la salud, por ejemplo, en el tratamiento de enfermedades como el cáncer o problemas cardiovasculares. 

También hay muchos estudios que exploran la idea de que el optimismo ayude con el padecimiento del dolor. Sin embargo, no hay resultados consistentes. Hay indicios de que el optimismo conduce a una menor catastrofización cuando se siente dolor, lo que, a su vez, puede reducir los informes de éste. 

Como, aparentemente, el optimismo reporta beneficios para la salud, se ha investigado cómo inducirlo. Una de las técnicas propuestas sería “El mejor yo posible” (BPS por sus siglas en inglés). Consiste en imaginar y escribir sobre un futuro en el que todo va bien para uno mismo. Hay varios estudios donde se demuestra que esta técnica tiene éxito. 

Sin embargo, uno de los aspectos que nos resultan más interesantes, al igual que a los autores, es estudiar las reacciones faciales durante el dolor y ver si varían, y cómo lo hacen, cuando el optimismo entra en juego. 

La idea de que el optimismo afecte a la expresión facial del dolor tiene que ver con que numerosos estudios han revelado que las reacciones faciales a este último pueden verse influenciadas por factores cognitivos y afectivos, como el miedo. 

También varían con el contexto social. Por ejemplo, la función socioevolutiva de la expresión facial de dolor es advertir a otra persona, pedir ayuda o compasión. Este dato puede relacionarse con el optimismo porque el optimismo se ha asociado con una mayor búsqueda de apoyo social. En consecuencia, la expresión facial del dolor podría verse influenciada por el optimismo. 

¿Cómo? Pueden darse dos efectos contrarios entre sí. El primero, es que la expresión facial de dolor podría verse debilitada tras la inducción del estado de optimismo, como consecuencia de una disminución de la experiencia del dolor. Por otro lado, dado que el optimismo también se asocia con una mayor confianza en el entorno social, haciendo que las personas manifiesten su debilidad y pidan ayuda, el optimismo podría conducir a una mayor expresividad facial del dolor. 

Por lo tanto, el objetivo de este estudio es decidir cuál de los dos efectos prevalece. 

Para ello, se reclutó a un total de 40 personas, todos ellos sanos y sin dolores. Se les pidió que no tomasen alcohol, analgésicos o cualquier psicotrópico que pudiese apaciguar una experiencia de dolor. Se les proporcionó una recompensa monetaria al final del experimento. 

Se dividió a las personas en dos grupos: a uno de ellos se les manipularía para sentir optimismo y el otro sería el grupo de control. 

Los participantes se sometieron a una estimulación térmica en el brazo, que les provocaría un nivel de dolor suficiente como para ser notado pero no excesivamente incómodo. Se registró su actividad facial, frecuencia cardíaca y además, se realizaron autoinformes. 

El grupo que fue sometido a una manipulación para la inducción del optimismo, realizó el ejercicio de la técnica BPS, donde escribían sobre su vida futura y todo les salía bien, tal y como ellos querían. El otro grupo debía escribir sobre un día típico en su vida. 

Los rostros de los participantes fueron grabados en vídeo durante la estimulación con calor. Para evitar los efectos de la deseabilidad social en las expresiones faciales, se les dijo a los participantes que el foco de interés principal era la medición de la frecuencia cardíaca. También se les indicó que no hablasen durante la estimulación con calor.

Las expresiones faciales se codificaron a partir de grabaciones de vídeo, utilizando el Sistema de Codificación de la Acción Facial (FACS) de Ekman y Friesen, que como ya sabemos, se basa en un análisis anatómico de los movimientos faciales y distingue una serie de unidades de acción producidas por los músculos del rostro. 

Los resultados obtenidos mostraron que el optimismo, efectivamente, afecta a la expresión facial del dolor. ¿Cómo? Soltando el freno que normalmente retiene esta expresión. Los autores encontraron que los cambios en las respuestas faciales al dolor dependen de la presencia de otras personas. Las respuestas faciales fueron significativamente más fuertes en presencia de personas con las que tenemos una relación íntima, como nuestra pareja, en comparación con las condiciones en las que los directores del experimento estuvieron presentes. 

El optimismo puede conducir así a una mayor apertura comunicativa a medida que las expectativas sobre el contexto social presente se vuelven más positivas. Al estar en un estado de optimismo, uno puede estar inclinado a esperar empatía y ayuda por parte de los demás, en lugar de rechazo, y por tanto, estaría más dispuesto a mostrar el propio dolor a través de respuestas faciales. 

Un hallazgo que vale la pena señalar es que el aumento en la expresión facial del dolor como consecuencia del optimismo inducido, se observó principalmente en dos unidades de acción: AU4 (ceño fruncido) y AU6 y 7 (ojos entrecerrados). 

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Assessing pain by facial expression: Facial expression as nexus” de Prkachin, K. M. (2010) en el que el autor realiza una revisión de cuáles son los movimientos que científicamente se han asociado con el dolor a lo largo de la investigación reciente.

En el estudio de las expresiones no verbales de las emociones existe un gran interés por identificar cuáles son los movimientos exactos que representan una emoción.

La realidad es que no hay una respuesta que sea completamente precisa, y hay muchos elementos a los que prestar atención para poder decir que inferimos la presencia de una u otra emoción, pero sí es cierto que a lo largo de los años recientes se han realizado investigaciones con validez científica en las que se observan una serie de movimientos que se repiten en la expresión de las emociones.

El autor del artículo, en concreto, quiere hacer una revisión de los movimientos faciales que se ha demostrado, están asociados con la emoción del dolor.

La evolución nos ha equipado con sistemas complejos para tratar las lesiones, muchas de las cuales dependen del comportamiento.

En el caso de los adultos, existe un lenguaje que nos permite hablar sobre los dolores, sus causas y las opciones para afrontarlos de la mejor forma. Si hablamos de bebés, serán los padres los que describan los comportamientos que éstos utilizan para inferir si su hijo siente dolor. Podemos afirmar, por tanto, que los comportamientos relacionados con el dolor son principalmente comunicativos.

Charles Darwin, a quien debemos las primeras investigaciones sobre las expresiones faciales de las emociones, mencionaba que con el dolor, la boca podía comprimirse, los labios se retraían, se apretaban los dientes y los ojos miraban horrorizados.

Sin embargo, la contribución de Darwin al estudio de la expresión del dolor, al igual que su contribución mucho más amplia sobre el estudio de las expresiones faciales, fue, en gran parte, olvidada durante muchos años.

Y aunque se perdió el interés por el estudio de las expresiones faciales emocionales durante unos años, hubo algunos expertos que relevaron a Darwin. Por ejemplo, Hollander estudió el dolor de forma experimental, colocando un rallador de metal bajo un manguito para medir la presión arterial e inflándolo, viendo cómo los sujetos hacían muecas al notar el dolor.

Por otro lado, Chapman y Jones también realizaron estudios experimentales sobre el dolor y anotaron que observaban una contracción de los párpados en la zona externa de los ojos, incluso cuando pedían a los sujetos que intentasen no hacer ningún movimiento.

En un trabajo posterior, también de Chapman, se sugirió que los pacientes neuróticos tenían una reacción de dolor con estímulos más suaves que el resto de sujetos.

Estos estudios muestran que casi todas las inferencias sobre el dolor surgen de las observaciones de la conducta, así que la investigación se centró en ellas y cómo medirlas.

Como el comportamiento que más se reconocía como una manifestación del dolor era la expresión facial, fue en la que los expertos se centraron. Ofreció, pues, una base para establecer reglas de medida algo más objetivas.

Entre los intentos para clasificar las expresiones faciales, el más influyente y utilizado por los expertos es el Sistema de Codificación de la Acción Facial (FACS) de Ekman y Friesen. En él, describen las expresiones faciales en 44 unidades de acción, que son cambios producidos por movimientos de músculos faciales. A partir de su creación, fue una forma de medir las expresiones faciales que cogió poco a poco fuerza entre los expertos, que la utilizaron para sus estudios.

LeResche utilizó el FACS para describir las expresiones faciales representadas en fotografías reales de personas que sufrían dolores extremos. Llegó a la conclusión de que había una expresión de dolor característica, que incluía el descenso de las cejas, la piel tensa alrededor de los ojos y una boca abierta, estirada horizontalmente, con una profundización del surco nasolabial.

Craig y Patrick, por otro lado y utilizando también el FACS, informaron de que también observaban, en el dolor, una elevación de los pómulos, apretón en los párpados, elevación del labio superior y tirones de las comisuras de los labios.

Al existir una coherencia relativa entre todas las investigaciones empíricas sobre las expresiones faciales asociadas al dolor, cogió fuerza la idea de que existía una expresión, posiblemente universal, para éste.

Observando el éxito que se obtuvo con el FACS, Grunau y Craig desarrollaron el Sistema de Codificación Facial Neonatal (NFCS), para niños recién nacidos. Estos sujetos poseen una piel y un sistema neuromuscular cuyas diferencias con los de los adultos hacen complicada la aplicación del FACS para ambos.

Con este sistema, se identificaron algunos elementos que se asociaban con el dolor en los bebés de corta edad, como el abultamiento de la frente, la contracción de los ojos, la profundización del surco nasolabial o la apertura de los labios.

Existen, por tanto, similitudes entre las acciones faciales asociadas con el dolor en adultos y en recién nacidos, por lo que se sugiere que hay una continuidad en la expresión de esta emoción desde que nacemos hasta la madurez.

Y como la mayoría de acciones asociadas al dolor necesitan de la participación del músculo corrugador, el orbicular de los ojos y el elevador, se sugiere que los investigadores interesados en evaluar la expresión del dolor pueden centrar su atención en esta zona del rostro, donde se concentrará la información clave.

Una limitación del FACS, es que se necesita una cantidad considerable de tiempo para entrenarse en él. Además, también se necesita un tiempo de observación de calidad.

Sin embargo, hasta ahora es una de las herramientas más útiles para estudiar, conocer e investigar sobre las expresiones faciales e identificarlas.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

 

Amigos del Club del Lenguaje No Verbal, esta semana presentamos el artículo “Expressing robot personality through talking body language”, de Zabala, U.; Rodríguez, I.; Martínez-Otzeta, J. M. y Lazkano, E. (2021), en el que los autores investigan si es posible que los robots sociales expresen emociones de forma correcta a través de su lenguaje corporal.

La robótica ha dejado de ser una invención de las películas de ciencia ficción para convertirse en una realidad que, cada día, se asienta más en nuestras vidas.

Esta semana vamos a hablar de los robots sociales. Este tipo de robots están pensados, por ejemplo, para ayudar a personas dependientes e incluso para acompañar a quienes están en situaciones de aislamiento.

Al ser robots pensados para interactuar con las personas, es muy importante que manejen los matices de la comunicación, y esto incluye tanto aspectos verbales como no verbales.

Además, deben ser capaces de expresar afecto, percibir las emociones humanas e incluso tener una cierta personalidad, de forma que puedan establecer vínculos sociales.

Es por ello por lo que los autores intentan mejorar este aspecto de la comunicación de los robots, realizando una serie de cambios en su programación y su mecánica, para coordinar con sus cuerpos lo que quieren decir o transmitir.

Dentro del lenguaje no verbal, como ya sabemos, se incluyen diferentes áreas. Tenemos gestos, posturas, movimientos del cuerpo y la cara, entre otros. Por lo tanto, vemos que hacer que un robot asemeje su lenguaje corporal al humano no es una tarea sencilla.

Los autores realizan una serie de cambios en el robot escogido para lograr su propósito.

Por un lado, tenemos la importancia de los movimientos corporales. Es necesario que éstos estén coordinados con las palabras de la máquina. Para ello, los autores adaptan la velocidad de los movimientos según la emoción que sería coherente transmitir con el discurso del robot.

Por ejemplo, si la emoción es entendida como positiva, los gestos se realizarán de forma más viva y dinámica que si es entendida como negativa o incluso neutral.

Los autores también modificaron los movimientos de cabeza del robot. Cuando una emoción neutral se muestra, el robot simplemente mira al frente. Si la emoción es positiva, levantará la cabeza; si es negativa, la inclinará hacia abajo.

Lo mismo ocurriría con la parte del torso, que se inclinaría hacia abajo en un contexto negativo, hacia arriba en uno positivo y se mantendría algo más recto en uno neutral.

Sabemos que también es muy importante la expresión facial. En el caso de los robots como el utilizado para el estudio, la expresión facial manipulable por los programadores se reduce a los ojos.

Los autores decidieron instalar unas luces LED en los ojos del robot y programarlas de diferentes maneras. La idea era que la intensidad del color fuese cambiando en función de la intensidad de la emoción que el robot quiere transmitir.

Por tanto, existía un color con dos intensidades diferentes para cada uno de los tres tipos de emociones. Las emociones negativas fueron asociadas al azul; gris para las emociones neutrales y amarillo para las emociones positivas.

La prosodia o paralenguaje también era un área que los autores debían explorar. Las personas modulan la entonación de sus voces según el contexto y también añaden o restan énfasis a sus discursos. Además, la entonación también se relaciona con el estado de ánimo del hablante.

Una limitación del robot, y por tanto también del estudio, es que no se puede variar la entonación de su voz. Sin embargo, sí podían programarse otros aspectos, como el volumen o la velocidad del habla.

Para comprobar si con los cambios realizados en el robot se obtenían los resultados deseados, los autores realizaron dos pruebas.

Primero, hicieron que el robot leyese una definición de Wikipedia, manipulando su funcionamiento para que su lenguaje corporal pasase por los tres tipos de emociones propuestos: negativas, neutrales y positivas.

Después, el robot leyó unos pasajes de un libro y los autores intentaron adecuar su lenguaje corporal a los sucesos de éste. Por ejemplo, si había escenas tristes, el robot mostraría emociones negativas; ocurriría lo mismo con las escenas felices y las emociones positivas.

Los autores consideraron sus experimentos todo un éxito, ya que con los ajustes configurados se entendía que el robot estaba transmitiendo sentir uno u otro tipo de emociones según su lenguaje corporal.

De esta forma, se facilita la creación de una personalidad aproximada para el robot, lo que también hace más sencillo establecer relaciones o vínculos con las personas.

Una limitación de esta investigación es que los autores consiguieron que el robot reaccionase con “emociones” pero únicamente al emitir discursos largos o al escuchar durante unos segundos lo que se le dice. Es decir, no reacciona con tanto éxito ante frases sutiles o cortas.

Los autores señalan que poco a poco irán perfeccionando las limitaciones que se encontraron. Además, comentan que es necesaria una evaluación en público y ante personas que no pertenecen al grupo de autores.

De esta forma, se sabría definitivamente si se ha conseguido que el robot transmita emociones con su comportamiento, tanto verbal como no verbal, de forma que sea más sencillo establecer relaciones sociales.

Además, también se buscaba emular el comportamiento humano, por lo que se puede considerar un objetivo conseguido si los resultados ante el público también son positivos.

Si quieres saber más sobre el comportamiento no verbal y cómo influye en con las relaciones interpersonales, visita nuestro Máster en Comportamiento No Verbal y Detección de la Mentira o nuestro Experto Universitario en Comunicación No Verbal y Personalidad, con becas especiales para los lectores del Club del Lenguaje no Verbal.

Club del Lenguaje No Verbal