Mostrando entradas con la etiqueta Emoción. Mostrar todas las entradas
Mostrando entradas con la etiqueta Emoción. Mostrar todas las entradas

miércoles, 11 de junio de 2025

Human-Robot Interaction y los posibles modelos emocionales

Uno de los temas que más llaman la atención cuando hablamos de interacción con las máquinas, y muy especialmente con los robots, es todo lo que tiene que ver con las emociones: la detección de las emociones humanas por parte del robot, la expresión de emociones por parte de ese mismo robot y, si queremos ir muy lejos (probablemente demasiado lejos), la posibilidad de que alguna vez el robot pueda experimentar sus propias emociones.

Se trata de un tema que además, personalmente me fascina, tanto en su vertiente técnica como en sus implicaciones éticas. 

Uniendo algunas lecturas (y docencias) recientes que tienen que ver tanto con la disciplina del human-robot interaction como con inteligencia artificial generativa y agentes conversacionales, he creído detectar una evolución, una posible evolución que intuyo, pero que tengo pendiente de confirmar, que supone un cierto cambio de paradigma en el tratamiento de las emociones por parte de los robots.

Un cambio de paradigma que, en el fondo, simplemente trasladaría al mundo de la robótica social un cambio que ya se está produciendo en chatbots o agentes conversacionales.

Vayamos paso a paso.


Human-Robot Interaction


La relación robots-personas (HRI, 'Human-Robot Interaction') es una disciplina que auna conocimientos procedentes del campo de la robótica y la inteligencia artificial, pero también de la psicología o la antropología, y que se ocupa del estudio de la interacción entre personas y robots y del diseño de los mejores robots y mecanismos de interacción.

Tiene en cuenta cosas como, por supuesto, el lenguaje verbal, pero también el no verbal, la proxémica, las convenciones sociales y... si, la detección y gestión de emociones, donde se solaparía con la así llamada computación afectiva ('affective computing').


Gestión de emociones


Podríamos decir que, a la hora de gestionar emociones por parte de un robot, se podrían distinguir como tres fases, o tres dinámicas, interrelacionadas pero distinguibles:

  • Detección de emociones en los humanos
  • Experimentación de las propias emociones por parte del robot
  • Expresión de emociones por parte del robot

De las tres anteriores, la segunda, experimentación de emociones por el propio robot, hoy en día es una pura fantasía, así que no nos detendremos más en ella.

Sí que son relevantes, y con importantes resultados tangibles, las otras dos: la detección de las emociones humanas por parte del robot y la expresión de unas emociones propias del robot (aunque se trate de emociones impostadas, no sentidas).


Modelado de emociones


Ya desde hace décadas, y de manera con frecuencia independiente al tratamiento mediante máquinas, en el campo de la psicología se han venido analizando e intentando modelar las emociones.

Uno de los primeros y más populares resultados fueron los hallazgos de Paul Ekman quien identificó las conocidas seis emociones básicas (alegría, ira, miedo, asco, sorpresa, tristeza) que eran reconocibles a partir de la expresión y que trascendían las culturas.


Expresiones faciales correspondientes a las seis emociones básicas

Posteriormente, Ekman amplió su catálogo a quince. Se trata de unos hallazgos no siempre bien interpretados o utilizados pero que, a efecto de HRI, me interesa destacar que permite la identificación de emociones a partir de expresiones faciales y que el resultado es una categoría de entre un número finito disponible de emociones.

El propio Ekman propuso posteriormente otro modelo en que, más que recoger expresiones faciales completas, se centraba en diversos detalles. Definía el Facial Action Coding System (FACS) donde se identificaban las AU ('Action Units') en número de varias decenas.


FACS

Estas action units se pueden reconocer visualmente o, en laboratorio, mediante medida de actividad muscular. Aunque no conducen de forma inmediata a una categorización de emoción, existen guías complementarias que sí lo hacen

En ambos casos, al final podemos llegar a una emoción como una etiqueta, de entre un conjunto finito de ellas, que caracteriza el estado emocional del ser humano.

Existen otros modelos que, trabajan es espacios continuos, bidimensionales (como el modelo circunflejo de Russell) o tridimensionales, y donde algunas de las variables de ese espacio suelen ser la denominada excitación ('arousal') que, de alguna forma, mide la intensidad de la emoción, y la valencia ('valence') que indica si se trata de una emoción más positiva o más negativa. 


Modelo circunflejo de Russell

Otros modelos, en este caso tridimensionales, como PAD, usado por el mítico robot Kismet, añade una dimensión de dominancia.

Aunque en estos modelos de emociones existe una continuidad, y no unas categorías cerradas, tampoco nos alejamos demasiado de esa visión de emociones como un catálogo de posibilidades, como se puede ver en la propia figura. De alguna manera, regiones de ese espacio de estado se corresponden con una emoción


Detección de emociones


Los robots detectan las emociones humanas tomando, en primer lugar, alguna forma de medida de su manifestación externa en los humanos, mediante sensores. Los dos más comunes, y probablemente al mismo tiempo los más potentes y ricos en información, son las cámaras (que permiten captar, fundamentalmente la expresión del rostro humano, pero también sus gestos y otros elementos de lenguaje no verbal) y los micrófonos que captan la voz incluyendo los elementos prosódicos como intensidad, acento, etc.

Sólo con esos dos tipos de sensores, tan familiares en todo tipo de aplicaciones, los robots obtienen casi toda la información que necesitan. Existen otros sensores, más especializados, pero ahora no profundizaré en ellos.

El caso es que, mediante los sensores, los robots tienen la información primaria sobre las emociones expresadas por el humano.

Desde ahí, la conclusión de la emoción subyacente y si nos basamos en un catálogo de emociones como el propuesto en su momento por Ekman,  se puede reducir a un problema de clasificación, tan común en el machine learning y deep learning.

Si utilizamos un espacio de estados, parece que hay un primer paso de regresión, para situar el estado emocional del humano en las características de ese espacio de estados, y luego, si queremos 'darle nombre' a la emoción, un problema de clasificación adicional casi trivial (que no precisa siquiera de inteligencia artificial) para asignar la emoción subyacente según la región en que nos encontremos.


Chatbots basados en reglas


Establecidas esas fases, paso ahora a comentar la evolución de los chatbots. Los chatbots de los que hemos dispuesto hasta hace poco, antes de la explosión de los modelos generativos, se han venido construyendo en general implementando un modelo de conversación que ya explicaba en mi libro 'Robots en la sombra' y que se muestra en la figura:


Modelo de conversación

En ese modelo, las intenciones ('intents') son una forma de categorización de lo que el usuario puede pedir al chatbot (reserva de cita, compra de un billete de avión, conocimiento sobre un producto, etc). Eso sí, como trabajamos en lenguaje natural esas intenciones se pueden manifestar verbalmente con expresiones ('utterances') diferentes e incluso muy diferentes. Asociada a cada interacción el humano suele añadir información en forma de parámetros o entidades como ciudades, personajes etc.

La labor donde interviene la inteligencia artificial en ese tipo de chatbot es, en primer lugar, en la conversión voz-texto (en caso de que interactuemos de viva voz) y, sobre todo, en la detección de la intención y la extracción e entidades a partir de la expresión del usuario. Este último problema, la detección de la intención, se trataría claramente de un problema de clasificación.

A partir de ahí, el resto de cosas (consulta o interacción con servicios o sistemas externos) e incluso emisión de la respuesta, sucede sin usar la inteligencia artificial y procede de configuraciones o desarrollos realizados por el desarrollador del chatbot. Sólo se añade inteligencia artificial en la eventual conversión texto-voz para contestar al usuario de viva voz.

Este tipo de chatbots hoy en día tienden a denominarse como 'basados en reglas' porque, en efecto, es el desarrollador el que establece, para una intención dada, qué sistemas o servicios deben consultarse o invocarse y qué respuesta corresponde a esa intención.


Comportamiento emocional de robots basado en reglas


Aunque confieso que me falta información técnica de detalle, y aunque puede variar de modelo de robot a modelo de robot, intuyo que los robots sociales que manejan emociones funcionan de una manera parecida a como lo hacen estos chabots.

Es decir, a partir de la información de los sensores (pensemos por ejemplo la cámara), detectan la emoción subyacente en el humano mediante la aplicación de un algoritmo de clasificación. A partir de ahí, se desencadena la respuesta del robot: qué información debe consultar, qué emoción debe expresar el propio robot (en caso de que tenga capacidad para ello) y qué debe contestar al humano.

Y sospecho que todo lo que tiene que ver con los pasos posteriores a la detección de la emoción, está fundamentalmente basado en algún tipo de reglas no muy diferentes a las que emplean los chatbots.


Chatbots basados en modelos generativos


Volvamos a los chatbots, pero para ver cómo cambia la cosa con los modelos generativos.

Cuando usamos un chatbt basado en un modelo generativo, un modelo fundacional o un gran modelo de lenguaje, la cosa funciona de manera muy diferente: no existe un distinción tan nítida entre la entrada y saluda, y no se clasifican los deseos del usuario en intenciones, sino que se trata su entrada (su 'prompt') en su conjunto, sin clasificar y, sobre todo, el propio modelo genera la respuesta, que no se basa en ningún tipo de regla aunque sí se puede realizar un cierto condicionamiento.

Las dos cosas más relevantes que cambian son, pues, que es que el modelo, la inteligencia artificial, funciona extremo a  extremo, en entrada, salida y procesamiento. Y, además, que no existe clasificación en intenciones.


Computación afectiva basada en modelos generativos. Los modelos emocionales


Visto lo anterior, y dada la posibilidad cierta (de hecho, seguro que ya se está haciendo) de que los nuevos robots se apoyen en sus aspectos verbales en modelos de lenguaje generativos, parece más que probable (aunque no tengo noticias de ello, apostaría a que ya alguna empresa o laboratorio está en ello) que en los aspectos de la computación afectiva se utilicen también este tipo de modelos.

Si eso fuese así, parece que perderían sentido la clasificación de emociones en categorías cerradas (igual que en los chatbots pierde sentido categorizar las intenciones) y, no sólo eso, lo más importante es que la respuesta del robot, incluyendo sus aspectos emocionales, se crearían por el propio modelo (no por unas reglas).

Aunque entiendo que esos es técnicamente viable desde ya mismo, calculo que se debe realizar un entrenamiento, (un más que probable 'fine-tunning') para conseguir un buen funcionamiento de estos 'modelos emocionales'.

Como digo, no puedo afirmar taxativamente que esto que indico este sucediendo, pero tengo una casi completa seguridad de que sí, y de que, probablemente,  veremos cosas en este sentido a no mucho tardar, quizá ligado al campo emergente de la así llamada 'embodied AI'.


Conclusiones


La llegada de los modelos generativos y su eventual inclusión en robots sociales, puede cambiar el paradigma de cómo se gestionan las emociones humanas en los robots, pasando de un modelo más basado en reglas, a un modelo extremo a extremo, sin clasificación de emociones y apoyado en lo que podríamos denominar un 'gran modelo emocional'.


viernes, 20 de diciembre de 2024

Computación afectiva y voz: detección de estados anímicos en la cara y en la voz

Un campo de la computación, y muy especialmente de la que tiene que ver con la inteligencia artificial, que recibe gran interés, aunque al tiempo resulta polémico o desafiante desde el punto de vista ético y regulatorio, es la detección de emociones por las máquinas, por algoritmos y robots.


Computación afectiva


Aunque últimamente quizá no se utilice mucho este nombre, existe un subconjunto de la inteligencia artificial denominado computación afectiva ('affective computing') que se concentra en ello, una disciplina a la que hace un tiempo dediqué bastante espació en este blog a propósito de la lectura del libro 'The Oxford handbook for affective computing' y una disciplina que su creadora, Rosalind Pickard definía como 


computing that relates to, arises from, and deliberately influences emotion.


una definición compacta y clara y no exenta de ambición e incluso polémica puesto que declara la intención, no sólo de detectar emociones sino de, deliberadamente, influir en ellas.


Modelos de emociones. 


Una de las tareas de la computación afectiva es, claro, detectar las emociones de los humanos. Y el resultado de esa detección podría ser, simplemente, una etiqueta que clasifique la emoción. En esa labor es frecuente acudir al campo de la psicología para que nos defina y clasifique de alguna manera las emociones humanas.

Un muy famoso, aunque no completamente aceptado, modelo de emociones es el de las seis emociones básicas definidas por Paul Ekman, que identificaba seis emociones que, además, se daban en todas las culturas: alegría, ira, miedo, asco, sorpresa, tristeza.


Las seis emociones fundamentales de Ekman

Hay que decir que este modelo ha sido discutido y que el propio Ekman amplió este modelo para llegar hasta las quince emociones, en lugar de 6.


Detección visual de emociones 


No es del todo difícil imaginar cómo trabajar en la detección visual de emociones. Más o menos, la idea podría ser: partimos de un sensor (típicamente una webcam) que captura la imagen y se le da como entrada a un algoritmo (típicamente una red neuronal, probablemente con unas primeras capas de convolución para 'entender la imagen' y otras capas densas finales para realizar la clasificación con una función de actividad final de tipo softmax). A este algoritmo, evidentemente se le ha entrenado previamente, seguramente mediante aprendizaje supervisado, para que aprenda a hacer la clasificación.

El mismo Ekman planteó también otra forma de trabajar, no pensando en machine learning, pero sí orientada a la detección visual de las emociones, mediante el desarrollo de FACS ('Facial Action Coding System') en que se definen una serie de unidades de acción ('action units') que eran como elementos de la expresión facial anatómicamente observables y que luego se relacionan con emociones.


FACS y action units

Lo que no cabe duda es de que, con mayor o menor acierto, es viable la detección de emociones humanas mediante la expresión facial


Análisis de sentimiento


Pero hay otros mecanismos. Es muy conocido en el campo de la inteligencia artificial el denominado análisis de sentimiento ('sentiment analysis'), que trabaja con un texto (texto que lo puede haber tecleado un usuario, que puede proceder de un tuit, un correo electrónico, una noticia, un documento, o que puede provenir de la conversión a texto de lo dicho vocalmente por una persona) y se le asigna una etiqueta que representa la actitud del emisor/emisora de ese texto hacia lo que allí expresa.

Es una tarea propia del procesamiento de lenguaje natural y que da buenos resultados en el estado actual de la tecnología.


Detección acústica de emociones


Pero lo que, en el fondo, me ha animado a escribir este post es otra forma de detectar emociones humanas, en este caso, con base en la voz y las propiedades físicas del sonido emitido por el humano.

Se trata de una forma de trabajo que me encuentro descrito en el libro 'The Oxford Handbook of Computational Linguistics' editado por Ruslan Mitkov y, en concreto, en el capítulo 'Text-to.Speech synthesis' de Thierry Dutoit y Yannis Stylianou.

En este caso, se trabaja con el propio sonido, con la onda del sonido, no con el texto que se expresa, enlazando un poco, aunque creo que no exactamente, con la idea de la prosodia.

Se trata de la exposición de un trabajo ya antiguo, realizado por la propia Rosalind Pickard de la que hablábamos más arriba, y que relaciona las propiedades del sonido de la voz con las seis emociones de Ekman, que mencionábamos antes.

En la tabla se pueden observar esas correspondencias.



Como se puede ver en esa tabla, Pickard se fijaba en cuatro propiedades:

  • La velocidad del hablante, es decir la tasa a la que va emitiendo elementos léxicos

  • El tono ('pitch') es decir, si es más agudo o más grave, (medido a partir de la frecuencia fundamental del sonido de la voz) y del cual evalúa tanto su valor medio como el rango de tonos empleados.

  • La intensidad de la voz 


Aunque parece un estudio algo preliminar y no del todo operativo, da buenas pistas de cómo las propiedades físicas de la voz correlan con las emociones y estados anímicos.


Combinaciones


No me resulta difícil imaginar que un mecanismo avanzado de detección de emociones, como podría incluir un robot social avanzado, probablemente reuniría percepción multisensorial y ejecutaría un análisis multimodal que combinaría los elementos visuales, textuales, acústicos e incluso alguno más, para proporcionar un mecanismo de detección de emociones altamente sofisticado y efectivo.


Conclusiones


Por si alguien lo duda a estas alturas, las máquinas, combinando sensores y procesamiento mediante inteligencia artificial, están bien preparadas para detectar emociones en los humanos, unas emociones que pueden detectar, al menos, mediante la imagen facial, el texto expresado por la persona y, además, por el propio sonido de la voz.

lunes, 19 de junio de 2023

Emoción artificial

Un campo apasionante, a la vez que intimidante, en lo relativo a la inteligencia artificial y la robótica cognitiva, es todo lo que tiene que ver con la gestión de las emociones.

La gestión de las emociones por entes artificiales


Me refiero a la detección de emociones en humanos, a la reacción inteligente de un agente artificial inteligente (digamos un algoritmo, un agente conversacional o un robot social) ante esas emociones humanas, y a la simulación de sus propias emociones por parte de ese agente artificial inteligente.

Ya he hablado en este mismo blog sobre el tema y me he referido, por ejemplo, al campo del 'Affective computing' un término, creo, un poco en desuso hoy día, aunque, a despecho de lo que pueda suceder con el término, lo que hay detrás, la disciplina en si, está vivo, muy vivo, y creo que lo estará aún más en el futuro.

Recientemente me estoy tropezando con el término 'Emotion AI', que quiero investigar y que calculo que se refiere poco mas o menos a lo mismo.

Más allá del contenido, que es lo más interesante, en este post voy solamente a especular un poco sobre la propia definición del campo. Y lo hago inspirado por la lectura del libro 'Alone Together: Why We Expect More from Technology and Less from Each Other' de Sherry Turkle, un libro casi clásico entre quienes se interesan por la robótica social, por la relación robots-personas y, en general, por la interacción social de los humanos con la tecnología.

Se trata de un libro no del todo reciente (data de 2017, lo cual en otros campos seria bastante actual, pero en el que nos ocupa, puede notar el paso del tiempo) pero aún relevante.


La definición primigenia de inteligencia artificial


Turkle hace un paralelismo, que, en el fondo, es lo que me ha llamado la atención, con la explicación, no sé si definición, que los asistentes a la famosa conferencia de Darmouth dieron para explicar la recién creada y bautizada disciplina de la inteligencia artificial.

Decían que lo que pretendían era conseguir que las máquinas se comportasen de tal manera que la consideráramos inteligente si un humano se comportase de esa misma manera.

Una visión externa de la inteligencia (artificial), orientada a los resultados y manifestaciones y no tanto a una esencia, probablemente más difícil de definir.

Una orientación que, de alguna manera, enlaza con el famoso test de Turing que también juzga la inteligencia por su manifestación externa en un enfoque que podríamos calificar casi como fenomenológico.


Una definición de emoción artificial


Con esa inspiración Sherry Turkle propone, de una forma que considero ingeniosa, una definición paralela de lo que sería la emoción artificial. Así, nos dice


We are coming to a parallel definition of artificial emotion as the art of "getting machines to express things that would be considered feelings if expressed by people".


En esta especie de definición, nos olvidamos (aunque en el fondo queda implícito) de la detección de las emociones humanas por parte del agente artificial inteligente y nos concentramos más en su expresión de emociones y, como hacían los científicos de Darmouth, consideremos que una máquina es emocional si es capaz de expresar cosas que consideraríamos sentimientos si las expresase un humano.


Alguna implicación filosófica


Es muy importante, de cara a consideraciones éticas e incluso legales, el notar que adoptamos una visión externa. Es decir, no afirmamos que el agente artificial inteligente, 'sienta' realmente nada, que tenga realmente ninguna emoción: sólo que se comporta de una forma que consideraríamos emocional (sentimiento) si un humano hiciese lo  mismo

En una visión filosófica profunda eso nos podría llevar a debates sobre si realmente eso es una emoción o no, o incluso si podemos realmente llegar a saber si realmente ese agente siente algo o no (en el fondo, la misma cuestión aplica a los seres humanos).

Pero más allá de esa quizá irresoluble cuestión, el hecho de que consideremos a un agente como 'sintiente' puede ser suficiente para adjudicarle 'paciencia moral' y por tanto, deducir que puede tener unos derechos.

Por otro lado, desde un punto de vista ético, también nos podemos cuestionar si se produce engaño cuando un agente artificial expresa emociones o si hay riesgos fundamentalmente de tipo afectivo o moral de cara a humanos que interactúen, quizá inadvertidamente, con esos agentes 'emocionales'. 


Conclusión


El campo de la gestión de emociones por parte de agentes artificiales es técnicamente viable, al menos hasta un cierto nivel, y lo que cabe preguntarse ahora es hasta donde lo queremos llevar y qué implicaciones filosóficas, éticas y legales trae consigo.


miércoles, 4 de noviembre de 2020

Robótica social: la clave está en la emoción

Cada vez estamos más acostumbrados a interactuar con robots. Bien es cierto que la mayor parte de esos robots son robots software (típicamente chatbots o asistentes virtuales) a veces con una muy ligera y poco humana 'corporeidad', como es el caso de los altavoces inteligentes.

También empiezan a ser comunes algunos robots de servicio ('service robots') como los típicos aspiradores Roomba que todavía presentan mucho más el aspecto habitual de una máquina que de otra cosa.

Pero, aunque en ámbitos todavía reducidos y aún sin excesivo impacto en el mercado, comienzan a proliferar cada vez más robots de aspecto humanoide, robots pensados para interactuar con humanos en entornos no específicamente profesionales. Hablamos de los denominados robots sociales que se pueden utilizar desde situaciones como eventos profesionales o recepciones de hoteles, hasta ámbitos más delicados como la educación o la asistencia a ancianos o personas vulnerables. 

En este tipo de robots el diseño y gestión de la interacción con las personas es fundamental y por eso existe toda una serie multidisciplinar de estudios que caen bajo paraguas de términos como 'Human-Robot Interaction' o 'Affective Computing' que estudian los aspectos no sólo técnicos sino también psicológicos e incluso éticos de esos mecanismos de relación, algo que ya es relevante también en soluciones mucho más implantadas como los mencionados chatbots, voicebots y altavoces inteligentes. Un campo de estudio realmente fascinante en su multidisciplinariedad.

Intentando profundizar en la materia, he terminado la lectura hace unas semanas del libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte, Y en él me encuentro dos afirmaciones interesantes que quisiera compartir. 

Para empezar:


people can more easily relate to a robot when they are able to connect with it on a personal level.


A las personas nos gusta tratar a los robots en un nivel personal. Probablemente esto derive de nuestra tendencia a antropomorfizar nuestro entorno: animales, cosas... y robots. Un fenómeno que ya hemos mencionado repetidamente en este blog. Ese fenómeno se acentúa si a eso añadimos que ciertos tipos de robots presentan aspectos humanoides lo que invita aún más a tratarlos de forma similar a humanos.

Y, dado que en las relaciones humanas las emociones juegan un papel fundamental, no es de extrañar que, en una relación con robots que adoptan tintes antropomórficos, esas emociones jueguen también un papel central.

Tanto es así que en la obra citada nos encontramos con esta segunda afirmación:


The ultimate goal of Social robotics is to communicate and interact with humans on an emotional level.


O sea, no es sólo que en los robots sociales la comunicación emocional sea importante, es que realmente es la clave e incluso su objetivo. 

Quizá, cuando pensemos en entornos menos delicados (como los mencionados eventos profesionales) la emoción, aunque importante, pudiera ser menos relevante. Pero si en lugar de eso pensamos en el uso de robots sociales en educación, en asistencia a colectivos vulnerables o cuidado de personas mayores, entonces la gestión de la emoción se torna un tema capital, clave y tremendamente interesante sin duda desde un punto de vista científico y técnico pero, sobre todo, profundamente delicado desde un punto de vista ético y humano.


miércoles, 17 de mayo de 2017

Affective computing: las emociones impostadas



Los sentimientos, puede que la última frontera para que la inteligencia artificial se pueda considerar humana.

Y si embargo, incluso en ese campo ya hay avances. 

Siguiendo un poco la filosofía del ya casi venerable test de Turing, una disciplina de la computación, la computación afectiva (affective computing) intenta, al menos, conseguir comportamientos externos que reconozcan y simulen emociones y afectividad.

Así nos lo descubre Jerry Kaplan en su libro 'Artificial Intelligence. What everyone needs to know' quien nos dice: 

Regardless of wether machines can actually have feelings, it's certainly possible to create devices that convincingly express emotions. An entire subfield of computer science -affective computing- aims to both recognise and generate human affects.


No nos confundamos. Se trata de una afectividad impostada, que simula unas emociones. No podemos afirmar que una máquina realmente sienta. En realidad, hasta nos resultaría complicado explicar qué es realmente sentir para un humano.

Pero dado que, incluso en nuestra relación con otros humanos, lo que percibimos en sólo la manifestación externa de la emoción, incapaces de conocer sólo la naturaleza íntima de las propias vivencias, una máquina que fuese maestra en impostar afectividad, en demostrar externamente emociones, hasta qué punto no nos sería creíble, amable y casi, casi humana? 

Cada vez más nos acercamos a fronteras...

¿Qué habrá más allá?

martes, 1 de septiembre de 2015

#macrotweet: pasión y autenticidad

You don't necessarilly have to reveal your personal secrets to be authentic; you have to reveal your passion.

Nick Morgan
'Power cues'

miércoles, 26 de agosto de 2015

Posición y poder versus emoción



En el artículo anterior vimos que una de las cuatro señales honestas del éxito de un discurso era la influencia.

Siguiendo el discurso de Nick Morgan en su libro 'Power cues' vemos que esa influencia tiene dos caras: el poder posicional y la emoción. El primero tiene que ver más con el concepto tradicional de poder, con la autoridad, con una cierta 'superioridad' de aquel que lo ostenta. La emoción, ya lo sabemos, tiene que ver con la pasión, con la capacidad de transmitir y generar sentimientos.

Es evidente que lo bueno es dominar ambos pero... ¿y si carecemos de poder posicional? ¿Y si sólo contamos con nuestra emoción, nuestra pasión y nos tenemos que enfrentar a alguien con poder posicional?

Pues, según Nick Morgan, existen posibilidades ciertas de una 'victoria' o al menos de contrarrestar el poder posicional. Esto nos dice:

The second aspect of influence is emotion, and using it is one way to counteract positional power and generally to dominate a conversation.

Y luego remata:

when the other side has the power and you have the emotion, something closer to parity is possible.

Es decir, que la emoción puede contrarrestar el poder posicional e incluso llevar a dominar una conversación.
 
No creo que esto justifique el no buscar la autoridad y poder posicional (que no sólo es poder formal, que también es autoridad moral o de conocimiento, por ejemplo) pero sí nos muestra la importancia para el liderazgo de 'gestionar' nuestra propia pasión y las emociones que generamos en los demás.

A estas alturas ya no nos sorprende ¿verdad?

miércoles, 19 de agosto de 2015

Emoción y toma de decisiones

Tendemos a pensar que el proceso de toma de decisiones, al menos en el entorno profesional, es un proceso netamente racional ¿verdad? 

Realizamos análisis de impacto, análisis de coste-beneficio, censos de pros y contras, quizá aplicamos baremos de valoración por criterios ponderados por un peso...

En efecto, creo que en las decisiones interviene, o debiera intervenir, un componente claramente racional. Los análisis, en su justa medida, creo son herramientas útiles e incluso necesarias para adoptar buenas decisiones.

Sin embargo, no nos confiemos. Somos seres racionales si, pero también emocionales y en muchas ocasiones la emoción pesa mucho más de lo que pensamos o quisiéramos pensar.

Ese peso de lo emocional puede hacernos perder parcialmente el control del proceso, pero también la emoción tiene sus ventajas porque constituye una ayuda a la decisión, algo que nos facilita adoptar una postura o curso de acción en un espacio de tiempo breve.

Esta es, mas o menos, la idea que nos transmite Nick Morgan en su libro 'Power cues' cuando afirma:

At its heart, decision making involves emotions, because emotions give us the ability to weigh the relative importance of all the factors involved

Por tanto, probablemente no sea negativa la existencia de la emoción en el proceso de decisión, siempre que seamos conscientes de ella, siempre que eso no constituya una barrera para la realización de los análisis precisos y siempre que hagamos participar tambien de forma preponderante a nuestro yo consciente.

miércoles, 5 de agosto de 2015

El carisma y la gestión de las emociones

Gran parte de las características y habilidades humanas, tienen un carácter innato o adquirido en edades tempranas, pero también en gran medida son aprendibles, desarrollables y gestionables.

El liderazgo no es una excepción y el carisma que tanto asociamos a ese liderazgo, tampoco. El carisma, aunque parezca mentira, se puede trabajar y desarrollar.

Nick Morgan, en su libro 'Power cues' nos indica cómo:

Most of us are not charismatic most of the time because we don't manage and focus our emotions.

Gestionar y enfocar nuestras emociones.

No parece fácil pero desde luego es posible. Existen técnicas (veremos algunas) que acompañadas de práctica, mucho autoconocimiento, mucho autocontrol y el deseo de utilizarlas honestamente y con autenticidad, pueden desarrollar ese carisma.

Vale la pena el intento.

lunes, 3 de marzo de 2014

Diseño e implicación emocional

La pasión es importante para conseguir resultados.

La pasión, o al menos la implicación, es una forma de motivación y de volcado de esas energías en la actividad objeto de la misma.

Parece existir también la relación contraria, es decir, algo a lo que hemos dedicado un gran esfuerzo pasa a ser algo más que el mero resultado de un trabajo para convertirse en algo nuestro, casi en una parte de nosotros, algo con lo que nos sentimos implicados.

Algo así es lo que detecta Nigel Cross cuando en su libro 'Design Thinking' analiza el comportamiento de los grandes diseñadores. Esto es lo que nos dice:  

It is quite normal for designers to become emotionally involved with their ideas; their design concepts are not merely abstract ideas, but personal insights that emerge as a result of some considerable cognitive effort.

Dado que las ideas que vuelcan en sus diseños son fruto de un trabajo cognitivo intenso, los diseñadores se sienten emocionalmente implicados con ellas y, como decíamos, dejan de ser un frío producto o resultado del trabajo para convertirse en algo propio.

En principio no parece malo. Ese flujo bidireccional esfuerzo-emoción constituye de alguna forma un círculo virtuoso que se refuerza e impulsa al esfuerzo y a la creatividad. 

Hay que hacer alguna consideración especial, no obstante, cuando esa implicación se produce en el seno de un trabajo en equipo, especialmente un trabajo en equipo de tipo creativo y, por tanto, algo desestructurado. 

Nigel Cross parece considerar que se debe permitir esa implicación emocional también en el caso del trabajo en equipo dado su carácter motivador y catalizador, que constituye casi una condición sine-qua-non del diseño y, en esa línea, nos dice:

This emotional commitment has to be recognised and allowed for in teamwork; creative design is unlikely to happen without it.


Sin embargo, la implicación emocional, que tan energética resulta, puede constituir también una barrera para el trabajo creativo en equipo puesto que puede hacer que los miembros del mismo se aferren a sus propias ideas sin permitir la enmienda y sin dar una oportunidad a las aportaciones ajenas. 

Ese peligro debe ser reconocido y gestionado, tanto por la propia persona como por sus compañeros y, quizá con especial énfasis, por el líder del equipo. 

Como toda energía, la emoción debe ser gestionada.

lunes, 7 de mayo de 2012

Fe y emoción como atributos del liderazgo. Una inspiración de Benjamin Zander

La concepción actual del liderazgo incluye cada vez más los aspectos emocionales y de relación, dejando en un segundo plano la autoridad formal, el conocimiento o la imposición.

No descubro probablemente con ello nada nuevo, pero sí traigo a esta artículo una forma realmente brillante e inspiradora de explicarlo, al menos algún aspecto específico del liderazgo.

Y la fuente no es otra que una charla TED, impartida por Benjamin Zander en 2008.  Benjamin Zander es músico, actualmente director de la Boston Philarmonic Orchestra, pero también un conocido escritor y conferenciante sobre liderazgo.

A lo largo de la charla, que toca muchos puntos, y no específicamente sobre liderazgo hay, sin embargo, dos citas muy relevantes...y muy hermosas sobre la cuestión.

La primera nos habla sobre la fe del líder en su equipo. Dice así

"One of the characteristics of a leader is that he does not doubt for one moment the capacity of the people he is leading to realize whatever he is dreaming."

La segunda frase, muy al final de la charla, nos habla de una forma muy concisa y hermosa, de emoción, de motivación y de fe del equipo en el líder. Dice más o menos así:

"Look at their eyes. If their eyes are shining you are doing your job."

El brillo en los ojos es una forma bella y metafórica de expresar la fe y la confianza que el equipo tiene en el líder, y la inspiración y la emoción que éste transmite a su equipo.

Observamos, pues, una fe bidireccional entre líder y equipo y también una conexión emocional y una corriente de inspiración. ¿No es esa la esencia del liderazgo?

Dejo como regalo para el lector el vídeo de la charla completa. No es esencialmente una charla sobre liderazgo...pero es interesante, es original, es emocionante, es brillante. Lo que he dicho: un regalo. Un auténtico regalo.


miércoles, 18 de agosto de 2010

La emoción en entredicho

Cada vez más, las últimas tendencias en marketing nos insisten en las emociones, en crear relaciones emocionales entre empresa y cliente, en conseguir experiencias memorables para estos últimos, en fidelizar a través de la emoción.

Parece no sólo interesante y probablemente correcto sino, incluso, más humano. El marketing emocional parece transmitir valores positivos, que nos cautivan no ya desde un punto de vista profesional o corporativo, sino también desde la perspectiva personal.

Sin embargo, una frase del libro 'Freakonomics' de Steven D. Levitt y Stephen J. Dubner, nos pone en guardia. Hablando de los expertos y de la audacia con que deben exponer sus teorías, nos dicen:

"Su mejor baza ... es captar las emociones del público, porque la emoción es el enemigo del pensamiento racional."

Con independencia de su valor objetivo, esta frase desenmascara una cierta forma de hacer marketing, incluido o especialmente, el marketing que trabaja con las emociones.

Si no se trata de crear experiencias memorables sino de evitar el pensamiento racional, si no se trata de ver a la persona como un todo sino sólo llegar a lo emocional, si no se trata de seducir sino de engañar, este marketing emocional puede ser efectivo, seguramente lo es, pero tal vez no sea tan honesto ni tan humano como pensábamos o queríamos pensar.

lunes, 19 de julio de 2010

Marketing: emoción y contexto

En la parte más 'marketiniana' de su libro 'Generación Einstein', Jeroen Boschma nos habla de la importancia del contexto, el uso y el impacto emocional de los productos, especialmente los tecnológicos, y cómo esta faceta tanto emocional como contextual tiende a ser olvidada o minusvalorada.

Nos lo ejemplifica con el caso de los videojuegos. Así, sostiene que si un joven de esta generación está en el sofá frente al televisor, la emoción predominante será la de compartir el tiempo con los amigos, divertirse juntos, y preferirán el videojuego sobre el soporte de una videoconsola tipo PlayStation y con un juego rico en imágenes y acción. Por el contrario, para otro contexto, como es la distracción durante un trayecto en autobús, puede preferir un juego sobre un teléfono móvil. En este caso la emoción tiene que ver con vencer el aburrimiento y el contexto llevará a preferir juegos sencillos, cortos y simples.

Sin embargo, y como afirma Boschma,

"Lo que de verdad sorprende es que los especialistas en comunicación sigan pensando desde las posibilidades técnicas del aparato y no tengan en cuenta el contexto emocional."

Tiendo a pensar que, ahora que la novedad tecnológica es menos impactante, ahora que las nuevas tecnologías ya no lo son tanto, ahora que esta nueva generación ya no se sorprende de los avances técnicos, de forma natural se están volviendo los ojos a la emoción, la utilidad y el contexto pero, probablemente, aún quede camino por recorrer y sentido común por aplicar...