viernes, 27 de junio de 2025

Desmontando mitos sobre el emprendimiento con Carlos Molina del Río

'Las cinco mentiras de Silicon Valley' es un libro sobre emprendimiento, un libro que, aunque se apoya en conocimientos sólidos, es fundamentalmente experiencial, nacido de lo aprendido en las dos startups en que el autor ha participado, una fracasada y otra exitosa. Y con ese bagaje, revisa cinco mitos, cinco mentiras existentes sobre el emprendimiento y las startups y los cuestiona y reformula bajo la luz de esa experiencia y los aprendizajes obtenidos.

En su desarrollo, el autor acude, como digo, sobre todo a su propia experiencia, pero también aporta algún concepto teórico y sobre todos casos de empresas conocidas como Google, Apple, OpenAI, Duolingo, Dropbox, etc

El libro, que es de una extensión mediana tirando a corta, se estructura en siete capítulos:
  • 1. Los reyes de la piscina de Logroño: Hace primero una especie de corta introducción al libro intentando ya desmontar lo que denomina el 'sesgo del superviviente' que hace pensar que con sólo tenacidad y esfuerzo se puede conseguir el éxito y, en seguida salta ya a la experiencia personal relatando cómo en su juventud él y sus amigos inventaron un juego que practicaban en la piscina y que atraía las miradas de muchos chicos y chicas a su alrededor... y que, con el tiempo, inspiraría su primera aventura de emprendimiento en el campo de los videojuegos: 89bits. Y nos explica, con bastante detalle y cercanía, cómo trabajaron él y sus amigos, las ilusiones que pusieron... y todos los errores que cometieron por el camino. Una experiencia que, de alguna manera, hace entender al autor en qué consiste y, sobre todo, cómo funciona (o no funciona) realmente el emprendimiento y que se concreta en las cinco mentiras que ocupan el cuerpo central del libro.

  • 2. Primera mentira: la idea es todopoderosa: Desmonta la concepción de que basta con tener una buena idea para triunfar, alumbrando además algunos elementos a tener en cuenta como que no hay que pensar que seremos los únicos en tener esa idea, que las ideas tienen que ser válidas en el momento actual (no en el futuro) o que un emprendedor no debe enamorarse de su idea sino del problema y exhibir la suficiente flexibilidad para ir adaptando la solución.

  • 3. Segunda mentira: El éxito llegará de la noche a la mañana: ataca la concepción de que el éxito llega de forma rápida y masiva, argumentando que, si llega, puede tardar en aparecer y puede ser de crecimiento lento, por lo que es necesario estar preparado para sobrevivir (sobre todo financieramente) mientras eso se produce (si es que se produce) generando los ingresos suficientes, teniendo en cuenta, además, que la mayor parte de las startups no sobreviven más allá de dos o tres años.

  • 4. Tercera mentira: el cielo es el límite: Cuestiona y replantea la naturaleza del éxito en un emprendimiento, rebajando expectativas y asumiendo que no necesariamente el éxito debe ser unos ingresos o un crecimiento espectaculares, que quizá la supervivencia siendo capaz de mantener económicamente al emprendedor o a un pequeño equipo puede ser suficiente. Por el camino revisa algunas ideas existentes respecto a la pasión, el talento, el esfuerzo o el 'timing'.

  • 5. Cuarta mentira: Haz un buen producto y el cliente acudirá: Se centra en la importancia de ir a buscar a los clientes y no suponer que llegarán. Así habla de cosas como la viralización y revisa estrategias como las de Dropbox o Duolingo.

  • 6. Quinta mentira: No necesitas ser rentable si tienes una buena financiación: Aborda, claro, el tema de la financiación. Explica, por ejemplo, cómo funciona el 'venture capital' para inmediatamente hacer ver que muchas startups con financiación fracasan igualmente y destaca la importancia de alcanzar la rentabilidad cuanto antes. Además, pone de manifiesto que no siempre se necesitan las rondas de financiación y que su tu negocio necesita de pocos recursos el prendedor puede sacarla adelante con sus propios recursos y esfuerzo (el denominado 'bootstraping').

  • 7. Lo importante era la piscina: Una suerte de conclusión, una conclusión además en tono muy personal donde, tras haber explicado en los capítulos anteriores, sobre todo el primero, todos los errores cometidos en su primera iniciativa emprendedora, 89bits, ahora habla de su nuevo emprendimiento, éste sí exitoso: Multiversial. Nos habla del compromiso y revisita de nuevo la idea del éxito y, en general, cómo ha enfocado (o está enfocando) los diversos aspectos explicados a propósito de cada una de las cinco mentiras o mitos. Y remata con una recomendación final: disfrutar con la resolución de los problemas.
'Las cinco mentiras de Silicon Valley' es un libro sincero, informado pero vivencial, muy práctico y muy 'pegado a tierra', que arroja luz sobre la verdadera naturaleza del emprendimiento. Un libro en el que muchos emprendedores pueden reconocerse y ver reflejadas sus propias vivencias y de dónde pueden obtener mucha orientación quienes se puedan estar planteando emprender.

Carlos Molina del Río

(Fuente: Elaboración propia de la información en su perfil en LinkedIn)

Carlos Molina del Río
Emprendedor y especialista en 'product management' con en torno a 20 años de experiencia creando productos y negocios tanto en Telefonica como fundando startups en industrias como videojuegos, eHealth, MarTech, AdTech y redes sociales.

Líder de producto y evangelizador de 'stakeholders' internos, clientes externos, comunidad de 'product management' y socios estratégicos para inspirar y promover la ideación, experimentación, desarrollo técnico, lanzamiento de productos innovadores y características basadas en el aprendizaje automático sobre los datos de los clientes y con una clara diferenciación basada por su experiencia técnica en aprendizaje automático e inteligencia artificial.

Especializado en dirigir la concepción, el desarrollo técnico y el lanzamiento de productos de nueva generación basados en el conocimiento de los datos.

Líder de equipo colaborativo y atractivo, reconocido por crear, motivar y dirigir equipos ágiles de alto rendimiento y colaborador eficaz entre 'stakeholders' de todo el mundo para recopilar e interpretar consideraciones, problemas o limitaciones de los productos y descubrir soluciones innovadoras para los productos.

Su visión es incorporar un enfoque 360º que abarque la tecnología, las operaciones, el marketing, las relaciones con los clientes y la visión global para impulsar la innovación de productos.

Actualmente, Carlos hace convivir su rol como director de producto en Utiq con su papel de fundador y editor en jefe de la newsletter Multiversial.

Anteriormente, y en dos etapas diferentes, estuvo dieciséis años en tres unidades diferentes de Telefónica, entre los que se intercalan los tres años que dedicó a la empresa por el co-fundada 89bits Entertainmet Studio.

En 2025 publica el libro 'Las cinco mentiras de Silicon Valley' donde relata su experiencia y vision personal sobre el emprendimiento.

Carlos es Ingeniero de Telecomunicaciones y tiene un MBA por IESE y un Máster de 'Product Management' por la Universidad de Berkeley.

Puedes saber más del autor, consultando su perfil en LinkedIn o visitando su newsletter en substack donde se identifica como @multiversialnewsletter.

Ficha técnica:


EDITORIAL: Deusto
AÑO: 2025 
ISBN: 978-8423438402
PAGINAS: 231 

miércoles, 25 de junio de 2025

Hablemos de agentes (II): auto-gobierno, agencia y autonomía

En el primero de los posts dedicados a hablar de agentes y de Agentic AI, esbozamos al final tres características que deben exhibir, tres características que identificaban Anjanava Biswas y Wrick Talukdar, en su libro 'Building Agentic AI systems' y que eran: auto-gobierno, agencia y autonomía.

En este segundo post de la serie, de momento vamos sólo a ampliar la información sobre esas tres características esenciales, con base en la obra citada, para posteriormente poder, si llega el caso, trabajar con ellas y, sobre todo, para comprenderlas mejor..


Auto-gobierno ('self-governance')


Como vimos en el post anterior, auto-gobierno ('self-governance') se refiere a la capacidad de una entidad de controlarse a sí misma de manera autónoma, sin dirección o control externo.

En el caso de los agentes de la Agentic AI eso se traduce en que el supuesto agente es capaz de establecer sus propios objetivos, tomar sus propias decisiones y regular su comportamiento con base en sus propios modelos, reglas y algoritmos. 

Los autores citados, mencionan cinco aspectos clave de ese auto-gobierno, a saber:


  • Auto-organización ('self-organization'): Capacidad del agente para estructurar y organizar sus recursos y comportamiento internos sin intervención del exterior.

  • Auto-regulación ('self-regulation'): Capacidad para monitorizar y ajustar las propias acciones con base en 'feedback' obtenido del entorno o del propio estado interno, con vistas a asegurar que el agente funciona de acuerdo con los parámetros o restricciones deseadas.

  • Auto-adaptacón ('self-adaptation'): Capacidad para modificar el propio comportamiento, estrategias o procesos de decisión como respuesta a cambios en el entorno o la propia situación interna del agente y siempre con vistas a conseguir sus objetivos de manera más efectiva

  • Auto-optimización ('self-determination'): Capacidad para mejorar de manera continua el propio desempeño del agente, su eficiencia o procesos de decisión a partir de aprendizaje, experiencia o procesos evolutivos.

  • Auto-determinación ('self-determination'): Capacidad del agente para establecer sus propios objetivos, prioridades o procesos de decisión sin ser completamente controlado por fuerzas externas.


Agencia ('agency')


Por su parte, la agencia ('agency'), como ya vimos, se refiere a la capacidad de actuar de forma independiente y, sobre todo, de elegir entre diferentes opciones

En este apartado, los autores identifican a su vez, tres elementos clave:


  • Autoridad de decisión ('decisional authority'): Capacidad del agente para identificar y evaluar diferentes opciones o cursos de acción y seleccionar el más apropiado de acuerdo con los procesos de decisión internos.

  • Intencionalidad ('intentionality'): existencia de intenciones u objetivos que guían las acciones y comportamientos del agente.

  • Responsabilidad ('responsibility'): responsabilidad por las decisiones adoptadas, las acciones realizadas sobre el entorno y las consecuencias de las mismas.


Autonomía ('autonomy')


Finalmente, la autonomía ('autonomy'), que ya anunciábamos que estaba muy relacionada con la agencia, con foco, eso sí, en identificar el nivel de independencia que el agente, posee y que, según la obra cotada, se puede descomponer en tres aspectos:


  • Autonomía operativa ('operational autonomy'): Capacidad para la ejecución de tareas o conjuntos de tareas sin intervención humana directa sino con base en sus procesos internos y algoritmos de decisión.

  • Autonomía funcional ('functional autonomy'): Capacidad de tomar decisiones y llevar a cabo acciones para conseguir los objetivos establecidos adaptando, si es necesario, el comportamiento a cambios en el entorno o la recepción de estímulos.

  • Autonomía jerárquica ('hierarchical autonomy'): Ámbito de decisión y mayor o menor supervisión por entes de nivel superior


Conclusiones


Estas tres rasgos clave, auto-gobierno, agencia y autonomía, caracterizan lo que es un agente. Y llamo la atención, como hice en el primer post de la serie que, si nos olvidamos por un momento de que, implícitamente, estamos pensando en inteligencia artificial, realmente podríamos hablar de estas características en un ser vivo, especialmente un humano, y con pequeños ajustes, seguirían siendo perfectamente válidos.


Artículos de este blog relacionados

miércoles, 18 de junio de 2025

Hablemos de agentes (I): concepto, contexto y tres características esenciales

No cabe duda de que los agentes, y la agentic AI es uno de los 'buzzwords' de los pasados meses y muy probablemente de los venideros. 

Se trata de un tema que me interesa sobremanera, aparte de su interés intrínseco y como tendencia tecnológica, por su potencial, por las conexiones con los mecanismos cognitivos y por su eventual traslado a la robótica.

Como parte de la labor de estudio e investigación sobre el particular iniciada ya hace un tiempo, hace unos pocos días terminé la lectura del libro 'Building Agentic Ai systems' de  Anjanava Biswas y Wrick Talukdar, libro que debo decir que ha superado mis expectativas (reconozco que inicialmente no eran muy altas) y que me inspira a iniciar una serie de posts con algunos de los aspectos que en esa fuente se tratan.

En este primer post de la serie (que no tengo claro en este momento cuántos artículos incluirá),no voy a profundizar mucho, todavía, en las ideas de ese libro sino que voy a hacer primero un breve recordatorio del significado de lo que es un agente y cómo se sitúa en el contexto de la psicología, la filosofía, la inteligencia artificial y la robótica, para luego apuntar, de nuevo brevemente qué es eso de la Agentic AI y qué trae de nuevo en esta idea de agentes. Hecha esta introducción, enunciaré, sólo enunciaré, las tres características que los autores de la obra mencionada consideran esenciales en un agente.


A modo de pequeña introducción histórica: ¿Qué es un agente?


Creo haberlo ya hecho en algún post anterior, pero retomo brevemente la idea de lo que es un agente. Y lo hago recordando, de nuevo, que el concepto de agente es antiguo, bastante antiguo, y que se ha aplicado en entornos muy diferentes como el psicológico y filosófico (en cierto sentido incluso legal) y que, no sólo eso, sino que también su uso en inteligencia artificial y en robótica viene de bastantes años atrás

El término agente proviene del Latín 'agere' que es algo así como hacer. En cierto sentido es, simplemente, una entidad capaz de actuar.

Pero, claro, aunque esa es la etimología, encierra un poco más. La idea viene a ser que esa entidad, es capaz de reconocer el mundo que le rodea y actuar sobre él y, además, de alguna manera, en esa actuación hay alguna forma de lógica, de voluntad, de persecución de objetivos.


El ser humano como agente


Para que quede claro: el concepto de agente es previo a la tecnología y, de hecho, el 'agente' más típico, casi paradigmático, es el propio ser humano.

El ser humano percibe el mundo que le rodea mediante sus sentidos y lo comprende mediante su cerebro. El ser humano puede actuar físicamente sobre el entorno usando su propio cuerpo (sus manos, sus piernas, etc), apoyándose en el uso de herramientas o, incluso, puede actuar indirectamente influyendo en otros mediante, por ejemplo, la palabra. 

Y esa actuación del ser humano está regida por la voluntad, por la decisión.

El ser humano, es el paradigma de agente. 


Los agentes, la ética y la ley


Y esa idea del ser humano es muy importante desde hace siglos en el campo de la ética. Y, así, se habla de un agente moral cuando ese agente es capaz de entender las implicaciones de sus actos, valorarlos desde el punto de vista ético y decidir en consecuencia.

Importante en esta idea del agente moral es ese entendimiento de la consecuencia de los actos y también la autonomía y la independencia para decidir cómo actuar. Esa independencia y autonomía en la decisión nos lleva a la idea del ejercicio de una voluntad y la asunción de una responsabilidad.

Si echamos un vistazo muy somero a la aplicación de las leyes, vemos que esta idea de la agencia moral y, sobre todo de la independencia y autonomía en la decisión (vamos a decir la responsabilidad), es fundamental a la hora de decidir culpabilidades y posibles condenas. Es por eso, que se considera un atenuante la enajenación mental transitoria, porque se supone que el eventual delincuente, en el momento de realizar su acto delictivo no era consciente de lo que estaba haciendo,  no entendía las consecuencias de sus actos, no estaba decidiendo realmente por su propia voluntad y, por tanto, no era responsable de sus actos o no plenamente responsable.


Los agentes y los robots


Pero ¿esto tiene algo que ver con la inteligencia artificial y los robots?

Pues si. Mucho.

De hecho, autores como Russell y Norvig, en su afamado libro 'Artificial Intelligence: A modern approach' estructuran su definición de inteligencia artificial en torno a la idea de los agentes.

Igualmente, y aunque la definición del término robot es confusa y discutida, probablemente una de las mejores formas de entender lo que es un robot, es trabajando desde el concepto de agente. En el post 'Una nueva especie robótica: los agentes' recordaba la explicación que yo mismo daba en mi libro 'Robots en la sombra' de lo que es un robot y que parte de la idea de agente:


Los robots como agentes

Los robots son una forma de agente. Se trata de entidades que capturan información sobre el mundo que les rodea usando sus sensores. De alguna forma entiende, al menos lo suficiente, ese entorno por un análisis de la información obtenida de los sensores y procesada, a veces, mediante inteligencia artificial. Además, son capaces de actuar sobre ese entorno: disponen de sus 'efectores', de sus elementos terminales para la actuación física directa, y algunos robots, por ejemplo los robots sociales, son capaces de utilizar el lenguaje y la voz para la influencia indirecta en ese entorno. Y la conexión entre lo que el robot percibe sobre su entorno y cómo actúa sobre él no es arbitraria sino que se ciñe a alguna forma de reglas o 'razonamiento' que hace que actúen para alcanzar sus objetivos o cumplir con su misión.

Sería 'meternos en un charco' el intentar hablar de voluntad en el caso de un robot. Pero lo que no cabe duda es que hay coherencia, hay dirección y hay alguna forma, aunque sea básica, de inteligencia en su comportamiento.

Como defendía en mi libro 'Robots en la sombra', esta idea no sólo se puede aplicar a los robots normales, los robot físicos, sino también a los robots software como robots RPA o agentes conversacionales.


La Agentic AI


Y esto nos deja ya a las puertas de la Agentic AI y de los 'nuevos agentes' de que hablamos ahora.

Como hemos visto la idea de 'agente' no es nueva y, en cierto sentido, se la apropia inadecuadamente la nueva 'Agentic AI' como si fuera algo por ella inventado.

Los agentes de que nos habla la Agentic AI son, en efecto, agentes, una clase de agentes. Hablamos de unos programas o módulos software que se construyen alrededor de un gran modelo de lenguaje (prefiero casi decir de un modelo fundacional, porque va más allá del lenguaje), pero un modelo avanzado de los denominados razonadores que son capaces de crear sus propios planes de acción y modificarlos dinámicamente. Además, son capaces de interactuar con el exterior usando lo que se denominan 'herramientas', entre las que se puede incluir la invocación de cualquier API o el uso de cualquier conector.

Se trata unos agentes software (yo diría que unos robots software) con una características avanzadas y que yo entiendo como una especie de fusión conceptual entre RPA y un chatbot generativo.

Los robots RPA ya son capaces de interactuar directamente el el exterior mediante APIs y conectores, o accediendo directamente a pantallas o documentos. Como explicaba en 'La hibridación de los robots software: agentes frente a RPA y robots conversacionales', los agentes de la agentic AI se parecen en muchos sentidos a los robots RPA pero cambian un ingrediente fundamental: si en los robots RPA su lógica de actuación, digamos su cerebro, está 'grabada a fuego' en tiempo de desarrollo y se basa en reglas traducidas a flujos, en el caso de los agentes de la Agentic AI, la actuación se decide en tiempo de ejecución, la decide el propio agente y se implementa con modelos fundacionales razonadores, no mediante reglas ni flujos.

Y frente a un chatbot generativo, como ChatGPT, que ya use modelos razonadores, lo que traen de nuevo los agentes es, fundamentalmente, la capacidad de interacción con el exterior mediante herramientas.

Los nuevos agentes de la Agentic AI, pues, a nivel conceptual no traen tanto de nuevo y son una especie de fusión entre un chatbot generativo y un robot RPA.

Sin embargo, eso que dicho así parece una evolución pequeña, no lo es. No es pequeña en absoluto. La potencia de estos modelos razonadores (que, por tanto, razonan de forma compleja y dinámica y por sí mismos) unida a la capacidad de interacción con el exterior, nos lleva a unos módulos software autónomos, capaces de 'decidir por sí mismos' qué pasos dar para conseguir el objetivo que tienen encomendado y seleccionar dinámicamente las herramientas que necesitan para hacerlo.

Casi una revolución.


Tres características de un agente


Tras esta introducción a lo que es un agente en general, y en la Agentic AI en particular, de momento sólo enunciar, y lo desarrollaremos en futuros posts, las tres características esenciales que los autores citados al principio, identifican como esenciales para un agente (de la Agentic AI). Son las siguientes:


  • Auto-gobierno ('self-governance'): La capacidad de la entidad para controlarse a sí misma sin dirección o control externo.

  • Agencia ('agency'): Capacidad de actuar independiente y, sobre todo, de elegir.

  • Autonomía ('autonomy') muy relacionada con la agencia, pero más centrada en identificar el nivel de independencia que la entidad, el agente, posee.


Desarrollaremos un poco más cada uno de estos tres puntos en futuros posts, pero no dejo de llamar la atención de que, aunque se van a referir a agentes de la Agentic AI, tanto el propio término utilizado, como el concepto en sí mismo, enlaza perfectamente con la idea de agente en general e, incluso, con el agente paradigmático que es el ser humano.


Conclusiones


El concepto de agente es muy antiguo y se ha aplicado desde hace siglos en filosofía, ética o psicología y desde hace años en inteligencia artificial y robótica. Los nuevos agentes, los agentes de que nos habla la Agentic AI, son módulos software regidos por modelos fundacionales razonadores, con capacidad por tanto para elaborar y modificar sus propios planes de acción, y además con acceso a un amplio y creciente catálogo de herramientas que les permiten entender y, sobre todo, actuar sobre su entorno.

Eso nos conduce a unos muy potentes programas autónomos, 'inteligentes' y con capacidad de decisión y actuación (que es lo que, en el fondo, significa ser agente).


miércoles, 11 de junio de 2025

Human-Robot Interaction y los posibles modelos emocionales

Uno de los temas que más llaman la atención cuando hablamos de interacción con las máquinas, y muy especialmente con los robots, es todo lo que tiene que ver con las emociones: la detección de las emociones humanas por parte del robot, la expresión de emociones por parte de ese mismo robot y, si queremos ir muy lejos (probablemente demasiado lejos), la posibilidad de que alguna vez el robot pueda experimentar sus propias emociones.

Se trata de un tema que además, personalmente me fascina, tanto en su vertiente técnica como en sus implicaciones éticas. 

Uniendo algunas lecturas (y docencias) recientes que tienen que ver tanto con la disciplina del human-robot interaction como con inteligencia artificial generativa y agentes conversacionales, he creído detectar una evolución, una posible evolución que intuyo, pero que tengo pendiente de confirmar, que supone un cierto cambio de paradigma en el tratamiento de las emociones por parte de los robots.

Un cambio de paradigma que, en el fondo, simplemente trasladaría al mundo de la robótica social un cambio que ya se está produciendo en chatbots o agentes conversacionales.

Vayamos paso a paso.


Human-Robot Interaction


La relación robots-personas (HRI, 'Human-Robot Interaction') es una disciplina que auna conocimientos procedentes del campo de la robótica y la inteligencia artificial, pero también de la psicología o la antropología, y que se ocupa del estudio de la interacción entre personas y robots y del diseño de los mejores robots y mecanismos de interacción.

Tiene en cuenta cosas como, por supuesto, el lenguaje verbal, pero también el no verbal, la proxémica, las convenciones sociales y... si, la detección y gestión de emociones, donde se solaparía con la así llamada computación afectiva ('affective computing').


Gestión de emociones


Podríamos decir que, a la hora de gestionar emociones por parte de un robot, se podrían distinguir como tres fases, o tres dinámicas, interrelacionadas pero distinguibles:

  • Detección de emociones en los humanos
  • Experimentación de las propias emociones por parte del robot
  • Expresión de emociones por parte del robot

De las tres anteriores, la segunda, experimentación de emociones por el propio robot, hoy en día es una pura fantasía, así que no nos detendremos más en ella.

Sí que son relevantes, y con importantes resultados tangibles, las otras dos: la detección de las emociones humanas por parte del robot y la expresión de unas emociones propias del robot (aunque se trate de emociones impostadas, no sentidas).


Modelado de emociones


Ya desde hace décadas, y de manera con frecuencia independiente al tratamiento mediante máquinas, en el campo de la psicología se han venido analizando e intentando modelar las emociones.

Uno de los primeros y más populares resultados fueron los hallazgos de Paul Ekman quien identificó las conocidas seis emociones básicas (alegría, ira, miedo, asco, sorpresa, tristeza) que eran reconocibles a partir de la expresión y que trascendían las culturas.


Expresiones faciales correspondientes a las seis emociones básicas

Posteriormente, Ekman amplió su catálogo a quince. Se trata de unos hallazgos no siempre bien interpretados o utilizados pero que, a efecto de HRI, me interesa destacar que permite la identificación de emociones a partir de expresiones faciales y que el resultado es una categoría de entre un número finito disponible de emociones.

El propio Ekman propuso posteriormente otro modelo en que, más que recoger expresiones faciales completas, se centraba en diversos detalles. Definía el Facial Action Coding System (FACS) donde se identificaban las AU ('Action Units') en número de varias decenas.


FACS

Estas action units se pueden reconocer visualmente o, en laboratorio, mediante medida de actividad muscular. Aunque no conducen de forma inmediata a una categorización de emoción, existen guías complementarias que sí lo hacen

En ambos casos, al final podemos llegar a una emoción como una etiqueta, de entre un conjunto finito de ellas, que caracteriza el estado emocional del ser humano.

Existen otros modelos que, trabajan es espacios continuos, bidimensionales (como el modelo circunflejo de Russell) o tridimensionales, y donde algunas de las variables de ese espacio suelen ser la denominada excitación ('arousal') que, de alguna forma, mide la intensidad de la emoción, y la valencia ('valence') que indica si se trata de una emoción más positiva o más negativa. 


Modelo circunflejo de Russell

Otros modelos, en este caso tridimensionales, como PAD, usado por el mítico robot Kismet, añade una dimensión de dominancia.

Aunque en estos modelos de emociones existe una continuidad, y no unas categorías cerradas, tampoco nos alejamos demasiado de esa visión de emociones como un catálogo de posibilidades, como se puede ver en la propia figura. De alguna manera, regiones de ese espacio de estado se corresponden con una emoción


Detección de emociones


Los robots detectan las emociones humanas tomando, en primer lugar, alguna forma de medida de su manifestación externa en los humanos, mediante sensores. Los dos más comunes, y probablemente al mismo tiempo los más potentes y ricos en información, son las cámaras (que permiten captar, fundamentalmente la expresión del rostro humano, pero también sus gestos y otros elementos de lenguaje no verbal) y los micrófonos que captan la voz incluyendo los elementos prosódicos como intensidad, acento, etc.

Sólo con esos dos tipos de sensores, tan familiares en todo tipo de aplicaciones, los robots obtienen casi toda la información que necesitan. Existen otros sensores, más especializados, pero ahora no profundizaré en ellos.

El caso es que, mediante los sensores, los robots tienen la información primaria sobre las emociones expresadas por el humano.

Desde ahí, la conclusión de la emoción subyacente y si nos basamos en un catálogo de emociones como el propuesto en su momento por Ekman,  se puede reducir a un problema de clasificación, tan común en el machine learning y deep learning.

Si utilizamos un espacio de estados, parece que hay un primer paso de regresión, para situar el estado emocional del humano en las características de ese espacio de estados, y luego, si queremos 'darle nombre' a la emoción, un problema de clasificación adicional casi trivial (que no precisa siquiera de inteligencia artificial) para asignar la emoción subyacente según la región en que nos encontremos.


Chatbots basados en reglas


Establecidas esas fases, paso ahora a comentar la evolución de los chatbots. Los chatbots de los que hemos dispuesto hasta hace poco, antes de la explosión de los modelos generativos, se han venido construyendo en general implementando un modelo de conversación que ya explicaba en mi libro 'Robots en la sombra' y que se muestra en la figura:


Modelo de conversación

En ese modelo, las intenciones ('intents') son una forma de categorización de lo que el usuario puede pedir al chatbot (reserva de cita, compra de un billete de avión, conocimiento sobre un producto, etc). Eso sí, como trabajamos en lenguaje natural esas intenciones se pueden manifestar verbalmente con expresiones ('utterances') diferentes e incluso muy diferentes. Asociada a cada interacción el humano suele añadir información en forma de parámetros o entidades como ciudades, personajes etc.

La labor donde interviene la inteligencia artificial en ese tipo de chatbot es, en primer lugar, en la conversión voz-texto (en caso de que interactuemos de viva voz) y, sobre todo, en la detección de la intención y la extracción e entidades a partir de la expresión del usuario. Este último problema, la detección de la intención, se trataría claramente de un problema de clasificación.

A partir de ahí, el resto de cosas (consulta o interacción con servicios o sistemas externos) e incluso emisión de la respuesta, sucede sin usar la inteligencia artificial y procede de configuraciones o desarrollos realizados por el desarrollador del chatbot. Sólo se añade inteligencia artificial en la eventual conversión texto-voz para contestar al usuario de viva voz.

Este tipo de chatbots hoy en día tienden a denominarse como 'basados en reglas' porque, en efecto, es el desarrollador el que establece, para una intención dada, qué sistemas o servicios deben consultarse o invocarse y qué respuesta corresponde a esa intención.


Comportamiento emocional de robots basado en reglas


Aunque confieso que me falta información técnica de detalle, y aunque puede variar de modelo de robot a modelo de robot, intuyo que los robots sociales que manejan emociones funcionan de una manera parecida a como lo hacen estos chabots.

Es decir, a partir de la información de los sensores (pensemos por ejemplo la cámara), detectan la emoción subyacente en el humano mediante la aplicación de un algoritmo de clasificación. A partir de ahí, se desencadena la respuesta del robot: qué información debe consultar, qué emoción debe expresar el propio robot (en caso de que tenga capacidad para ello) y qué debe contestar al humano.

Y sospecho que todo lo que tiene que ver con los pasos posteriores a la detección de la emoción, está fundamentalmente basado en algún tipo de reglas no muy diferentes a las que emplean los chatbots.


Chatbots basados en modelos generativos


Volvamos a los chatbots, pero para ver cómo cambia la cosa con los modelos generativos.

Cuando usamos un chatbt basado en un modelo generativo, un modelo fundacional o un gran modelo de lenguaje, la cosa funciona de manera muy diferente: no existe un distinción tan nítida entre la entrada y saluda, y no se clasifican los deseos del usuario en intenciones, sino que se trata su entrada (su 'prompt') en su conjunto, sin clasificar y, sobre todo, el propio modelo genera la respuesta, que no se basa en ningún tipo de regla aunque sí se puede realizar un cierto condicionamiento.

Las dos cosas más relevantes que cambian son, pues, que es que el modelo, la inteligencia artificial, funciona extremo a  extremo, en entrada, salida y procesamiento. Y, además, que no existe clasificación en intenciones.


Computación afectiva basada en modelos generativos. Los modelos emocionales


Visto lo anterior, y dada la posibilidad cierta (de hecho, seguro que ya se está haciendo) de que los nuevos robots se apoyen en sus aspectos verbales en modelos de lenguaje generativos, parece más que probable (aunque no tengo noticias de ello, apostaría a que ya alguna empresa o laboratorio está en ello) que en los aspectos de la computación afectiva se utilicen también este tipo de modelos.

Si eso fuese así, parece que perderían sentido la clasificación de emociones en categorías cerradas (igual que en los chatbots pierde sentido categorizar las intenciones) y, no sólo eso, lo más importante es que la respuesta del robot, incluyendo sus aspectos emocionales, se crearían por el propio modelo (no por unas reglas).

Aunque entiendo que esos es técnicamente viable desde ya mismo, calculo que se debe realizar un entrenamiento, (un más que probable 'fine-tunning') para conseguir un buen funcionamiento de estos 'modelos emocionales'.

Como digo, no puedo afirmar taxativamente que esto que indico este sucediendo, pero tengo una casi completa seguridad de que sí, y de que, probablemente,  veremos cosas en este sentido a no mucho tardar, quizá ligado al campo emergente de la así llamada 'embodied AI'.


Conclusiones


La llegada de los modelos generativos y su eventual inclusión en robots sociales, puede cambiar el paradigma de cómo se gestionan las emociones humanas en los robots, pasando de un modelo más basado en reglas, a un modelo extremo a extremo, sin clasificación de emociones y apoyado en lo que podríamos denominar un 'gran modelo emocional'.


lunes, 9 de junio de 2025

¿Está el pensamiento crítico al alcance de la inteligencia artificial?

No sé si la pregunta es muy tópica o muy oportuna, pero el caso surgió en mi mente hace muy pocos días, durante la presentación de un libro, y me dije que tenía que convertir mis reflexiones en un post para este blog


Un mínimo de contexto


El evento en cuestión era la presentación del libro 'IA KAN: la inteligencia artificial hecha relato' de Javier Barraca, una novela de ciencia ficción sobre la inteligencia artificial con trasfondo filosófico, y un libro del que seguro tendré ocasión de publicar algo en su momento.

El caso es que, durante la conversación / debate final, se planteó el típico asunto de qué es plenamente humano y dónde no llegará la inteligencia artificial. Entre las respuestas, un miembro de la mesa, Jaime Guibelalde aludió al pensamiento crítico.

Y una chispa, o mejor una pregunta, saltó en mi cerebro. ¿Seguro? ¿Seguro que el pensamiento crítico está fuera del alcance de la inteligencia artificial?

Surgió en mi cerebro la pregunta... y una primera respuesta, una primera intuición. 

Y me dije que tenía que pensarlo un poco mejor, o mejor aún, escribir este post porque para mi, en muchas ocasiones, escribir es casi una forma de pensar o al menos de ordenar el pensamiento.


Pensamiento crítico


Claro, lo primero es clarificar de qué estamos hablando cuando hablamos de pensamiento crítico porque creo que, con frecuencia, se menciona el pensamiento crítico de una forma laxa.

Diría que hay dos partes o dos visiones en el pensamiento crítico: el pensamiento crítico como actitud y el pensamiento critico como disciplina.

Cuando me refiero al pensamiento crítico como actitud, lo hago en el sentido de un talante o una predisposición a no dar por buenos de primeras noticias, discursos y argumentos, sino someterlos a una suerte de juicio crítico. Y también a mantener una postura de pensamiento propia. Muchas veces creo que cuando se alude al pensamiento crítico, la cosa se queda aquí, en la actitud, en no escuchar y conformarse sino poner en tela de juicio. No está mal, pero me parece muy reduccionista.

Tienes que haber algo más... y lo hay. En el pensamiento crítico como disciplina se aplican técnicas y conocimientos. Muchos son sus elementos pero, los más relevantes tienen que ver con la verificación lógica (el argumento sometido a crítica respeta o no las leyes de la lógica) y la detección de sesgos cognitivos que pueden afectar inconscientemente tanto al discurso sometido a crítica como a la propia persona que ejecuta el análisis crítico. Probablemente hoy en día, habría que añadir, también, la mera verificación de datos y afirmaciones porque, parece que, a veces con intención, a veces sin ella, se deslizan demasiadas falsedades en el discurso público.


El turno de la inteligencia artificial


Establecido el campo de juego abordo ahora la pregunta: ¿está el pensamiento crítico al alcance de la inteligencia artificial o es una cualidad inherentemente humana y que siempre estará fuera del perímetro  de posibilidades de la inteligencia artificial?


La parte fácil de la respuesta


Si enfocamos el pensamiento crítico como 'actitud', la cosa resulta fácil de contestar: la inteligencia artificial no tienen actitud de ningún tipo (aunque la emule muy bien y cada vez mejor). Actualmente y a corto plazo, la respuesta es, pues, un rotundo no. Ni actitud de pensamiento crítico ni ninguna otra.

No sucede en la realidad, ni se avista que pueda suceder en el futuro, que la inteligencia artificial pueda cumplir las condiciones necesarias para tener una actitud, como podrían ser la autoconsciencia, el libre albedrío y quizá los sentimientos.

Respecto a lo que pueda suceder en en el futuro, prefiero no apostar mucho pero, si sucediera alguna vez, creo que sería en un futuro lejano, un futuro que estoy seguro de que no voy a ver.


La IA y las técnicas de pensamiento crítico


En la parte de ejecución de las técnicas de pensamiento crítico, creo que la cosa cambia bastante y creo que la inteligencia artificial no es que pueda en un futuro aplicar las técnicas del pensamiento crítico...es que puede hacerlo ya mismo.

La aplicación de la lógica resulta bastante natural a una inteligencia artificial y valorar la lógica de un argumento está perfectamente en su campo de acción actual. Hoy en día ya se puede conseguir de forma trivial un análisis de la lógica de un argumento por parte de un chat generativo, por ejemplo. Con un ejercicio de buen prompting y un enriquecimiento de información, seguramente mediante RAG, creo que ese análisis, además, puede ser muy, muy fino.

Y, aunque algo más etéreos, algo parecido éxito aplica a la detección de sesgos cognitivos. Con un poco de guiado, con un buen y detallado promting y proporcionando al agente inteligente la información específica adecuada, creo que la detección de sesgos puede ser bastante acertada.

En cuanto a la verificación de datos, cualquier modelo actual con acceso a Internet, especialmente los llamados modelos razonadores, puede hacer un buen trabajo en esa materia.

Así que mi conclusión es que, en lo relativo a la aplicación de las técnicas de pensamiento crítico, la inteligencia artificial actual está ya muy bien preparada para  llevarlas a acabo de manera efectiva y puede que mejor que un humano. Y no tengo dudas, además, de que va a seguir mejorando.


La irrelevancia de la actitud


¿Por que decía más arriba que el que la inteligencia artificial tenga o no actitud es irrelevante?

Bueno, lo decía en el sentido de que, si una solución de inteligencia artificial es capaz de aplicar con éxito las técnicas de pensamiento crítico sobre un discurso, no necesita realmente la voluntad de hacerlo. Para eso está el humano quien, mediante una simple y trivial invocación a la solución de inteligencia artificial, hace que ésta se ponga en marcha. Más aún, en ciertos contextos podrías dejarlo programado. Por ejemplo, se puede (y lo puedes hacer ya hoy en día) dejar programado que todas las mañanas la inteligencia artificial te haga un análisis crítico de las noticias más relevantes publicadas. 


A modo de conclusión


Uniendo todo lo anterior, creo que es bastante razonable decir que el pensamiento crítico (en realidad el análisis crítico) está ya bastante al alcance de la inteligencia artificial y seguro que más que lo estará en el futuro, y un futuro inmediato.

Por eso, creo que no podemos considerar el pensamiento crítico como un reducto humano, algo que nunca podrá ejercer la inteligencia artificial.

Lo cual no es óbice para afirmar que, en mi opinión, el pensamiento crítico es hoy en día más necesario que nunca, y la necesidad de que los humanos lo desarrollemos, más acuciante que nunca.  

Y no sólo, ni siquiera principalmente, por la existencia de la inteligencia artificial...