miércoles, 28 de abril de 2021

¿Se puede enseñar ética a un robot? Un sí con muchos peros...

En el post anterior, titulado 'Qué es una máquina ética y tres motivos para desarrollar robots éticos' hablaba del concepto de máquina ética y algunos motivos de alto nivel para acometer el desarrollo de máquinas o robots éticos. 

Me basaba para ello en la argumentación de Michael Anderson y Susan Leigh Anderson expresada en su artículo "Machine Ethics: Creating an Ethical Intelligent Agent" y que conocía a través de Sven Nyholm y su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'. 

En este post voy a prescindir de referencias externas y voy a intentar contestar en primera persona a la pregunta de si es posible enseñar ética a una máquina y, en concreto, a un robot. 


La investigación y el 'bote pronto'


Advierto, eso si, quizá en mi defensa y mi descargo, quizá sólo como expresión de libertad y honradez intelectual, que se trata de una contestación un poco 'a bote pronto', sin pensarlo demasiado, tal y como lo veo en este momento.

Desde hace unos meses estoy dedicando tiempo, bastante tiempo, a investigar y profundizar sobre inteligencia artificial y robots y también a las consideraciones humanísticas y éticas que rodean a estas máquinas avanzadas. 

Y lo hago desde una doble perspectiva: técnica y humana. 

Técnica porque me apasiona la tecnología (no en vano soy ingeniero y nunca me he arrepentido de ello) y porque creo que gran parte de la objetividad y sobre todo de la factibilidad de las propuestas viene de conocer, de la manera más profunda y realista posible, de qué estamos hablando realmente, dónde nos encontramos en tecnología y qué posibilidades se encuentran a nuestro alcance más allá de fantasías y narrativas.

Y humana porque también me interesa, que nadie piense lo contrario, porque persigo una visión amplia y porque si hablamos de ética hay que conocer los conceptos de ética y filosofía y también conviene estar al tanto de consideraciones legales y de contextos psicológicos, antropológicos y sociológicos.

Se trata de un viaje intelectual apasionante pero del cual creo encontrarme en el principio así que es posible que, con el tiempo, llegue a nuevos hallazgos o vea las cosas de distinta manera a como lo hago ahora.

Así que ésta es solo una valoración 'de urgencia' y provisional.

Y tras el preámbulo, vamos allá: ¿se puede enseñar ética a un robot?


La contestación básica: sí, posible, es posible


La contestación básica a la pregunta es que sí. Somos capaces de transmitir a las máquinas mucho conocimiento humano, muchas reglas de negocio, muchas directrices, muchos criterios, así que, a priori, también es posible hacerlo con la ética.

Es especialmente posible dado el desarrollo actual, y previsible desarrollo futuro, de la inteligencia artificial, que permite la implementación de algoritmos capaces de tratar no sólo con reglas explícitas sino también con algunas reglas o patrones implícitos que estos algoritmos avanzados son capaces de descubrir.

Y esa capacidad, ya muy notoria, creo que no hará otra cosa que aumentar y sofisticarse en los próximos años.

Así que si, tengo pocas dudas de que posible, lo que se dice posible, es posible enseñar ética a un robot.

Sin embargo, aun siendo posible, en mi opinión, enseñar ética a una máquina, a un robot, es muy importante que no caigamos en el optimismo ni en el malentendido, que la cosa no es tan 'bonita' como parece la afirmación desnuda. 

Ese sí que proclamo, viene muy limitado, muy condicionado y muy explicado por una larga serie de peros.

Vamos a ver cuatro peros.


Pero #1: ¿Qué significa que una máquina es ética?


Aunque hablé de esto en el artículo anterior, ahora quiero ser más explícito en algo muy, muy relevante para evitar la fantasía: ninguna máquina, ninguna, al menos ninguna de la que dispongamos de hoy día (ni creo que en un futuro cercano), es 'etica' en el sentido que podemos decirlo de una persona. 

Consideramos una máquina como ética si exhibe comportamientos que se ajustan a nuestra ética y nuestra moral. Comportamientos.

Es decir, externamente se comporta de forma ética pero eso no quiere en absoluto decir que tenga ningún tipo de conciencia, voluntad o buenos sentimientos que le impulsen a comportarse de esa manera ética. 

En absoluto.

Exhibe externamente unos comportamientos éticos que le hemos programado o enseñado. Los exhibe externamente. Y se los hemos enseñado nosotros. Se los hemos imprimido nosotros y los ha automatizado. No hay voluntad ni vida interior, sino automatismo y comportamiento.

Nada más, no nos confundamos en esto.


Pero #2: De la inteligencia artificial débil a la ética débil


Segundo ataque a la fantasía: Terminator no existe. Ni el héroe ni el villano. No existe una inteligencia artificial fuerte, de propósito general que ni de lejos se acerque hoy día a la capacidad para afrontar todo tipo de problemas y situaciones que tiene el ser humano. Ni de lejos.

La inteligencia artificial de que disponemos actualmente es la llamada inteligencia artificial débil, una inteligencia artificial concentrada en problemas concretos, no en un un propósito general. Es una inteligencia artificial sofisticada, maravillosa, asombrosa...pero de ámbito reducido.

Podemos conseguir, o al menos eso pienso yo, una máquina ética pero con una ética que, como el ámbito de aplicación de la máquina, robot o algoritmo, será reducida, como en el manido caso de la decisión que debe de tomar un vehículo autónomo ante un accidente mortal inevitable: un criterio que, caso de consensuarlo, aplica a condición autónoma y accidentes mortales, pero no para saber si está mal robarle a una ancianita. 

Por decirlo de alguna manera, podremos enseñar una ética débil, no por aplicar reglas poco exigentes, sino por hacerlo en ámbitos reducidos.


Pero #3 ¿Qué es enseñar a una máquina?


Este es un pero menor, más bien conceptual, pero que me parece conveniente aclararlo. Al hablar de enseñar a una máquina podemos tender a imaginarnos una versión antropomórfica de la enseñanza y, en este caso, de la enseñanza de la ética.

No, no se trata de que los robots asistan a unas clases en que se les hable de Aristóteles y sus virtudes, o del enfoque kantiano y el imperativo categórico o de la visión consecuencialista y que, a partir de ahí, el robot saque sus conclusiones y ya se comporte como un buen y virtuoso ciudadano.

Ni siquiera se trata de que el robot 'se empolle' el código legal vigente, lo entienda y lo aplique.

Nada de eso.

Un robot aprenderá como aprenden las máquinas hoy en día.

Si las reglas que tiene que aplicar son muy claras como la que sugiere que un voicebot o un chatbot se debe presentar como tal y no simular que es un humano, esa regla se podrá imprimir en el comportamiento del robot por pura programación tradicional, similar a las reglas de negocio que se aplican, por ejemplo, en el software de automatización de procesos de negocio o de juegos no muy avanzados.

Si se trata de comportamientos más complejos y no fácilmente compilables en reglas, lo aprenderá en general mediante el entrenamiento de sus algoritmos, probablemente de aprendizaje supervisado o por refuerzo, con base en datos, experiencia y feedback normalmente facilitado por parte de humanos.

Y es posible que ese aprendizaje se haya detenido cuando el robot se utilice ya por personas 'normales' más allá de los desarrolladores y científicos de datos y no siga aprendiendo por más que le intentemos dar consejos o indicaciones bienintencionadas de lo que debe hacer.

Así aprenden las máquinas hoy en día. No esperemos otra cosa.


Pero #4 ¿De qué ética hablamos? Una ética aún más débil


Y llega el momento de no 'echarle toda la culpa', o más bien, todas las limitaciones, a la tecnología y mirarnos a nosotros mismos, a los humanos, a nuestras limitaciones y nuestras contradicciones.

Porque, vamos a ver: ¿Qué ética queremos enseñar a los robots cuando tras 25 siglos de existencia de esta disciplina aún no hemos sido capaces de consensuar nosotros mismos unos valores y un sistema moral único?

No esta claro que, ni siquiera, la Declaración Universal de los Derechos Humanos sea aceptada de corazón por todos los países, todas las culturas y todas las personas. 

Ni siquiera parece valorarse por igual, en todas partes, la propia vida humana. 

Es también bastante divergente, por poner un ejemplo muy claro, la valoración que sobre la privacidad o la autonomía del individuo se hace en los países occidentales frente a la que se realiza en los orientales, muy en especial China. 

Y, ya que hablamos de robots, no existen referencias claras ni consensos claros en aspectos sobre si es lícita o no la amistad o las relaciones amorosas entre robots y personas. Aún no lo hemos estudiado lo suficiente o aún no nos hemos puesto de acuerdo, que para el caso es lo mismo.

¿Qué ética le vamos a enseñar entonces a los robots? ¿Qué reglas les vamos a programar? ¿Qué comportamientos deben valorar como adecuados para aprenderlos? ¿Qué datos, qué ejemplos y qué feedback les vamos a dar para que entrenen sus algoritmos?

Supongo que, de momento, no tenemos más remedio que ceñirnos a ámbitos acotados, donde podamos tener las ideas claras y criterios comunes. Unos ámbitos acotados bien a nivel regional, en zonas y culturas  como la Unión Europea con unos valores y una legislación razonablemente armonizadas y en claro desarrollo, y ámbitos acotados en aspectos en que tengamos una idea clara de qué consideramos ético y por por tanto que sepamos decirle de alguna forma al robot cómo hay que actuar.

Si al enfocar la posibilidad desde una visión técnica hablábamos de una inteligencia artificial débil, y por tanto de una ética débil, ahora tenemos que limitarnos aún más por nuestra propia falta de criterios y consensos... con lo que la ética que podemos enseñar a las máquinas es aún más débil.


Una observación: ¿Quién debe aprender la ética?


Antes de elevar las conclusiones del post quisiera hacer una observación que creo importante.

En este artículo hemos hablado de que las máquinas, los robots, aprendan reglas éticas.

Pero hay otra opción, mucho más a nuestro alcance a pesar de las contradicciones que nos aquejan: mientras conseguimos o no que los robots sean éticos, preocupémonos de ser éticos nosotros, y de  usar a los robots de una forma ética.

En ese planteamiento anulamos todas o casi todas las limitaciones técnicas puesto que seguimos nosotros, los humanos, al mando.

Con ello ya sólo nos quedan nuestras propias decisiones y nuestros valores, sí, pero también nuestras faltas de criterio y consenso.

¿Seremos capaces de superarlas?


En conclusión


En conclusión, si, es posible enseñarle ética a una máquina, pero en ámbitos acotados, muy acotados tal vez y siempre que sepamos traducir esos criterios morales en alguna forma de reglas que podamos programar o ejemplos que podamos suministrar a los robots para que aprendan.

Mientras lo conseguimos, a lo mejor, el desafío es ser éticos nosotros, los humanos.

Queda, en cualquier caso, mucho, muchísimo, por hacer. En lo técnico, en lo ético y en lo legal.

El camino se promete apasionante.

 

lunes, 26 de abril de 2021

Qué es una máquina ética y tres motivos para desarrollar robots éticos

Cuando hablamos de ética en el contexto de la Inteligencia Artificial y, sobre todo, de la robótica, en ocasiones hablamos de un código ético para, por ejemplo, los ingenieros o desarrolladores, un código ético que implique diseñar unos algoritmos y máquinas ajustadas a nuestros valores y concepciones morales.

En otras ocasiones, hablamos más de un uso ético de la tecnología como cuando pensamos en limitar las armas autónomas  

Pero existe al menos una tercera vertiente, ligeramente diferente de las anteriores que es cuando lo que pretendemos es que las propias máquinas o algoritmos tengan un comportamiento ético, un planteamiento que gana más sentido cuando pensamos en máquinas muy avanzadas con crecientes capacidades, sofisticación, y sobre todo, autonomía como la de los robots más avanzados existentes o con posibilidad de existir en un futuro no muy lejano.

Y, en ese sentido, podríamos hablar de una máquina ética. Ahora bien ¿Qué entendemos por una máquina ética? Existe una definición debida a Michael Anderson y Susan Leigh Anderson expresada en su artículo "Machine Ethics: Creating an Ethical Intelligent Agent" y que llega hasta mi a través de Sven Nyholm y su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'. 

Esta es la definición:


a machine that itself follows an ideal ethical principle or set of principles; that is to say, it is guided by this principle or those principles in decisiones it makes about possible courses of action it could take.


Es decir, una máquina que, de alguna forma, sea consciente de unos principios éticos y se atenga a ellos. Aunque parece que, con independencia de su viabilidad, de la cual a lo mejor hablo en otro artículo, tiene sentido como aspiración este tipo de máquinas éticas, me ha parecido interesante traer aquí los tres motivos que los autores aportan para el desarrollo de máquinas éticas y, más en concreto, robots éticos. Son estas tres:


  • Porque existe lo que llaman 'ramificaciones éticas' en el comportamiento de los robots, es decir, que los robots pueden tanto ayudar como hacer daño, tanto producir resultados positivos como negativos y por tanto, parece aconsejable que se atengan a criterios éticos.

  • Porque la construcción de robots que sigan principios éticos ayudaría a mitigar la preocupación de la personas acerca de las máquinas autónomas.

  • Y, quizá el argumento más interesante, al menos intelectualmente, porque el intento de construir robots éticos nos puede ayudar a comprender mejor el propio comportamiento humano.


La verdad es que se trata de tres argumentos muy diferentes. El primero más práctico y más cercano, en cierto modo, al razonamiento técnico e incluso legal. El segundo es una especie de 'gestión del cambio' una forma de promover la aceptación de los robots. El último, en fin, es el más filosófico o más humanístico, si se prefiere.

Los tres me parecen correctos, los tres interesantes, y con los tres estoy de acuerdo aunque, eso sí, se trate de unos planteamientos más de alto nivel y de intenciones que de aplicación directa. La dificultad estriba, en realidad, en llevar estas ideas a la práctica.

Seguiremos con ello.


domingo, 25 de abril de 2021

Mi actividad: Webinar sobre 'Ética y Robótica social' con Liliana Acosta en el Canal 'La Thinker Soul'

El pasado Jueves 22 de Abril, y accediendo a la amable invitación de Liliana Acosta, 'la thinker soul', compartí escenario virtual con ella hablando de ética y robótica social en un diálogo en que se aúna la visión filosófica y la tecnológica.

Una experiencia que para mí resultó a un tiempo, interesante y entretenida. Además, y aunque ya he realizado y participado en varios webinar de diferentes temáticas, era la primera vez que lo hacía en formato diálogo.

Pero lo más importante es que espero que, aunque de forma modesta, este webinar contribuya a entender un poco mejor qué son los robots, qué es la robótica social, los retos éticos a superar y las posibilidades de impacto social. 

Puedes encontrar el vídeo del webinar en el Canal YouTube de La Thinker Soul o en su vblog pero también te lo dejo aquí mismo.




Una gran experiencia, que espero repetir, como también espero seguir trabajando y divulgando sobre diferentes aspectos de la robótica, incluyendo, por su puesto, su vertiente ética.

viernes, 23 de abril de 2021

En este día del libro ¿Por qué no "Robots en la sombra"?

Si, ya sé que es una proposición interesada. Ya sé que, como reza la famosísima frase lanzada al estrellato por Francisco Umbral, estoy hablando de mi libro. Pero precisamente por eso, porque es mi libro y mi obra, y porque, como amante de los libros, de ficción y de ensayo, de entretenimiento y profesionales, el día del libro es un día especial, no puedo dejar pasar este día para sugerirte que te hagas con "Robots en la sombra", mi último libro, y, sobre todo que lo leas y, ya que el día va también de eso, que lo regales.

Se trata de un libro, sí, de carácter profesional y aproximadamente técnico aunque toca aspectos de negocio e incluso éticos y sociales. Un libro que aborda la temática de los robots software con foco en la Automatización robótica de Procesos (RPA) y los robots conversacionales como chatbots, voicebots, agentes virtuales y altavoces inteligentes.

Un  libro en que he intentado que se entiendan muy bien las ideas expuestas, que se encuentren al alcance de cualquiera que se interese por la materia, aunque no atesore conocimientos previos y aunque no tenga un perfil técnico. 

Un libro, por tanto, que aunque en esencia es profesional, he procurado que tenga también un cierto carácter divulgativo.

Y por si te ayuda a hacerte una idea del contenido y por si, mejor aún, te anima a adquirirlo, aquí te dejo un breve vídeo que explica el contenido:



Y esta es mi proposición, una proposición interesada, claro, una proposición que habla de mi libro. Pero si, para mi desgracia, esta proposición no te convence, al menos no te olvides de que es el día del libro y no dejes de regalar un libro, regalar una rosa y, sobre todo, leer.


jueves, 22 de abril de 2021

y un discurso filosófico cuestionando esa amistad entre robots y personas

Si, como sugiere el título del artículo, este post es en realidad una continuación del anterior titulado 'Un discurso filosófico a favor de la amistad entre robots y personas'.

En ese artículo se explicaba el discurso del filósofo John Danaher,  en defensa de la posibilidad de una amistad entre robots y personas, un discurso que analizada cuatro aspectos de la amistad, de la auténtica amistad, la amistad de virtud como define Aristóteles, a saber, mutualidad, honestidad / autenticidad y diversidad de interacciones.

El discurso de Danaher lo veo explicado por Sven Nyholm en su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'.

Pues bien, el propio Sven Nyholm, a pesar de expresar abiertamente su admiración por la hábil exposición de Danaher, muestra sus reservas en cuanto a sus argumentos y, por tanto, en cuanto a la posibilidad de una verdadera amistad entre robots y personas.

¿Qué expone Nyholm?


La contra-argumentación de Sven Nyholm


En primer lugar arguye que con respecto a la cualidad de igualdad, ésta, con respecto a lo que la amistad se refiere, no se refiere tanto a poder y capacidades, que es en lo que se centra Danaher, sino en cuanto a prestigio y estatus moral. Y, así entendida la igualdad, Nyholm entiende que nunca puede existir igualdad entre robots y personas, puesto que el estatus moral de un robot no debería ser nunca igual al de una persona.

En lo relativo a la diversidad de interacciones, Nyholm entiende que lo realmente diferencial para una amistad no es tanto la interacción en circunstancias muy diversas, que es lo que se centra Danaher, sino la disposición para interactuar, para prestar su ayuda en cualquier circunstancia. Aunque no veo que Nyholm lo exprese claramente, esta argumentación parece dejar implícita la idea de que los robots están preparados solo para interactuar en ciertas circunstancias pero no tienen esa disposición para prestar su ayuda cuando se les necesite, en cualquier circunstancia.

En cuanto a lo que quizá sea la argumentación más original y desafiante de Danaher, el 'behaviorismo ético', al hecho de que sólo podemos juzgar las intenciones y actitudes de los amigos a través de sus comportamientos, algo que los robots pueden emular, Nyholm afirma que, en el fondo, y aunque lo que se vea sean comportamientos, lo que valoramos realmente en el amigo son su mundo interior y sus actitudes reales.


Más que decir


Y creo que con esto, con la revisión de la posición de Danaher y la valoración de Nyholm, no queda agotado, ni mucho menos, el debate ético sobre esa eventual amistad entre robots y personas, así que, seguro, volveré de nuevo a este tema.


Otros artículos de este blog relacionados



lunes, 19 de abril de 2021

Un discurso filosófico a favor de la amistad entre robots y personas

¿ Es posible la amistad entre robots y personas? Y, caso de ser posible, ¿Es deseable?

En el anterior artículo de este blog, 'Tres motivos para estudiar las relaciones afectivas de personas con robots' ya anunciaba que a ese artículo iba a seguir alguno más aportando argumentos a favor y en contra. Inicialmente iba a unir en el mismo post ambos tipos de argumentos, a favor y en contra, pero creo que la materia tiene matices abundantes y me interesa también lo suficiente como para dedicarle más de un post a esa continuación. 

De momento, en este artículo me voy a limitar a recoger un discurso a favor de la amistad robot-personas. No voy a recoger aún argumentos en contra, ni siquiera pretendo ser exhaustivo en el resumen de posibles argumentos a favor. Sólo voy a recoger la argumentación del filósofo John Danaher, un discurso que llega hasta mí gracias a la obra de otro filósofo, Sven Nyholm en su fantástico libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism', y que, en cierta medida, me limito a resumir en estas líneas con algún leve comentario propio.


La amistad según Aristóteles


La perspectiva que aportan tanto Sven Nyholm como el propio John Danaher es en esencia filosófica, así que no cabe mucha sorpresa ante el hecho de que lo primero que nos encontremos sea una aportación de Aristóteles y, en concreto, una clasificación de la amistad por él propuesta. Según el filósofo griego, existen tres tipos de amistades:


  • Amistades de utilidad: relaciones que son útiles para alguna de las partes involucradas o para ambas.

  • Amistades de placer: relaciones que aportan placer a alguna de las partes involucradas o para ambas.

  • Amistades de virtud: relaciones basadas en una benevolencia mutua y en unos mutuos buenos deseos para la otra parte, implicando admiración mutua y valores compartidos.


Aristóteles entiende como valiosos los tres tipos de amistades pero también establece una cierta jerarquía entre ellas siendo las dos primeras formas imperfectas de amistad y la tercera, la amistad de virtud, la manifestación más elevada.

Si nos atenemos a esta clasificación parece casi evidente y poco discutible que son perfectamente posibles las dos primeras formas de amistad entre personas y robots. En efecto, los robots son útiles a las personas (y en cierto sentido también las personas son útiles para los robots) y en algunos casos, los robots pueden aportar placer a las personas y no pienso sólo en robots sexuales sino en cualquier tipo de robot que, simplemente, resulte simpático o entretenido.

Según esto, es posible e incluso deseable que exista esa amistad. Pero, cabe decir, que cuando Aristóteles formuló esa clasificación, evidentemente, no tenía en su mente la posibilidad de un ente artificial como un robot. Es más, me atrevo, no sin cierta precaución, claro, a cuestionar si la definición de los dos primeros tipos de amistad son suficientemente precisas. Tal y como las he contado (reconozco no haber leído el texto original de Aristóteles) parece que en esa descripción de amistades de utilidad y placer cabrían relaciones que en absoluto consideraríamos como amistad, como podrían ser el caso de la esclavitud o el abuso. Tal vez lo que le faltaría a esas definiciones sería la bilateralidad que sí tuene la tercera, es decir, que la utilidad o el placer fuesen mutuos.

En cualquier caso, el resto del discurso se centra en el tercer tipo de amistad, las amistades de virtud, que creo que si se ajustan a lo que intuitivamente entendemos por amistad.  


Aspectos de una amistad


En el razonamiento que sigue, es también importante recordar cuatro aspectos que caracterizan a las amistades verdaderas, a las amistades de virtud. Son éstas:


  • Mutualidad: Los amigos tienen valores e intereses compartidos y admiración y buenos deseos recíprocos.

  • Honestidad/autenticidad: los amigos son honestos en sus interacciones y no crean malas interpretaciones acerca de lo que ellos mismos son.

  • Igualdad: las dos partes son iguales sin relaciones de dominación o superioridad.

  • Diversidad de interacciones: los amigos interaccionan en diferentes formas y en diferentes contextos.  


El discurso de John Danaher


Danaher reconoce que la argumentación en contra de una posible amistad entre robots y personas se sustenta en general en la imposibilidad de conseguir esas cuatro características de una amistad verdadera.

Sin embargo, a la hora de aportar su propio punto de vista, Danaher hace una distinción que parece muy pertinente: la distinción entre una imposibilidad técnica y una metafísica. 

Entiende, que en el caso de las características de igualdad y diversidad de interacciones las eventuales limitaciones son de naturaleza técnica y, por tanto, eventualmente solubles en el futuro. 

En el caso de la igualdad, Danaher entiende que a medida que evolucione la técnica, se irá consiguiendo o perfeccionando. Además. argumenta, esa igualdad de capacidades y poder tampoco se da siempre en amistades entre humanos y por lo tanto parece admisible una forma laxa de igualdad y por tanto de amistad que se produce entre humanos y que también se puede dar con los robots.

En la misma línea, también entiende que una forma laxa de diversidad de interacciones se da en amistades humanas y, que esa forma laxa de diversidad también es posible en relaciones con robots.

En el caso de la mutualidad y la autenticidad Danaher aprecia, por el contrario, una mezcla de imposibilidades técnicas y metafísicas. Sin embargo, Danaher aporta lo que se denomina un 'behaviorismo ético'. La idea es la siguiente: los humanos no tenemos acceso a la vida interior de nuestros amigos y sólo percibimos sus comportamientos externos. Y si esos comportamientos nos demuestran mutualidad y autenticidad, entendemos que existen en el interior de esas personas que consideramos amigas. 

Con esto, Danaher se pregunta por qué hay que aplicar un estándar más exigente a los robots. Es decir, si un robot fuese capaz de mantener de forma consistente un comportamiento que demuestre mutualidad y autenticidad deberíamos considerar como posible la amistad con él.

Nyholm, cuando valora esta argumentación indica que de esta forma Danaher convierte un problema metafísico (sobre si un robot puede tener vida interior similar a la de un amigo) en otro epistemológico (sobre qué podemos conocer de la vida interior de nuestros amigos). Y en ese sentido, la pregunta parece convertirse en si un robot es capaz de comportarse de una forma similar a como lo hacen nuestros amigos humanos a los que suponemos unas ciertas actitudes y vidas interiores.

Con esto, Danaher considera que las cuatro características de una verdadera amistad, una amistad de virtud, se pueden dar, aunque quizá de forma laxa, todavía no perfecta y apreciables sólo por comportamientos, en el caso de la relación con robots.

Y en ese sentido, considera posible el establecimiento de una amistad verdadera entre un humano y un robot.


Continuará


Creo que, en buena medida, el 'quid' de la cuestión está en está en la validez que concedamos a ese behaviorismo ético: si podemos considerar amigo y, aún más, si debemos considerar amigo y procurar la amistad de un ente que se comporta externamente como amigo...pero al que no le podemos presumir una vida interior, unas actitudes y unos sentimientos, sólo unos grandes algoritmos, una extraordinaria tecnología y un gran diseño. 

De todas formas, buscaré y traeré a este blog otros razonamientos. En un próximo artículo, y con base en la misma fuente bibliográfica, veremos alguna argumentación en contra de esa amistad humano-robot y del discurso de Danaher.


Otros artículos de este blog relacionados



miércoles, 14 de abril de 2021

Tres motivos para estudiar las relaciones afectivas de personas con robots.

Uno de los motivos por lo que el campo de la relación entre robots y personas (HRI, Human-Robot Interaction) es tan apasionante, al menos en mi opinión, es porque involucra muchas ciencias y disciplinas. 

Incluye muchos elementos tecnológicos (sensores, inteligencia artificial, computación afectiva, motores, actuadores, etc) pero también elementos lingüísticos, proxémica, psicología,  etc

Y, claro, también entra en juego la filosofía y muy especialmente la ética.  

Algunas de las relaciones que se establecen entre robots y personas, por ejemplo en el ámbito industrial, son meramente prácticas e incluso mecánicas. Este tipo de relaciones son importantes desde el punto de vista productivo, operativo y también de seguridad física, pero no implican grandes debates o análisis morales.

Diferente cuestión es cuando hablamos de robots sociales, y muy especialmente de robots sociales con características relacionales avanzadas que pueden incluir, por supuesto, la comunicación por lenguaje natural y voz, pero también la gestión psicológica de la distancia o el movimiento, la detección y simulación de emociones e incluso, un aspecto físico en algunos casos muy cercano al humano.

Está documentado y ampliamente demostrado que los humanos tendemos a asignar características humanas a todo aquello con lo que nos relacionamos y que solemos poner en juego nuestras emociones y también asignar esas emociones a los seres con que nos relacionamos, sean cosas, plantas, animales o, en este caso, los robots.

En los casos más extremos ya se habla de amistad, de relaciones sexuales, de compañía e incluso de amor. 

¿Tiene esto algún sentido? ¿Es creíble que se puedan establecer relaciones de amistad o amor entre una persona y un robot? ¿Nos debemos tomar en serio esa posibilidad? O, dicho de otra manera ¿tiene sentido estudiar las relaciones afectivas de humanos y robots?

El filósofo Sven Nyholm, en su espléndido libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism' se hace esta pregunta y concluye que existen tres buenas razones para tomarse en serio esas relaciones afectivas entre robots y personas y dedicar un esfuerzo a estudiarlas. Estas son sus razones:

  • La primera es que ya existen compañías que están creando robots precisamente con la intención de que sean amigos, compañeros o parejas sexuales de personas. Y esto plantea la cuestión de si esas compañías están de alguna forma engañando a sus clientes haciéndoles pensar que en los robots pueden encontrar realmente un amigo o compañero.

  • La segunda es que está demostrado, además, que ya existen personas que realmente establecen vínculos emocionales con robots y desean tener a robots como compañeros, amigos o parejas.

  • Finalmente, y aunque la mayoría de los filósofos se muestran muy escépticos con este tipo de relaciones ya hay autores, y se menciona en concreto a Lily Frank y John Danaher, que han defendido la posibilidad de una amistad entre un humano y un robot.

En un próximo artículo, y basándome en esta misma fuente, recogeré algunos argumentos a favor y en contra de esas relaciones afectivas robot-persona. De momento, parece quedar claro que tiene sentido formularse preguntas a este respecto con una perspectiva que es, en esencia, filosófica y, sobre todo, ética.

viernes, 9 de abril de 2021

La empresa sana de Vicente de los Ríos

'Empresa sana', el segundo libro de Vicente de los Ríos, viene, en cierto sentido, a continuar la labor iniciada con su primera publicación, 'El misterio de reinventarse'. Si en aquel primer libro se hablaba de la transformación personal, ahora se lleva la transformación al ámbito de la empresa, una transformación que se propone a un tiempo como humana y digital.

Todo el libro sigue un paralelismo metafórico entre la empresa y el cuerpo humano y éste último ayuda a centrar e ilustrar los principales retos, problemáticas y también oportunidades a que se enfrentan la empresa y sus líderes frente al cambio y la necesidad de transformación.

Como elemento diferencial y práctico, cada capítulo, que se abre con una cita inspiradora, se cierra con un cuestionario que permite a las empresas la evaluación de su propia situación en cada una de las dimensiones analizadas.

El libro, de una extensión mediana tendiendo a corta, se estructura en quince capítulos:

  • '1. ¿Por qué hay que reinventar la empresa:' Un capítulo inicial introductorio que aporta una motivación para el resto del libro destacando un argumento por encima de los demás: el que la empresa pueda seguir aportando su valor a lo largo del tiempo. Analiza el factor humano, tanto en propietarios y directivos como empleados, clientes, proveedores, y proporciona algún ejemplo de transformación como Western Union.

  • '2. La empresa un ser vivo:' Explica la analogía entre la empresa y el cuerpo humano que servirá de hilo conductor del resto del libro. A partir de ahí en los siguientes capítulos va desgranando distintas facetas importantes en la transformación y expresadas metafóricamente como un elemento del cuerpo humano, empezando por los sentidos.

  • '3. La vista: Mirando al futuro:' Un capítulo que con la metáfora de la vista incide en los aspectos de visión estratégica, una visión que implica comprender el entorno, en especial el nuevo entorno digital, que precisa de valentía para cuestionar el modelo de negocio, logrando, eso si, un equilibrio entre el corto-pazo (la operación, los resultados) y el largo plazo (la visión estratégica propiamente dicha) y con una visión de la transformación que tiene que ser eminentemente digital. En este capítulo se aprovecha, además, para introducir el modelo de transformación digital propio del autor.

  • '4. El oído: Escuchar de verdad al cliente:' El oído, un órgano que nos permite captar sonidos pero también mantener el equilibro, es la metáfora usada para apostar por la escucha activa del cliente. El autor destaca la cercanía y el agradecimiento como elementos clave y apuesta decididamente por el contacto cercano y frecuente con el cliente, el empatizar con él y luego traducir ese conocimiento y esa sintonía en acciones.

  • '5. El olfato: el cambio en la toma de decisiones:' El olfato tiene que ver para el autor, como casi no podía ser de otra manera, con la toma de decisiones. Se apuesta por un cambio en el modelo de toma de decisiones y por unos directivos seguros de sí mismos y capaces de tomar decisiones drásticas cuando todavía las cosas van bien. Además, se destaca la importancia de ser capaz de aprender de los errores y del uso de los datos y la analítica de datos como soporte a la decisión.

  • '6. El gusto: innovar para crecer:' Y toca en este capítulo hablar de innovación apoyándose en la metáfora del gusto. Se apuesta decididamente por la innovación incluyendo el consejo de arriesgar en ese proceso y el eventual uso de los modelos de negocio y experiencias de terceros.

  • '7. El tacto: colaborar con otros:' El sentido del tacto nos refiere ahora a la colaboración, una colaboración en que se incluye la capacidad de participar en ecosistemas, es decir, entornos donde muchas empresas colaboran en pos de un beneficio mutuo. También se aconseja la creación de negocios con terceros y, en un sentido algo diferente, el hacer a la empresa visible, el mostrarla, mediante participación en eventos, organizando jornadas de puertas abiertas, impartiendo conferencias, etc.

  • '8. El cerebro: coordinación y racionalidad:' Cerrado ya el recorrido por los sentidos, la mirada se fija en otros tres elementos del cuerpo humano: el cerebro, el corazón y las canas. En este capítulo, el protagonista es el cerebro como imagen de la coordinación y la racionalidad y aunque esa racionalidad debe estar siempre presente, se desarrollan tres elementos bastante más concretos como son el presupuesto de base cero y el trazado de un plan sensato de transformación para lo cual se expone un modelo y, en general, se apuesta por la coordinación.

  • '9. El corazón: apostar por las personas:' donde se desarrolla una visión muy humana de la transformación, una visión donde no se toleren los malos comportamientos, donde se valore y potencie el talento y donde, en general, se apueste por los valores humanos entre los que se resaltan la confianza, la colaboración y la generosidad.

  • '10. Las canas: aprovechar lo mejor de la experiencia:' Recogiendo un leit-motiv muy propio del autor, en este capítulo se apuesta por el llamado talento senior, integrando en los equipos a las personas más mayores con los más jóvenes. Además, se habla de la gestión del tiempo y de una recuperación del sentido común que, de alguna manera, recoge muchos elementos tratados en los capítulos anteriores.

  • '11 Las enfermedades de la empresa y sus remedios:' Se produce un nuevo giro argumental y ahora lo que revisa son las enfermedades de la empresa, usando el paralelismo con las enfermedades de los diferentes órganos vistos en los primeros capítulos, en un minucioso recorrido. Y luego se identifican tres elementos que pueden servir como vacuna para esas enfermedades: el liderazgo, la comunicación y el alma, tres elementos que ocupan los tres siguientes capítulos.

  • '12 El liderazgo: generar confianza:' En el caso del liderazgo, se habla de la capacidad de generar confianza pero además se apuesta por un tipo de líder ejemplar, compasivo y agradecido.

  • '13. La comunicación: el eje vertebral de la transformación:' Se propone la comunicación como herramienta clave del líder para alinear esfuerzos y en esa línea se esbozan los pilares básicos de un plan de comunicación y se describe una comunicación que debe ser constante, transparente y adaptada a cada colectivo.

  • '14. El alma: la importancia del propósito:' Cerca ya de rematar todo el análisis llegamos quizá al punto más elevado, el alma esa especio de poso que deja la vida de una empresa en sus empleados y clientes y dentro de ese alma se profundiza en dos aspectos: el propósito y la responsabilidad, que incluye los elementos de responsabilidad social corporativa.

  • '15. Realmente se puede reinventar tu empresa?:' Un capítulo de cierre en que, recogiendo los resultados de los cuestionarios elaborados al final de cada capítulo, se llega a un diagnóstico de la empresa.
'Empresa sana' es un libro de lectura fácil y agradable pero que oculta, bajo esa aparente sencillez, mucha experiencia y el fruto de muchos años de trabajo en o con entornos corporativos que atesora el autor.

Un libro, además, escrito con ese tono espontáneo, humano y cercano que tanto caracteriza a su autor.

Un libro ágil y actual, creo que muy del gusto directivo y que, aunque puedo no ser imparcial, dada la relación de colaboración e incluso amistad que me une al autor, no puedo dejar de aconsejar como lectura a cualquiera interesado en el mundo de la empresa, el liderazgo y, sobre todo, en la transformación, digital o de cualquier otro tipo.

Vicente de los Ríos

(Fuente: perfil en LinkedIn)

Vicente de los Ríos Medina
Asesor digital y de negocio que ayuda a Comités de Dirección en su desarrollo y en procesos de transformación. Gran capacidad para crear y liderar equipos de expertos que acometan procesos de transformación digital

Mentor Digital de ejecutivos seniors, ayudándoles a entender el mundo digital y cómo sacarle partido en su vida profesional y personal

Ejecutivo Senior y experto en digitalización con una amplia experiencia internacional y éxito en liderar y transformar negocios y canales de venta y atención en los sectores de Telecomunicaciones, Consumo e Internet.

Director del Programa Ejecutivo de Transformación Digital de la EOI (Escuela de Organización Industrial) - 24 ediciones en 4 años.

Conferenciante en temas de transformación digital, reinvención, negocios y liderazgo. Gran comunicador motivacional con capacidades pedagógicas y técnicas.

Autor de "El Misterio de Reinventarse" (2019), un libro para ayudar a las personas en su reinvención profesional y personal (www.elmisteriodereinventarse.com)

Extensa experiencia en el Negocio de Internet con amplios conocimientos de marketing online, ventas online, estrategia omnicanal y social media, con dominio del uso de la tecnología como herramienta para mejorar resultados, resolver problemas y transformar negocios.

Más de 20 años de experiencia en liderazgo de grandes equipos con resultados sobresalientes en motivación, desarrollo de personas y mentoring, gracias a un estilo de gestión innovador y entusiasta con grandes dotes de comunicación, creatividad, trabajo en equipo y orientación a cliente.

Puedes saber más de la autor visitando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @vdlrios.

Ficha técnica:

EDITORIAL: Almuzara
AÑO: 2021 
ISBN: 978-8418578373
PAGINAS: 208

miércoles, 7 de abril de 2021

Robots, agencia y la inspiración de la ley

No es fácil razonar de forma rigurosa a propósito de ética y mucho menos de ética aplicada a un territorio tan interesante pero al tiempo tan nuevo, complejo y en evolución como es el caso de los robots inteligentes y la relación entre robots y personas

Es difícil, y de hecho hasta la fecha poco he encontrado en ese sentido: argumentos o modelos que permita razonar, de una manera racional, objetiva y serena sobre aquello que cabe considerar ético y aquello que no, en este caso, con respecto a los robots.

Muchos planteamientos suelen pecar, en mi opinión, de apriorismos, prejuicios y quizá, en cierto sentido, cierta visceralidad.

Y por eso me ha gustado mucho el planteamiento que hace Sven Nyholm, profesor de la Universidad de Utrecht en su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'. Nyolm nos ofrece un análisis muy ordenado sobre las capacidades de los robots y reflexiona sobre ellas desde un punto de vista ético y filosófico pero con muy buen entendimiento de la realidad objeto de análisis, los robots, sin mitos ni sensacionalismos.

Agencia


Central en el razonamiento de Nyholm está el concepto de agencia, un concepto sobre el que también tenía ganas de profundizar. Un concepto, además, algo confuso y en el que creo que el término (que he traducido literalmente del término inglés 'agency') puede confundir algo en su versión castellana.

Nos explica el propio Nyholm que se trata de un concepto filosófico algo complejo que se refiere a una capacidad o al ejercicio de esa capacidad. Una capacidad, y sigo con la explicación de Nyholm, que es compleja y que recoge la capacidad para actuar, tomar decisiones, razonar acerca de cómo actuar, interaccionar con otros agentes, hacer planes para actuar, evaluar acciones pasadas, asumir la responsabilidad de nuestras acciones, etc. De alguna forma tiene que ver, resumo, con la capacidad de actuar y la reflexión y control sobre esa acción.

Y, en efecto, se trata de una característica que no parece fácil definir, pero no me resulta demasiado difícil de entender así explicada. Y una característica que parece indudable que poseemos los humanos.

¿ Y los robots?

Esa es buena parte de la discusión.


Tipos de agencia


En su razonamiento, Nyholm propone distinguir varios tipos de agencia. En concreto, habla de cuatro:
  • Agencia básica y específica de un dominio: Persigue objetivos basándose en representaciones, dentro de un dominio o dominios limitados.

  • Agencia basada en principios y específica de un dominio: Persigue objetivos basándose en representaciones en un modo que está regulado y constreñido por ciertas reglas o principios y dentro de unos dominios limitados.

  • Agencia basada en principios, supervisada y respetuosa: Persigue objetivos basándose en representaciones, en un modo que está regulado por ciertas reglas o principios, al tiempo que está supervisado por alguna autoridad que puede detenernos o a la que se puede ceder el control, al menos dentro de ciertos dominios limitados.

  • Agencia responsable y específica de un dominio: Persigue objetivos en un modo que es sensible a las representaciones del entorno y que está regulado por ciertas leyes o principios acerca de qué hacer o no hacer, al tiempo que tienen la capacidad de entender la crítica a la propia agencia, junto con la capacidad de defender o alterar las propias acciones basado en los propios principios o la crítica razonada de la propia agencia.

Y luego traslada estas formas de agencia a los robots y, en concreto, a los vehículos autónomos. Y está claro que, según el tipo de robot y su sofisticación, sí pueden exhibir ciertos niveles de estos tipos de agencia.

De la ética a la ley


En ese análisis de la agencia trasladada a vehículos autónomos, Nyholm razona, acerca de la responsabilidad en casos de, por ejemplo accidentes, según el tipo de agencia y la compara con otros escenarios llevados a cabo por humanos.

El tipo de agencia le ayuda a determinar la responsabilidad de un acto ejecutado por un robot (un vehículo autónomo) o un humano. 

No solo eso, sigue su razonamiento y de alguna forma traslada esa responsabilidad, que en cierto modo es puramente ética, a un terreno más cercano a lo legal ('liability'). Es decir, razonando en términos éticos deduce quien, en función de la agencia, tiene una responsabilidad real, y luego deriva que responsabilidad sería exigible e incluso penalizable desde un punto de vista más legal. 

No voy a desentrañar todo el razonamiento, por no alargarme en exceso y por respetar la autoría intelectual de Nyholm, pero sí quisiera insistir en que me ha gustado mucho esa forma de razonar, que aúna de una forma creo que muy ordenada y razonable, una visión ligeramente técnica (entendiendo lo que los robots pueden y no pueden hacer) con la ética y la legal.

Creo que ese es el camino adecuado: entender la realidad (que puede ser técnica) que quieres regular, establecer los criterios morales y, a partir de ahí, intentar derivar leyes que favorezcan el comportamiento moral y castiguen, en su caso, el inmoral.

lunes, 5 de abril de 2021

Machine learning, explicabilidad y un gran truco de magia

La inteligencia artificial nos está permitiendo conseguir cosas asombrosas, y más cosas, de seguro, nos permitirá conseguir en los próximos años. Cosas que, de asombrosas que son, a veces parecen bordear la magia, lo cual, quizá, no debería asombrarnos si recordamos el famoso aserto de Arthur C. Clarke según el cual cualquier tecnología suficientemente avanzada es indistinguible de la magia.

Y hoy traigo a esta escena un gran truco de magia. Los magos son el machine learning y la explicabilidad de la inteligencia artificial y el truco es ¡tachán!: el machine learning  nos pueden permitir explicar cosas que los humanos no entendemos, detectar correlaciones e incluso causalidades que a los humanos nos pasan inadvertidas.

Hace unos días publicaba en este blog el artículo 'Deep learning y explicabilidad para el diseño de medicamentos' donde, en el fondo, ya presentábamos este truco. En ese artículo explicaba cómo se utiliza el deep learning y los algoritmos de explicabilidad en el diseño de medicamentos. Mediante deep learning se consigue modelar el efecto biológico de diferentes moléculas y, por tanto, su eventual acción terapéutica. Y mediante los algoritmos de explicabilidad conseguíamos conocer de alguna manera cuál es el mecanismo de esas moléculas, por qué consiguen su efecto biológico, sin más que explicar el algoritmo de deep learning.

Y ese el el truco de magia. Resulta que tomamos un problema, en este caso la búsqueda de un medicamento y, no solo conseguimos encontrar ese medicamento sino que, además, conseguimos explicar por qué funciona. Y lo bueno es que esta es una forma de actuar que podemos generalizar para muchos otros problemas, según el esquema:

  • Seleccionar un problema para el cual los humanos no tenemos la solución ni las reglas a aplicar para resolverlo, pero del que tenemos suficientes datos
  • Realizar un modelo de machine learning y entrenarlo hasta dar con la solución
  • Aplicar algoritmos de explicabilidad para entender cómo funciona ese algoritmo que ha conseguido encontrar la solución
  • Entender el problema en el mundo real con base en esas explicaciones

O sea, de un problema que no entendíamos conseguimos encontrar la solución (machine learning) y la explicación (explicabilidad de la inteligencia artificial). ¿No es pura magia?

Aplausos.

Bueno, la verdad es que, hasta donde sabemos, la magia no existe. Lo que existe son trucos de magia, y esto es en realidad un truco y, en el fondo, la realidad no es tan brillante como la puesta en escena que acabo de ejecutar nos puede hacer creer.

Lo cierto es que ante un problema que no sabemos resolver, la cosa no es tan simple como dárselo a un modelo de machine learning y ya está. Es necesario encontrar el modelo adecuado, es necesario establecer con acierto sus hiperparámetros y es necesario disponer de muchos datos de entrenamiento. Y, en ocasiones, encontraremos la solución y en otras no. Es decir, el encontrar la solución al problema no está ni mucho menos asegurado aunque cada vez se consiguen resolver más y más problemas y con más y más facilidad.

Bastante más verde está el tema de la explicabilidad. Lo cierto es que es todavía un campo de investigación con mucha tarea por delante y lo cierto es también que algunos algoritmos de explicabilidad que ya funcionan no nos proporcionan exactamente una explicación completa y en términos humanos sino, por ejemplo, indicaciones de qué variables de entrada han pesado más en la decisión del algoritmo. Así, por ejemplo, nos pueden indicar qué zonas de una imagen de entrada han pesado más en una labor de clasificación. Con frecuencia, pues, esa explicación serían más bien pistas para que luego unos humanos diesen la verdadera explicación... si son capaces.

El truco de magia, pues, no funciona siempre. Son necesarias unas condiciones muy concretas en el escenario y unos magos avezados.

De todas formas, aun reconociendo que se trata de un truco y no de verdadera magia, y aun reconociendo también que todavía estamos al nivel de poco más que unos juegos de manos, creo que el espectáculo vale la pena. Si el machine learning combinado con algoritmos de explicabilidad es capaz de, aunque sea en problemas concretos y con ayuda de humanos, dar soluciones y explicaciones a problemas hasta ahora no resueltos, bien se merece que paguemos la entrada.

Y no solo eso, se trata de una vía en que vale la pena, y mucho, seguir investigando y trabajando.

Show must go on!


viernes, 2 de abril de 2021

¿Por qué fracasa una transformación digital? Dos riesgos que habitualmente no se mencionan

Mucho se ha escrito y hablado sobre transformación digital en los últimos años, y mucho se escribirá y hablará sobre transformación digital en los inmediatamente venideros.

Muchas explicaciones, no siempre afortunadas, sobre en qué consiste la transformación digital. 

Muchas ideas y recetas, no todas completas ni acertadas, sobre cómo llevarla a cabo.

Y también, si, alguna argumentación, tampoco necesariamente bien enfocada, sobre los riesgos existentes y sobre qué puede hacer que nuestra transformación digital descarrile y no llegue a buen puerto. 

Hablé largo y tendido sobre transformación digital en mi primer libro 'La carrera digital' y en él hui de proporcionar recetas simples y genéricas, porque como les suelo insistir a mis alumnos cuando les hablo de transformación digital, no creo en la existencia de LA transformación digital, en abstracto, sino en TU transformación digital, la propia de tu compañía. Una transformación digital que depende del sector en que operes, de tu estrategia, de la situación de partida y madurez en materia de sistemas y tecnologías en tu empresa, de la presencia o no de cultura digital y habilidades digitales básicas, de tu aversión al riesgo, de tu disponibilidad presupuestaria...

No, no creo, en las recetas simplistas y generales, aunque, evidentemente, existen patrones comunes y buenas y malas prácticas.

En mi visión de la transformación digital, juega un papel importante una disciplina a la que no se suele relacionar, incomprensiblemente, con la transformación: la dirección de proyectos. Y una parte relevante de la dirección es la gestión de riesgos. En gran medida, la gestión del riesgo de un programa de transformación digital se debería, en mi opinión, gestionar siguiendo las buenas prácticas de gestión de riesgos en proyectos y programas.

En resumen, no creo en las recetas simplistas y generales para la transformación digital y los riesgos que la aquejan se debe gestionar mediante las técnicas al respecto de la dirección de proyectos.

A pesar de todo lo anterior, en este post quisiera mencionar dos riesgos genéricos que comprometen el éxito de una transformación digital (y, en gran medida, cualquier transformación ambiciosa). Y lo hago porque, como parte de mis actividades docentes, he tenido la ocasión recientemente de observar algún planteamiento sobre riesgos en transformación digital, y me pareció que había cosas importantes que añadir o, al menos, resaltar.

Voy a comentar, en concreto, dos elementos de riesgo:

  • El salto de la estrategia a la operativa
  • La ejecución y la resiliencia


El salto de la estrategia a la operativa


Se suele decir, y se dice bien, que la transformación digital deriva de la estrategia, que debe estar alineada con la estrategia. Y es cierto. Muy cierto. Absolutamente cierto. 

La transformación digital debe apoyar de forma coherente una estrategia existente o, incluso, debe definir, al menos parcialmente, esa estrategia. En cualquier caso, debe haber un completo alineamiento entre nuestra estrategia empresarial y la transformación digital que acometemos.

Sin embargo, existen discursos, que me inquietan e incomodan por lo blandos y ambiguos, en que de tanto centrarse en la estrategia, de tantas grandes palabras y visiones como los pueblan, se olvidan de que la estrategia hay que implementarla. La transformación digital hay que hacerla, construirla, ejecutarla

En el modelo que propongo en 'La Carrera Digital' indico que, teniendo clara la estrategia, se deben identificar unas iniciativas. De esas iniciativas se seleccionan las más oportunas. Y las iniciativas se convierten en proyectos (es decir, actividades con alcance, entregables, plazos, responsables, costes...). Ese salto de las estrategias, que forzosamente son visiones de alto nivel, a proyectos que son empeños muy concretos y operativos, es fundamental para que la transformación digital no se quede en un discurso o un powerpoint.

Y se trata de un salto que algunas visiones en mi opinión demasiado 'blandas' de la transformación digital no favorecen. La transformación digital no son unas 'slides' o el discurso de un CEO. La transformación digital es acción. Es ejecución. Es sangre, sudor y lágrimas.


La ejecución y la resiliencia 


Sangre, sudor y lágrimas. Una forma artística aunque severa de decirlo. Pero es así. La ejecución es compleja. Y es dura. La implantación de tecnología es compleja, y es dura. Y la transformación digital, aunque les pese reconocerlo a aquellos que se empeñen en negar su base tecnológica, es esencialmente, implantación de tecnología.

Una implantación de tecnología que, como hemos dicho, deriva de la estrategia...pero implantación de tecnología, al fin y al cabo.

Una implantación de tecnología acompañada de acciones de gestión del cambio y, eventualmente, de la promoción de un cambio cultural... pero implantación de tecnología.

Y cualquier que haya tenido la experiencia de participar en proyectos de implantación de tecnología sabe que suelen ser complejos y duros. Sabe que aparecen imprevistos, cosas que, inexplicablemente, no funcionan como pensábamos. Que surgen errores y fallos que parecen indescifrables. Que pese a nuestros mejores intentos de estimación de plazos, los tiempos tienden inexorablemente a alargarse. Que hay agentes que se oponen de forma activa o pasiva al avance del proyecto y que ponen 'palos en las ruedas. Y que la presión de la dirección suele ser alta.

Si, la implantación de tecnología es bonita, pero dura. Y la transformación digital, pese a quien pese, es esencialmente implantación de tecnología. Y, por tanto, es bonita, pero dura.

Y por eso es tan importante la resiliencia. Una resiliencia que nos haga a un tiempo resistentes y flexibles, pero en cualquier caso capaces de mantener la visión, la tensión y la motivación, cuando las cosas se ponen difíciles, lo cual suele ocurrir con frecuencia.

Cuando se habla de la importancia de las personas, se suele poner más énfasis en los aspectos culturales y de gestión del cambio. Y, en efecto, son muy importantes.

Pero en mi visión, lo que más me importa de cara a una transformación digital (en realidad de cara a cualquier transformación o iniciativa ambiciosa) es el liderazgo, la capacidad de llevar a la práctica una visión. Y esa capacidad de llevarla a la práctica implica no sólo visión. Implica, aún más, capacidad operativa y resiliencia, mucha resiliencia.


En resumen


Estos dos riesgos se podrían resumir en uno solo: la falta de capacidad operativa

Sugiero que no nos dejemos arrastrar por discursos simplistas, que nos hablen de estrategia sin concretar o que, al poner el foco en lo cultural, se desentiendan de lo tecnológico y operativo.

Insisto: la estrategia es esencial como punto de partida y las personas son cruciales, como impulsoras y sujetos afectados. Pero una transformación digital es, en esencia, implantación de tecnología. E implantar implica voluntad, resistencia y capacidad operativa.

Y si no la tienes, créeme, puedes llamarle como quieras a tu programa de cambio, pero no será una transformación digital. 

Y no implantarás nada relevante.

Y no triunfarás.