viernes, 14 de mayo de 2021

Algunas diferencias entre texto e imagen que afectan a los algoritmos de deep learning

A veces parece como si los algoritmos de inteligencia artificial, muy en especial los del campo del deep learning, fueran pura magia. Como si bastase conectar un 'montón' de neuronas artificiales, entrenarlas con muchísimos datos y esperar que, de alguna manera, los pesos de la red neuronal se ajusten hasta conseguir obtener el resultado esperado a la salida de la red ante una entrada concreta.

Sin embargo, la cosa no es tan sencilla. Ni mucho menos. Los matemáticos, científicos de datos o ingenieros que trabajan en estos algoritmos deben entender muy bien la naturaleza del problema que se quiere resolver con cada red neuronal concreta y, aunque es cierto que permanece un poquito de intuición y de ensayo y error en ese proceso de diseño, también hay mucho conocimiento, mucho criterio y mucha experiencia a la hora de seleccionar y diseñar la arquitectura e hiper-parámetros de la red neuronal que luego entrenaremos.

En esa línea, por ejemplo, puede resultar interesante realizar una comparación entre el problema a que se enfrentan dos áreas muy importantes de la inteligencia artificial actual: el procesamiento del lenguaje natural (el texto, si se quiere) y el procesamiento de imágenes. 

Y en ese sentido, me ha resultado muy interesante, la sencilla identificación de diferencias entre los datos de tipo texto (texto de lenguaje natural) y los datos de imágenes que recoge David Foster en su libro 'Generative Deep Learning: Teaching Machines to Paint, Write, Compose and Play'. Foster identifica cuatro grandes diferencias entre datos de texto (lenguaje natural) e datos de imagen, a saber:


  • Los datos correspondientes a texto se agrupan en bloques (ya sean caracteres o palabras) mientras que en una imagen los puntos que lo componen se mueven en un espectro continuo de colores.

  • Los datos de tipo texto tienen una dimensión temporal (el orden de las palabras, por ejemplo, es fundamental para entender el significado) pero no tienen dimensión espacial. Por el contrario, las imágenes sí tiene dimensión espacial pero no temporal.

  • Los datos de tipo texto son muy sensibles a pequeños cambios y así, el cambio de unas pocas palabras en un texto pueden modificar completamente el sentido de ese texto. Incluso, el cambio de alguna letra puede cambiar completamente el significado de una palabra. Por el contrario, en datos de imágenes, el significado de la imagen no suele cambiar por alterar algún pixel.

  • Los datos de texto, de lenguaje, muestran una estructura basada en unas reglas gramaticales mientras que, en el caso de una imagen, no existen reglas acerca de cómo deben asignarse los valores de los píxeles.

Todas estas características de los datos de entrada con los que debe trabajar una red neuronal condicionan la arquitectura a utilizar y, aunque no hay fronteras estancas y absolutas, hace que, por ejemplo, las redes recurrentes (que tienen en cuenta la dimensión temporal) tengan amplio uso en procesamiento de lenguaje natural, y las redes de convolución en visión artificial.

Así que, hay mucho de ciencia e ingeniería y, aunque no existe un procedimiento cerrado acerca de cómo se debe diseñar una red neuronal, si existen criterios importantes que nacen del conocimiento de la materia prima de partida, los datos, y la naturaleza de los algoritmos específicos de cada red.


martes, 11 de mayo de 2021

Tres motivos por los que los modelos generativos pueden conducir a una inteligencia artificial más sofisticada

En los dos últimos posts ('Unas ideas muy preliminares sobre modelos generativos' y 'Modelos generativos, autocodificadores variacionales y el ingenio humano') he hablado un poco de los métodos generativos con alguna idea sencilla sobre cómo funciona y todo ello con base en lo aportado en el libro 'Generative Deep Learning: Teaching Machines to Paint, Write, Compose and Play' por David Foster.

En este artículo, y basado en la misma fuente, voy a dar un pequeño paso atrás para hacer una pregunta previa: ¿Cuál es el interés de los modelos generativos¿ ¿Por qué invertir en investigarlos y desarrollarlos?

La verdad es que, conseguir unos algoritmos capaces de crear o retocar imágenes y vídeos, textos y sonidos, e intuye que puede tener interés en muchísimos ámbitos y que no necesita demasiada justificación. ¿Y qué nos dice David Foster?

En realidad, a lo que Foster contesta en su obra no es tanto a por qué estudiar modelos generativos, qui quizá no ofrezca muchas dudas, sino por qué este tipo de algoritmos son la clave para conseguir una forma de inteligencia artificial más sofisticada. E identifica tres motivos:


  • Porque permite dar un paso más allá de la pura clasificación (habitual en soluciones basadas en aprendizaje supervisado) y avanzar en el entendimiento de cómo esos datos (imágenes, vídeos, música,...) fueron generados en su mismo origen.

  • Porque los avances en modelos generativos pueden ser nucleares en el desarrollo de otras áreas de la inteligencia artificial como el aprendizaje por refuerzo. En ese sentido menciona, a modo de ejemplo, la generación de contextos mediante modelos generativos para simulaciones que permitan entrenar, por ejemplo, a robots, sin la necesidad de contar con un entorno real.

  • Porque entiende que el desarrollo de una máquina capaz de exhibir una inteligencia comparable en alguna medida a la humana, debe incluir por la fuerza modelos generativos ya que las personas, de alguna forma, somos nosotros mismos modelos generativos.


Sea por esta o por otras razones, lo cierto es que el campo de los modelos generativos es tremendamente interesante desde un punto de vista técnico y es capaz de crear aplicaciones de la inteligencia artificial novedosas, sorprendentes y que parecen acercarnos, siquiera un poquito, siquiera un pasito, a máquinas con comportamientos más cercanos a una verdadera inteligencia.


viernes, 7 de mayo de 2021

Modelos generativos, autocodificadores variacionales y el ingenio humano

En el post anterior daba algunas ideas básicas de los modelos generativos de deep learning, unos modelos que permiten, por ejemplo, la creación de fotografías realistas de personas...que nunca han existido.

A pesar de que ya la inteligencia artificial nos había sorprendido con sus enormes capacidades en materia, por ejemplo, de tratamiento del lenguaje humano expresado por voz, la creación, aparentemente desde la nada, de una imagen, o un vídeo, o música, o texto, parece caer de lleno en la creatividad y la, digamos, 'verdadera inteligencia'. Y, a bote pronto, parece muy difícil imaginar cómo puede ser un algoritmo capaz de hacer eso.

Y, sin embargo, es posible, es lógico y, casi, casi, simple. Simple, por supuesto, en su idea base, que no en el desarrollo detallado de los algoritmos.

Alguna idea había ya en el artículo anterior pero en este post quiero ampliarlo y clarificarlo un poco más con el caso de los autocodificadores variacionales ('variational autoencoders') que encuentro muy bien descritos en el libro 'Generative Deep Learning: Teaching Machines to Paint, Write, Compose and Play' de David Foster.

Los autocodificadores variacionales son un tipo de redes neuronales compuestas de dos partes, casi dos redes neuronales por si mismas:

  • La red codificador: que toma un dato de entrada, típicamente una fotografía, es decir, un vector de muy alta dimensionalidad, y da como resultado un vector de mucha más baja dimensión que contiene, de alguna manera, ciertas características (bordes, ángulos, formas) que resumen y definen la imagen original. Un codificador que, en el caso de imágenes se suele basar en redes de convolución.

  • La red decodificador: que toma como entrada un vector de baja dimensionalidad, con las características que definen, según el ejemplo anterior, una fotografía. Y como salida, debe producir esa misma fotografía. Y un decodificador que, en el caso de imágenes, se suele basar en redes de convolución traspuestas.



Durante el entrenamiento, se busca que la diferencia (cuantificada mediante una función de pérdida) entre la fotografía de entrada y la fotografía de salida, sea lo menor posible. Si lo conseguimos, y lo cierto es que se consigue, tendremos un codificador capaz de captar las características esenciales de la fotografía y un decodificador capaz de construir una fotografía con base a esas características esenciales, una fotografía que, además, de alguna forma tiene el mismo estilo, la misma naturaleza que la original. Ese mismo estilo, esa misma naturaleza, expresado de forma matemática quiere decir que ambas fotografías, la de entrada y la de salida, responden a una misma distribución de probabilidad subyacente.

Vale, pero ¿y cómo se construye ahora una fotografía completamente nueva correspondiente a una persona, animal u objeto que no existe realmente y que la red no ha visto jamás?

Pues es casi sencillo: una vez que ya la red está entrenada, nos olvidamos del codificador y nos centramos en el decodificador. No tenemos más que ponerle como entrada a ese decodificador un vector de características, un vector que, ahora, podemos haber generado de manera absolutamente aleatoria.

Y... ¡voilá! el decodificador dará como resultado una fotografía realista, del mismos estilo y naturaleza (misma distribución de probabilidad subyacente) que las usadas en el entrenamiento... pero con un contenido completamente nuevo. 

¿No es ingenioso? ¿No es, si se me permite expresarlo así, 'una pasada'?

A mi, descubrir el mecanismo interno de los modelos generativos, me supone satisfacer una curiosidad intelectual y me ofrece un innegable interés técnico. Pero aparte de eso, me lleva a otro tipo de reflexión. 

Cuando vemos en funcionamiento los algoritmos de inteligencia artificial más sofisticados, más avanzados, nos quedamos con la sensación de estar ante una realidad casi autónoma y muy inteligente, pero lo cierto es que lo realmente inteligente no son esos algoritmos, sino lo que hay por detrás, la inteligencia humana de quien ideó y diseñó el algoritmo tan ingenioso como el comentado.

La inteligencia artificial, en ese sentido, si algo hace, es resaltar y enaltecer el propia inteligencia e ingenio humanos.


martes, 4 de mayo de 2021

Unas ideas muy preliminares sobre modelos generativos

Quizá una de las áreas más asombrosas de la inteligencia artificial actual sea el de las redes generativas, modelos matemáticos que permiten que, de una forma que parece casi mágica, un algoritmo pueda crear, por ejemplo, fotografías realistas, o vídeos, o textos, o música. a partir de 'la nada' en lo que parece como si hubiésemos alcanzado una suerte de creatividad en las máquinas.

Pero no es verdadera creatividad, son algoritmos.

Interesado en profundizar en el funcionamiento de este tipo de redes, he terminado recientemente la lectura del libro 'Generative Deep Learning: Teaching Machines to Paint, Write, Compose and Play' de David Foster, un magnífico libro, por cierto.

Al principio de esta obra, el autor nos define y explica las ideas básicas de los llamados modelos generativos y nos propone la siguiente definición.


A generative model describes how a dataset is generated in terms of a probabilistic model. By sampling from this model, we are able to generate new data.


La verdad es que así, 'soltada a bocajarro', no es una definición que se entienda demasiado bien, pero en las siguientes líneas y páginas sí que lo deja claro y utiliza para ello, inicialmente, el siguiente ejemplo:



supongamos que queremos un modelo capaz de generar fotografías de caballos de forma realista y disponemos, para entrenar ese modelo, de un conjunto de fotografías de caballos reales. Bueno, pues lo que hacemos es suponer que existe una distribución de probabilidad que explica por qué las imágenes del entrenamiento tienen unas altas probabilidades de ser caballos.  

A partir de esa hipótesis, los modelos generativos lo que hacen es, con base en los datos de entrenamiento, y ajustando parámetros durante un aprendizaje generalmente supervisado, deducir esa función de probabilidad. Y la función de probabilidad, una vez entrenada será, en el fondo, es el modelo generativo. Y lo es porque, una vez deducida, basta con muestrear esa distribución de probabilidad, elegir un valor cualquiera, para tener, en este caso, una fotografía realista de un caballo que, en realidad, no existe,

Parece magia, pero son algoritmos.

En futuros artículos contaré algo más de esta creatividad y esta magia que, en realidad, no son tales.


miércoles, 28 de abril de 2021

¿Se puede enseñar ética a un robot? Un sí con muchos peros...

En el post anterior, titulado 'Qué es una máquina ética y tres motivos para desarrollar robots éticos' hablaba del concepto de máquina ética y algunos motivos de alto nivel para acometer el desarrollo de máquinas o robots éticos. 

Me basaba para ello en la argumentación de Michael Anderson y Susan Leigh Anderson expresada en su artículo "Machine Ethics: Creating an Ethical Intelligent Agent" y que conocía a través de Sven Nyholm y su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'. 

En este post voy a prescindir de referencias externas y voy a intentar contestar en primera persona a la pregunta de si es posible enseñar ética a una máquina y, en concreto, a un robot. 


La investigación y el 'bote pronto'


Advierto, eso si, quizá en mi defensa y mi descargo, quizá sólo como expresión de libertad y honradez intelectual, que se trata de una contestación un poco 'a bote pronto', sin pensarlo demasiado, tal y como lo veo en este momento.

Desde hace unos meses estoy dedicando tiempo, bastante tiempo, a investigar y profundizar sobre inteligencia artificial y robots y también a las consideraciones humanísticas y éticas que rodean a estas máquinas avanzadas. 

Y lo hago desde una doble perspectiva: técnica y humana. 

Técnica porque me apasiona la tecnología (no en vano soy ingeniero y nunca me he arrepentido de ello) y porque creo que gran parte de la objetividad y sobre todo de la factibilidad de las propuestas viene de conocer, de la manera más profunda y realista posible, de qué estamos hablando realmente, dónde nos encontramos en tecnología y qué posibilidades se encuentran a nuestro alcance más allá de fantasías y narrativas.

Y humana porque también me interesa, que nadie piense lo contrario, porque persigo una visión amplia y porque si hablamos de ética hay que conocer los conceptos de ética y filosofía y también conviene estar al tanto de consideraciones legales y de contextos psicológicos, antropológicos y sociológicos.

Se trata de un viaje intelectual apasionante pero del cual creo encontrarme en el principio así que es posible que, con el tiempo, llegue a nuevos hallazgos o vea las cosas de distinta manera a como lo hago ahora.

Así que ésta es solo una valoración 'de urgencia' y provisional.

Y tras el preámbulo, vamos allá: ¿se puede enseñar ética a un robot?


La contestación básica: sí, posible, es posible


La contestación básica a la pregunta es que sí. Somos capaces de transmitir a las máquinas mucho conocimiento humano, muchas reglas de negocio, muchas directrices, muchos criterios, así que, a priori, también es posible hacerlo con la ética.

Es especialmente posible dado el desarrollo actual, y previsible desarrollo futuro, de la inteligencia artificial, que permite la implementación de algoritmos capaces de tratar no sólo con reglas explícitas sino también con algunas reglas o patrones implícitos que estos algoritmos avanzados son capaces de descubrir.

Y esa capacidad, ya muy notoria, creo que no hará otra cosa que aumentar y sofisticarse en los próximos años.

Así que si, tengo pocas dudas de que posible, lo que se dice posible, es posible enseñar ética a un robot.

Sin embargo, aun siendo posible, en mi opinión, enseñar ética a una máquina, a un robot, es muy importante que no caigamos en el optimismo ni en el malentendido, que la cosa no es tan 'bonita' como parece la afirmación desnuda. 

Ese sí que proclamo, viene muy limitado, muy condicionado y muy explicado por una larga serie de peros.

Vamos a ver cuatro peros.


Pero #1: ¿Qué significa que una máquina es ética?


Aunque hablé de esto en el artículo anterior, ahora quiero ser más explícito en algo muy, muy relevante para evitar la fantasía: ninguna máquina, ninguna, al menos ninguna de la que dispongamos de hoy día (ni creo que en un futuro cercano), es 'etica' en el sentido que podemos decirlo de una persona. 

Consideramos una máquina como ética si exhibe comportamientos que se ajustan a nuestra ética y nuestra moral. Comportamientos.

Es decir, externamente se comporta de forma ética pero eso no quiere en absoluto decir que tenga ningún tipo de conciencia, voluntad o buenos sentimientos que le impulsen a comportarse de esa manera ética. 

En absoluto.

Exhibe externamente unos comportamientos éticos que le hemos programado o enseñado. Los exhibe externamente. Y se los hemos enseñado nosotros. Se los hemos imprimido nosotros y los ha automatizado. No hay voluntad ni vida interior, sino automatismo y comportamiento.

Nada más, no nos confundamos en esto.


Pero #2: De la inteligencia artificial débil a la ética débil


Segundo ataque a la fantasía: Terminator no existe. Ni el héroe ni el villano. No existe una inteligencia artificial fuerte, de propósito general que ni de lejos se acerque hoy día a la capacidad para afrontar todo tipo de problemas y situaciones que tiene el ser humano. Ni de lejos.

La inteligencia artificial de que disponemos actualmente es la llamada inteligencia artificial débil, una inteligencia artificial concentrada en problemas concretos, no en un un propósito general. Es una inteligencia artificial sofisticada, maravillosa, asombrosa...pero de ámbito reducido.

Podemos conseguir, o al menos eso pienso yo, una máquina ética pero con una ética que, como el ámbito de aplicación de la máquina, robot o algoritmo, será reducida, como en el manido caso de la decisión que debe de tomar un vehículo autónomo ante un accidente mortal inevitable: un criterio que, caso de consensuarlo, aplica a condición autónoma y accidentes mortales, pero no para saber si está mal robarle a una ancianita. 

Por decirlo de alguna manera, podremos enseñar una ética débil, no por aplicar reglas poco exigentes, sino por hacerlo en ámbitos reducidos.


Pero #3 ¿Qué es enseñar a una máquina?


Este es un pero menor, más bien conceptual, pero que me parece conveniente aclararlo. Al hablar de enseñar a una máquina podemos tender a imaginarnos una versión antropomórfica de la enseñanza y, en este caso, de la enseñanza de la ética.

No, no se trata de que los robots asistan a unas clases en que se les hable de Aristóteles y sus virtudes, o del enfoque kantiano y el imperativo categórico o de la visión consecuencialista y que, a partir de ahí, el robot saque sus conclusiones y ya se comporte como un buen y virtuoso ciudadano.

Ni siquiera se trata de que el robot 'se empolle' el código legal vigente, lo entienda y lo aplique.

Nada de eso.

Un robot aprenderá como aprenden las máquinas hoy en día.

Si las reglas que tiene que aplicar son muy claras como la que sugiere que un voicebot o un chatbot se debe presentar como tal y no simular que es un humano, esa regla se podrá imprimir en el comportamiento del robot por pura programación tradicional, similar a las reglas de negocio que se aplican, por ejemplo, en el software de automatización de procesos de negocio o de juegos no muy avanzados.

Si se trata de comportamientos más complejos y no fácilmente compilables en reglas, lo aprenderá en general mediante el entrenamiento de sus algoritmos, probablemente de aprendizaje supervisado o por refuerzo, con base en datos, experiencia y feedback normalmente facilitado por parte de humanos.

Y es posible que ese aprendizaje se haya detenido cuando el robot se utilice ya por personas 'normales' más allá de los desarrolladores y científicos de datos y no siga aprendiendo por más que le intentemos dar consejos o indicaciones bienintencionadas de lo que debe hacer.

Así aprenden las máquinas hoy en día. No esperemos otra cosa.


Pero #4 ¿De qué ética hablamos? Una ética aún más débil


Y llega el momento de no 'echarle toda la culpa', o más bien, todas las limitaciones, a la tecnología y mirarnos a nosotros mismos, a los humanos, a nuestras limitaciones y nuestras contradicciones.

Porque, vamos a ver: ¿Qué ética queremos enseñar a los robots cuando tras 25 siglos de existencia de esta disciplina aún no hemos sido capaces de consensuar nosotros mismos unos valores y un sistema moral único?

No esta claro que, ni siquiera, la Declaración Universal de los Derechos Humanos sea aceptada de corazón por todos los países, todas las culturas y todas las personas. 

Ni siquiera parece valorarse por igual, en todas partes, la propia vida humana. 

Es también bastante divergente, por poner un ejemplo muy claro, la valoración que sobre la privacidad o la autonomía del individuo se hace en los países occidentales frente a la que se realiza en los orientales, muy en especial China. 

Y, ya que hablamos de robots, no existen referencias claras ni consensos claros en aspectos sobre si es lícita o no la amistad o las relaciones amorosas entre robots y personas. Aún no lo hemos estudiado lo suficiente o aún no nos hemos puesto de acuerdo, que para el caso es lo mismo.

¿Qué ética le vamos a enseñar entonces a los robots? ¿Qué reglas les vamos a programar? ¿Qué comportamientos deben valorar como adecuados para aprenderlos? ¿Qué datos, qué ejemplos y qué feedback les vamos a dar para que entrenen sus algoritmos?

Supongo que, de momento, no tenemos más remedio que ceñirnos a ámbitos acotados, donde podamos tener las ideas claras y criterios comunes. Unos ámbitos acotados bien a nivel regional, en zonas y culturas  como la Unión Europea con unos valores y una legislación razonablemente armonizadas y en claro desarrollo, y ámbitos acotados en aspectos en que tengamos una idea clara de qué consideramos ético y por por tanto que sepamos decirle de alguna forma al robot cómo hay que actuar.

Si al enfocar la posibilidad desde una visión técnica hablábamos de una inteligencia artificial débil, y por tanto de una ética débil, ahora tenemos que limitarnos aún más por nuestra propia falta de criterios y consensos... con lo que la ética que podemos enseñar a las máquinas es aún más débil.


Una observación: ¿Quién debe aprender la ética?


Antes de elevar las conclusiones del post quisiera hacer una observación que creo importante.

En este artículo hemos hablado de que las máquinas, los robots, aprendan reglas éticas.

Pero hay otra opción, mucho más a nuestro alcance a pesar de las contradicciones que nos aquejan: mientras conseguimos o no que los robots sean éticos, preocupémonos de ser éticos nosotros, y de  usar a los robots de una forma ética.

En ese planteamiento anulamos todas o casi todas las limitaciones técnicas puesto que seguimos nosotros, los humanos, al mando.

Con ello ya sólo nos quedan nuestras propias decisiones y nuestros valores, sí, pero también nuestras faltas de criterio y consenso.

¿Seremos capaces de superarlas?


En conclusión


En conclusión, si, es posible enseñarle ética a una máquina, pero en ámbitos acotados, muy acotados tal vez y siempre que sepamos traducir esos criterios morales en alguna forma de reglas que podamos programar o ejemplos que podamos suministrar a los robots para que aprendan.

Mientras lo conseguimos, a lo mejor, el desafío es ser éticos nosotros, los humanos.

Queda, en cualquier caso, mucho, muchísimo, por hacer. En lo técnico, en lo ético y en lo legal.

El camino se promete apasionante.

 

lunes, 26 de abril de 2021

Qué es una máquina ética y tres motivos para desarrollar robots éticos

Cuando hablamos de ética en el contexto de la Inteligencia Artificial y, sobre todo, de la robótica, en ocasiones hablamos de un código ético para, por ejemplo, los ingenieros o desarrolladores, un código ético que implique diseñar unos algoritmos y máquinas ajustadas a nuestros valores y concepciones morales.

En otras ocasiones, hablamos más de un uso ético de la tecnología como cuando pensamos en limitar las armas autónomas  

Pero existe al menos una tercera vertiente, ligeramente diferente de las anteriores que es cuando lo que pretendemos es que las propias máquinas o algoritmos tengan un comportamiento ético, un planteamiento que gana más sentido cuando pensamos en máquinas muy avanzadas con crecientes capacidades, sofisticación, y sobre todo, autonomía como la de los robots más avanzados existentes o con posibilidad de existir en un futuro no muy lejano.

Y, en ese sentido, podríamos hablar de una máquina ética. Ahora bien ¿Qué entendemos por una máquina ética? Existe una definición debida a Michael Anderson y Susan Leigh Anderson expresada en su artículo "Machine Ethics: Creating an Ethical Intelligent Agent" y que llega hasta mi a través de Sven Nyholm y su libro 'Humans and Robots: Ethics, Agency, and Anthropomorphism'. 

Esta es la definición:


a machine that itself follows an ideal ethical principle or set of principles; that is to say, it is guided by this principle or those principles in decisiones it makes about possible courses of action it could take.


Es decir, una máquina que, de alguna forma, sea consciente de unos principios éticos y se atenga a ellos. Aunque parece que, con independencia de su viabilidad, de la cual a lo mejor hablo en otro artículo, tiene sentido como aspiración este tipo de máquinas éticas, me ha parecido interesante traer aquí los tres motivos que los autores aportan para el desarrollo de máquinas éticas y, más en concreto, robots éticos. Son estas tres:


  • Porque existe lo que llaman 'ramificaciones éticas' en el comportamiento de los robots, es decir, que los robots pueden tanto ayudar como hacer daño, tanto producir resultados positivos como negativos y por tanto, parece aconsejable que se atengan a criterios éticos.

  • Porque la construcción de robots que sigan principios éticos ayudaría a mitigar la preocupación de la personas acerca de las máquinas autónomas.

  • Y, quizá el argumento más interesante, al menos intelectualmente, porque el intento de construir robots éticos nos puede ayudar a comprender mejor el propio comportamiento humano.


La verdad es que se trata de tres argumentos muy diferentes. El primero más práctico y más cercano, en cierto modo, al razonamiento técnico e incluso legal. El segundo es una especie de 'gestión del cambio' una forma de promover la aceptación de los robots. El último, en fin, es el más filosófico o más humanístico, si se prefiere.

Los tres me parecen correctos, los tres interesantes, y con los tres estoy de acuerdo aunque, eso sí, se trate de unos planteamientos más de alto nivel y de intenciones que de aplicación directa. La dificultad estriba, en realidad, en llevar estas ideas a la práctica.

Seguiremos con ello.


domingo, 25 de abril de 2021

Mi actividad: Webinar sobre 'Ética y Robótica social' con Liliana Acosta en el Canal 'La Thinker Soul'

El pasado Jueves 22 de Abril, y accediendo a la amable invitación de Liliana Acosta, 'la thinker soul', compartí escenario virtual con ella hablando de ética y robótica social en un diálogo en que se aúna la visión filosófica y la tecnológica.

Una experiencia que para mí resultó a un tiempo, interesante y entretenida. Además, y aunque ya he realizado y participado en varios webinar de diferentes temáticas, era la primera vez que lo hacía en formato diálogo.

Pero lo más importante es que espero que, aunque de forma modesta, este webinar contribuya a entender un poco mejor qué son los robots, qué es la robótica social, los retos éticos a superar y las posibilidades de impacto social. 

Puedes encontrar el vídeo del webinar en el Canal YouTube de La Thinker Soul o en su vblog pero también te lo dejo aquí mismo.




Una gran experiencia, que espero repetir, como también espero seguir trabajando y divulgando sobre diferentes aspectos de la robótica, incluyendo, por su puesto, su vertiente ética.