viernes, 29 de octubre de 2021

Cómo ejecutar proyectos de Inteligencia Artificial con Jaume Miralles

'Proyectos de inteligencia artificial' ofrece una visión de la inteligencia artificial muy real y casi, casi, de uso común, porque refleja en el fondo el día a día en las empresas que implementan soluciones de inteligencia artificial, pero al tiempo una visión original porque, paradójicamente, está visión tan pegada a tierra, está muy poco presente en la abundante literatura especializada, y no tan especializada, que aborda el amplio campo de la inteligencia artificial. En concreto, este libro no se centra en la tecnología, fundamentos, casos de uso o implicaciones de la inteligencia artificial sino en la implementación real de capacidades y soluciones de inteligencia artificial en la empresa, es decir, en cómo llevar a cabo realmente iniciativas y proyectos de inteligencia artificial

El libro se estructura en diez capítulos, como sigue:
  • '1. Proyectos de Inteligencia Artificial': Comienza analizando el estado, barreras y retos para la adopción de la inteligencia artificial en la empresa. Luego aclara brevemente lo que es un proyecto de inteligencia artificial, destacando la importancia de operacionalizar los modelos de machine learning / deep learning. Y, finalmente, hace una distinción entre lo que son capacidades de Inteligencia Artificial y lo que son aplicaciones, explicando brevemente cada una de ellas así como los sistemas cognitivos.

  • '2. Estructura primaria de un proyecto IA': Hace primero una clasificación de los proyectos de inteligencia artificial en una matriz bidimensional, donde en una dimensión se muestra si hablamos de una capacidad o una aplicación y en la otra si el proyecto trata de hacer un desarrollo o un despliegue /operacionalización de un modelo. Luego comenta las principales actividades o fases en un proyecto de capacidades de IA. A continuación dedica un amplioespacio a hablar de los datos, abordando temas como el tipo, consistencia, etiquetado, sesgos etc. Y finaliza considerando los tipos de despliegue posibles (capacidad como módulo de una aplicación, capacidad como servicio web, capacidad batch y capacidad para datos en streaming).

  • '3. Enfoque metodológico': Primero explica algunos marcos metodológicos generales, como Design Thinking y Agile y alguno específico del campo de la Inteligencia Artificial como CRISP-DM. Y luego mira algo más hacia la operación, hablando de DevOps (de nuevo, un enfoque genérico) y cómo se traslada al campo del Machine Learning convirtiéndose en MLOps.

  • '4. Mejores prácticas': Desgrana una serie de buenas prácticas que incluyen la anticipación, la reutilización, la automatización mediante AutoML, las pruebas de regresión, el reentrenamiento de modelos, etc

  • '5. Recursos materiales': Un corto capítulo que, en realidad, sirve a modo de introducción a los capítulos siguientes que se centran en recursos.

  • '6. Infraestructura': Capítulo dedicado a la infraestructura hardware y software. Comienza identificando los atributos clave en la utilización de infraestructuras (localización, virtualización y mdelo de gestión). Luego afronta el almacenamiento y la computación y acaba revisando la oferta existente en materia de procesadores y sistemas.

  • '7. Frameworks y lenguajes de programación para IA': Habla primero de los lenguajes de programación ofreciendo algunas gráficas comparativas en cuanto a su mayor o menor utilización. Luego pasa revista a librerías usadas en machine learning revisando librerías para Python y R. A continuación visiita brevemente Spark y finaliza con una breve revisión de frameworks de deep learning.

  • '8. Herramientas': Realiza un amplio recorrido por diversas herramientas, empezando por las de modelado de datos, incluyendo el acceso a datasets públicos y siguiendo por herramientas para el despliegue y ejecución de modelos. Se explican las ideas principales y se mencionan herramientas concretas de mercado.

  • '9. Mercado de plataformas de IA en cloud (AIaaS)': Siguiendo con la orientación al mercado, en este capítulo se repasan las plataformas y servicios en la nube empezando primero por sus características generales y siguiendo por un breve recorrido por plataformas como Amazon Web Services ML Stack, Microsoft Azure AI Platform, Google Cloud AI Platform e IBM Watson Data & AI Platform

  • '10. Recursos humanos': Finaliza el libro con una mirada hacias las personas y recursos humanos. Se revisan ampliamente los perfiles específicos para proyectos de Inteligencia Artificial, se identifican algunas fuentes posibles de talento y se finaliza con una visión organizativa de la IA en la empresa.
'Proyectos de inteligencia artificial' es un libro realista, muy correcto, ilustrativo, útil y muy oportuno, porque contribuye a llenar llena un importante vacío de conocimiento en la literatura sobre inteligencia artificial: el de su implementación real.

Jaume Miralles Solé

(Fuente: Ligera elaboración propia de la biografía en su sitio oficial)

Jaume Miralles Solé
Jaume Miralles es un consultor TIC que, en 2016, descubrió su pasión por la Inteligencia Artificial, cuando pasó a trabajar para la unidad de IBM Watson y dejó atrás unos cuantos años de proyectos de implantación de soluciones TIC.

Desde entonces su día a día consiste en entender, apoyar y transmitir a colegas, colaboradores y clientes las ventajas competitivas que proporciona la IA en cualquier ámbito e industria. Adicionalmente, también colabora en diversos programas formativos de postgrado relacionados con la IA, lo que, unido a su actividad habitual, le obliga a estar muy al día en las mejores prácticas, las novedades y las tendencias tecnológicas del ámbito de IA empresarial.

En la actualidad es Líder de la práctica de Customer Data Platforms (España) en IBM iX.

Jaume Miralles es Ingeniero Electrónico por la Universidad Ramón Llul y es autor del libro 'Proyectos de Inteligencia Artificial'.

Puedes saber más del autor, visitando su página oficial, consultando su perfil en LinkedIn o siguiéndole en Twitter donde se identifica como @jaumemiralles.

Ficha técnica:

EDITORIAL: Autoeditado
AÑO: 2021o 
ISBN: 978-1661199456
PAGINAS: 239

Artículos de este blog relacionados

miércoles, 27 de octubre de 2021

2.000 posts

Este pasado Lunes, el 25 de Octubre de 2021, publicaba en este blog, Blue Chip, mi post número 2.000. O lo que es lo mismo, este post que ahora lees, es el 2.001.

2.000 posts, nada más y nada menos.


El nacimiento de Blue Chip


Este blog lo inicié el 22 de Enero de 2009 con una entrada muy breve, sólo por si algún despistado, de manera inexplicable, llegaba hasta él. El artículo se titulaba, simplemente, 'Estoy fabricando el chip...'. 

El segundo artículo, titulado 'Apostando sobre el futuro de Twitter y el microblogging' apareció el 31 de Enero de 2009 y era en realidad un artículo rescatado de otro de mis blogs, 'La vida de color azul' y en el que realizaba una apuesta que el tiempo ha demostrado que estaba profundamente equivocada... ¡qué le vamos a hacer!. Y ese mismo día, el mismo 31 de Enero, publicaba un post fundacional, 'A modo de presentación: ¿ Qué es un 'blue chip' ?' donde explicaba mis intenciones con el blog.


Blue Chip en números


Desde entonces, desde ese 22 de Enero de 2009, hasta el pasado 25 de Octubre de2021, han transcurrido, si no me he equivocado al hacer las cuentas, 4.660 días. Es decir, he publicado 2.000 posts en 4.600 días, lo cual supone un artículo cada 2,33 días, o, si se prefiere, 3,00 artículos a la semana... y así durante cerca de trece años.

Y sin visos de que vaya a abandonar ni frenar el ritmo.

No está mal. Nada mal.

Pero ¿por qué ese esfuerzo? ¿por qué esa dedicación?


Aprendizaje y marca personal


Por un lado, quizá fundamentalmente, me gusta escribir. Así de simple. Y un blog es una manera relativamente sencilla, relativamente simple, relativamente ligera, de escribir, de comunicar conceptos, ideas, opiniones.

Pero además, Blue Chip juega para mi también un papel muy importante en dos sentidos: aprendizaje y marca personal.

Juega un papel como reflexión y aprendizaje porque elaborar un artículo, generar contenidos sobre aquello que leo, sobre aquello que experimento o sobre aquello en que pienso, ayuda, y mucho, a estructurar el pensamiento, a fijar ideas... a aprender, en el fondo.

Y juega un papel muy importante como marca personal porque, a través de él muestro mis conocimientos, mis inquietudes, mis capacidades y mis actividades de carácter profesional y usando una herramienta, el blog, que pese a que antes decía que como escritura es relativamente ligera, no deja de ser un medio social mucho más complejo, de mucho más mérit,o que un Twitter o un Instagram por poner un par de ejemplos.

Poco a poco, y con el apoyo, eso sí, de mi presencia en otros medios, especialmente LinkedIn, este blog me ha hecho llegar a gran cantidad de personas y ser conocido por muchas personas que no hubiera podido ni soñar sin el concurso de esta herramienta.

Cada vez con más frecuencia, hablo con profesionales que me hacen referencia a este blog, y me dicen que lo consideran muy interesante, y que lo siguen...y eso me produce una honda satisfacción personal...pero también demuestra su papel como escaparate, un escaparate muy trabajado, eso sí, un escaparate muy vocaciones, eso también, pero un escaparate. Marca personal.


Temáticas


A lo largo de su ya larga trayectoria, en Blue Chip he hablado de muchos temas, todos aquellos que me han interesado desde un punto de vista profesional y sobre los que he leído. Como, aparte del tiempo transcurrido, soy persona de intereses muy amplios, la temática de este blog es también bastante variada. 

En los últimos tiempos ocupan mucho espacio, por ejemplo, todo lo relativo a inteligencia artificial, robótica e interacción robots-personas. Pero en otros momentos han tenido cabida muchos artículos sobre todo tipo de tecnologías digitales, sobre transformación digital, o sobre social media, por mencionar algunos.

También ha habido artículos sobre gestión de procesos de negocio, sobre marketing, sobre estrategia, sobre innovación, sobre modelos de negocio, sobre macroeconomía, sobre todos los elementos, en fin, del 'management' y de la dirección de empresas.

Pero no sólo he hablado de disciplinas más 'duras', también me he ocupado y mucho, de algunas 'softskills' como comunicación o liderazgo.

Y me gusta así: un blog variado, con visión amplia, abarcadora, integradora. Y me gusta así porque, en el fondo, creo que yo soy así, y aspiro a esa visión amplia e integradora.

Así ha sido Blue Chip hasta ahora y así seguirá siendo Blue Chip en el futuro: amplio e integrador. Los temas que más pesen en los posts en un momento dado variarán, pero ese carácter curioso y de visión amplia, no creo. Seguro que no.


Conclusión


Así que el post 2.000 ha sido sólo un punto seguido. Casi ni eso. Casi sólo una coma.

A partir de ahora seguimos.

Este es el post 2.001.

Y el Viernes 29, Dios mediante, publicaré el 2.002... y el Lunes 1 de Noviembre el 2.003... y así sucesivamente y sin solución de continuidad.

¿Me sigues?


lunes, 25 de octubre de 2021

La robotización inevitable

Esto es sólo una opinión. No tengo informes que lo respalden ni puedo alegar un proceso de deducción completamente racional. Se basa sólo lo que veo y en mi propia intuición.

Y lo que creo es que la robotización es inevitable.

¿A qué me refiero? 


La robotización que ya está llegando


Pues simplemente, a que pienso que desde ya (en realidad desde hace un tiempo) y durante los próximos años, nuestra sociedad, viene experimentando y va a experimentar de una forma acelerada, una creciente presencia de robots o dispositivos más o menos robóticos. Y creo que eso va a ocurrir no solo en el tejido industrial o productivo, cosa a la que ya estamos más acostumbrados, sino también en el entorno doméstico.

Esta afirmación puede parece fantasiosa si cuando nos referimos a robots estamos pensando exclusivamente en robots humanoides avanzados. Y ese escenario, aunque no lo descarto al cien por cien, sí me parece algo más lejano e incierto. Los robots humanoides actuales son caros, de una utilidad todavía limitada si se compara con las expectativas que levantan, y eventualmente (que no seguro) sometidos a sospecha o rechazo por parte del público general.

No no estoy pensando específicamente en robots humanoides, aunque no los excluyo, sino en formas más simples de robots.

Estoy pensando, por ejemplo, en que nuestras propias Apps, nuestros propios sistemas de atención a cliente en web o por teléfono, ofrecen cada vez mayores capacidades robóticas de relación mediante uso de lenguaje natural, cada vez más avanzado y voz, y que, incluso, llegan a mostrarse como avatares avanzados con aspecto muy humano. 

Estoy pensando en que la evolución de los altavoces inteligentes tipo Alexa, hacia formas sencillas de robot sociales, cosa que se podría lograr con alguna forma sencilla de expresión 'facial' (pequeños ojos y bocas digitales, por ejemplo), con detección de sentimientos o con cierta movilidad, como, por cierto, el propio Amazon ha introducido recientemente, con su robot Astro.

Estoy pensando en una posible evolución de los robots-aspiradora que, de forma similar a lo mencionado para los altavoces inteligentes, se dotasen de unas mayores capacidades de interacción social, cosa que, desde un punto de vista tecnológico, es absolutamente viable.

Estoy pensando en que técnicamente es perfectamente viable, convertir a ciertos electrodomésticos en robots simples, con capacidad para relacionarse con los humanos de viva voz y con cierta expresividad incluso emocional.

Estoy pensando en que, con independencia de cuándo se masifique el uso de vehículo autónomo (un robot en toda regla, por cierto), los coches actuales ya tienen, cada vez más, mecanismos robóticos de ejecución automática de tareas como el aparcamiento y la comunicación de viva voz (y eventualmente usando displays) con el conductor, usando mecanismos sociales de interacción.

Es decir, estoy pensando en que cada vez más y más dispositivos y más y más aplicaciones se podrán comunicar y se comunicarán con las personas mediante el lenguaje natural y la voz y que detectarán y expresarán no solo ideas sino también emociones.

Y a eso se unirá la capacidad de automatización de tareas mediante una incorporación creciente de sensores más o menos genéricos (cámaras o micrófonos) con otros más específicos como los wearables u otros provenientes de campos como la inmótica o Internet de las Cosas, unidos a algunos actuadores inmóticos y a las capacidades de integración con sistemas y servicios, por ejemplo mediante APIs REST, que cada vez más se encontrarán en la nube.

Y, en algunos casos, quizá de forma no tan generalizada como lo anterior, se le unirá el movimiento, un movimiento cada vez más autónomo y cada vez más capaz de desenvolverse en entornos cambiantes.


La robotización que viene


Y la conjunción de capacidad sensora y capacidad de actuación, capacidad de movimiento autónomo, capacidad de integración y capacidad de relación social con los humanos, nos lleva a unos robots en toda regla.

Y creo que todo ese tipo de dispositivos y soluciones van a crecer y crecer. Crecer porque son viables técnicamente, crecer porque son atractivos y útiles para el público y crecer porque en muchos casos aportan eficiencia y lógica económica. Y creo que ahora mismo el límite está más en la viabilidad económica y comercial de cada caso de uso concretos y en el riesgo que las diferentes empresas capacitadas para lanzar este tipo de soluciones al mercado quieran asumir hasta encontrar las famosas 'killer app' que hagan estallar, en positivo, el mercado de estos dispositivos y soluciones robóticas. 

Pero no tengo duda de que va a suceder. Aún más, no tengo duda de que ya está sucediendo. De forma casi inadvertida pero rápida. Estoy convencido de que si dentro de unos años, no muchos, nos paramos a pensarlo, vamos a ver que estamos rodeados de robots o dispositivos más o menos robóticos. Quizá no humanoides, quizá no robots de película, pero robots al fin y al cabo.


Implicaciones éticas de una robotización inevitable


Leyendo hace unos días el último libro de  Idoia Salazar y Richard Benjamins, el titulado 'El algoritmo y yo' me encontraba un pequeño comentario de José Ignacio Latorre quien decía.


La defensa de sentirse humano es natural, pero ilusa si atendemos a nuestra propia historia. Es más que probable que la convivencia entre máquinas y humanos será un hecho ineludible.


Y creo que la opinión de alguien autorizado refuerza mi propia opinión: la convivencia de humanos y máquinas es inevitable. La robotización es inevitable.

Pero en el contexto en que esto afirmaba José Ignacio Latorre, hay otra connotación relevante que tiene que ver con nuestra relación con los robots y la ética de esas máquinas y esas relaciones.

A veces, parece que la posición ética de algunos sectores, tendería a la prohibición, a evitar que este tipo de máquinas que a veces intimidan o incluso asustan, siquiera existan. Eso, simplemente, no es realista. O al menos yo estoy convencido de que no lo es.

La robotización es inevitable. Al menos eso creo yo.

Así que, si queremos adoptar posiciones éticas, éstas deben ser realistas y asumir que los robots van a existir, que su capacidad para comunicarse con los humanos va a existir, que su capacidad para detectar, gestionar y simular emociones humanas va a existir. Y por supuesto, que su capacidad para automatizar tareas, y tareas cada vez más complejas desde un punto de vista tanto mecánico como cognitivo, va a existir.

Las posiciones éticas, pues, no pueden llevar a la prohibición, salvo quizá de situaciones extremas, sino a una convivencia razonable y centrada en el bienestar de todo tipo de las personas.


Conclusión


Si la robotización es inevitable, lo que debemos hacer es aprender a convivir con ella y a moldearla a nuestro favor.


viernes, 22 de octubre de 2021

Los robots como una nueva raza según Kate Darling

'The new breed' pese a que el título no lo haga evidente, habla sobre robots y sobre la relación entre robots y personas, una relación que la autora defiende, como tesis principal del libro, que debe parecerse más a la que mantenemos con animales, con nuestras mascotas, que los otros dos extremos posibles tratarlos como una mera cosa o tratarlos como a un ser humano. En ese sentido, habla de una nueva raza que es lo que justifica el título, aunque el subtítulo 'What Our History with Animals Reveals about Our Future with Robots' resulta más revelador.

El libro se inicia con 'Introduction' donde comienza cuenta una visita a las instalaciones de Audi, la empresa de automóviles que estaba lanzando una iniciativa para investigar cuestiones sociales relacionadas con la Inteligencia Artificial. A partir de ahí realiza alguna reflexión acerca de la evolución de la robótica y hace un planteamiento del libro.

Le sigue otra suerte de introducción titulada 'What is a robot anyway?' donde razona sobre alguna forma de definir lo que es un robot aunque al final renuncia a dar una definición propiamente dicha.

A partir de ahí desarrolla el cuerpo del libro propiamente dicho que se componen de diez capítulos agrupados en tres partes, como sigue:
  • 'I. WORK, WEAPONRY, RESPONSIBILITY': Una primera parte en que compara las relaciones con animales y robots en temas como el trabajo, la guerra o ante la ley.
    • '1. Workers, Trained and Engineered': Comienza revisando brevemente cómo hemos usado a los animales para ayudarnos en diversas actividades para concentrarse luego en el empleo de robots en diferentes tareas como el trabajo o el armamento y cómo se comparan los robots con los humanos en esas labores. También revisa el empleo de dispositivos artificiales como una extensión de nosotros mismos.

    • '2. Integrationg the New Breed': Analiza la interacción con los robots, señalando que la inteligencia artificial y la humana son diferentes, apostando por un modelo de complemento más que de sustitución, y analizando algún elemento complementario como el diseño de los robots o de los espacios urbanos y compartidos.

    • '3. Trespasers: Assigning Responsibility For Autonomous Decisiones': Comienza hablando de accidentes y posible daño físico generado por máquinas. Luego revisa cómo se ha tratado desde un punto de vista normativo el daño generado por animales y otro tipo de regulaciones con ellos relacionadas e incluso, en algunos casos, los juicios realizados a lo largo de la historia a animales. Con esa base ya salta a analizar la posibilidad de regulaciones sobre robots, la controvertida personalidad electrónica, el riesgo de dejarnos llevar por una visión demasiado humana en la regulación de robots, etc.

  • 'II. COMPANIONSHIP': Entra ya en algo más sensible, como es la compañía, ya sea de animales o robots.
    • '4. Robots versus Toasters': Analiza los vínculos emocionales establecidos con los robots, la problemática de la antropomorfización y la influencia que tiene en esa visión el dotar de movimiento a los entes artificiales. Habla también del diseño inspirado en la biología y el impacto que genera y se detiene luego en el diseño específico de robots sociales resaltando que no es preciso dotarles de un aspecto excesivamente humano, que basta con dar simples pistas que les hagan ser interpretados de forma antropomórfica por nosotros, las personas.

    • '5. (Hu)man's Best Friends: The History Of Companion Animals': Vuelve a centrarse en los animales, ahora enfocando al asunto de la compañía. Primero hace un recorrido histórico por el uso de mascotas. Luego muestra cómo la antropomorfización se aplica también a los animales, no solo a los robots, y toca también el llamado 'diseño' de animales mediante cruces. Y finaliza con el uso de animales en atención de salud y educación.

    • '6. A New Category Relationship': Y ahora se centra en las relaciones robots-personas. Tras comentar el ejemplo de PARO, el pequeño robot-foca, argumenta que deberíamos ver a los robots como un complemento, no un sustituto de humanos y lo traslada al caso, al igual que hizo con los animales, de la atención en salud y la educación. Sigue con una comparativa explícita de robots y animales como compañía, comenta el nivel de reciprocidad en las relaciones con robots y animales y finaliza con una cierta llamada al realismo, a reconocer que la antropomorfización es inevitable y que trataremos siempre a los robots como si fuesen seres vivos.

    • '7. The Real Issues with Robot Companionship': Analiza las problemáticas que puede traer consigo las relaciones con robots como compañeros comentando problemas como la coerción, el sesgo en el diseño o la privacidad. Pero a la hora de corregir problemáticas, sugiere no culpar a los robots de esas problemáticas sino afrontar los problemas en su cojunto.

  • 'VIOLENCE, EMPATHY AND RIGHTS': Finaliza con aspectos también emocionales o personales pero quizá más profundos o polémicos: la violencia con robots, la empatía y los derechos.
    • '8. Western Animal and Robot Rights Theories': Analiza la posibilidad de que los robots sean sujetos de derecho y también el caso de los animales y sugiere un enfoque indirecto destacando que, de alguna manera, aunque los robots no tengan sentimientos, nosotros los tenemos por ellos y, que vale la pena adjudicarles algunos derechos, pero no tanto por ellos, como por nosotros mismos.

    • '9. Free Willy: Western Animal Rights in Practice': Revisa la legislación y otro tipo de normativas y consideraciones aplicada a animales en occidente.

    • '10. Don't Kick The Robot': Analiza el caso del maltrato a robots y cómo eso dispara nuestros propios sentimientos de rechazo. También comenta los debates en torno a robots sexuales. Argumenta que la empatía que sentimos por los robots es muy reveladora, en positivo, en cuanto a nuestra propia psicología y defiende que en nuestro trato con los robots podamos prescindir hasta cierto punto de una completa racionalidad, y dejarnos llevar parcialmente por nuestros sentimientos.

  • Acaba con unas reflexiones finales, contenidas en 'Final thoughts'. Muestra el notable crecimiento de la planta de robots existentes y argumenta que los robots formarán parte de nuestras vidas y que además, contribuirán a que aprendamos sobre nosotros mismos. Y finaliza defendiendo una visión positiva en que no sucumbamos al pánico a los robots pero que tampoco lo hagamos ante narrativas deterministas y que seamos conscientes de que el futuro lo construimos nosotros.
'The new breed' es un libro interesante y fácil de leer que, como muchos libros de autores norteamericanos, emplea la narración y el 'storytelling' intentando hacer más atractivos y digeribles los contenidos y que, aunque en mucho de su desarrollo utiliza ideas más o menos generalizadas en el campo de las relaciones robots-personas, sí es original en cuanto a esa propuesta de igualar a los robots de alguna manera, a los animales, un estatus superior al de una mera cosa pero sin tratarlos como iguales, como humanos. Y, en ese sentido, reconocer que tendremos relaciones con robots que implicarán emociones y que puede ser lógico concederles ciertos derechos, pero sin que eso les iguale a un ser humano.

 

Kate Darling

(Fuente: Traducción y ligera elaboración propia de la biografía en su página oficial)

Kate Darling
La doctora Kate Darling es una experta destacada en ética de robots. Es investigadora en el Massachusetts Institute of Technology (MIT) Media Lab, donde investiga la robótica social y dirige experimentos conductuales en materia de human-robot interaction. Kate explora la conexión emocional entre personas y máquinas similares a seres vivos, buscando influir en el diseño de la tecnología y la dirección de las políticas al respecto. Sus escritos e investigación anticipan cuestiones complejas que los juristas, ingenieros y el público en general, necesitan acometer a medida que las relaciones robots-personas de desarrollan en las décadas venideras.

Interesada desde siempre en cómo la tecnología se cruza con la sociedad, Kate tiene formación en leyes, economía y propiedad intelectual. Ha investigado los incentivos económicos en sistemas de patentes y copyright y ha tenido un papel relevante como experta en propiedad intelectual en múltiples instituciones privadas y académicas. Actualmente actúa como consejera en políticas de propiedad intelectual del director del MIT Media Lab.

Su pasión por la tecnología y los robots la han conducido a campos interdisciplinares. Tras compartir docencia sobre ética de robots con el profesor Lawrence Lessing en la Harvard Law School, empezó a trabajar en la intersercción entre ley y robots, con el foco puesto en las problemáticas legales y sociales. Kate es una antigua socia del Harvard Berkman Klein Center for Internet & Society y del Yale Information Society Project, y también se encuentra afiliada al Institute for Ethics and Emerging Technologies.

El trabajo de Kate ha sido presentado en Vogue, The New Yorker, The Guardian, BBC, NPR, PBS, The Boston Globe, Forbes, CBC, WIRED, Boston Magazine, The Atlantic, Slate, Die Zeit, The Japan Times y muchos otros medios. Es contribuidora de Robohub e IEEE Spectrum y actualmente imparte charlas y talleres tratando algunos de los desarrollos más interesantes en el mundo de la robótica y dónde nos podemos encontrar en el futuro.

Kate se graduó y doctoró con honores en la escuela de leyes del Swiss Federal Institute of Technology (ETH Zurich) y tiene un doctorado honorario en ciencias por el Middlebury College. En 2017, la American Bar Association la distinguió con por su trabajo legal con el Mark T. Banner award in Intellectual Property.

Es la cuidadora de varios robots domésticos, incluyendo sus Pleos Yochai y Mr. Spaghetti.

Puedes saber más de la autora, visitando su página oficial, consultando su perfil en LinkedIn (aunque lo usa poco) o siguiéndola en Twitter donde se identifica como @grok_.

Ficha técnica:

miércoles, 20 de octubre de 2021

La equívoca relación de inteligencia artificial y datos: cinco mitos comunes

En el post de hace un par de días, titulado 'Privacidad versus donación de datos, un equilibrio ético' mencionaba de pasada una presunta íntima relación entre inteligencia artificial y datos, una relación que calificaba de equívoca.

En realidad esa relación no es equívoca en sí misma. Lo que es equívoca es la comunicación al respecto que con frecuencia se puede observar en artículos, blogs, tuits, ponencias etc. 

Esa relación equívoca, esa comunicación equívoca en realidad, se sustancia en una casi identificación (a veces sin el casi) de tratamiento de datos, big data e inteligencia artificial, como si fuesen lo mismo, como si una disciplina , tecnología o actividad, no pudiese existir sin la otra.

A pesar de la frecuencia de esa identificación, es profundamente incorrecta. Y no sé si el origen de esa confusión está en la pura ignorancia, en la retransmisión acrítica de ideas de terceros o, en algún caso, incluso el interés por confundir las cosas, por perpetuar un estado de comprensión superficial e inexacto de la realidad tecnológica.

Para que quede claro: inteligencia artificial es una cosa, big data otra y el tratamiento de datos otra y, aunque pueden converger (y converjan, de hecho) en muchos usos y aplicaciones, no son lo mismo y pueden existir cada una de las tres sin la concurrencia de las otras dos.

Una explicación completa puede ser muy larga, pero sí me voy a concentrar en intentar desmontar algunos mitos, o al menos dar pistas para hacerlo tras reflexión y estudio posteriores por parte del lector.


Mito 1: la inteligencia artificial necesita datos


Con frecuencia se traslada la imagen de que los algoritmos de inteligencia artificial necesitan datos, necesitan muchos datos. Y los necesitan de forma obligatoria e imperiosa. 

Bueno, esto no es cierto del todo. Sólo a veces.

La inteligencia artificial acoge en su seno un conjunto muy amplio y muy variado de algoritmos. Insisto, muy amplio y muy variado. Poco tiene que ver un algoritmo de búsqueda, con uno de planificación. con una red neuronal, con un K-means, con un SVF. Muy poco realmente. 

Y si, algunos de estos algoritmos, quizá los más exitosos y populares de los últimos años, necesitan datos, muchos datos para ser entrenados. Pero existen otros algoritmos, perfectamente útiles dentro del campo de la inteligencia artificial, que no son especialmente demandantes de datos. En general, y tampoco conviene tomar esto de forma absoluta, precisan de datos los algoritmos que se incluyen dentro del campo del machine learning. Pero, otros algoritmos, por ejemplo los que caen dentro de la inteligencia artificial simbólica, o de la lógica, no precisan especialmente de datos.

Más aún, aquellos algoritmos que precisan de datos, los necesitan normalmente durante su etapa de entrenamiento, pero no una vez ya están en producción. Si nosotros, como empresa final, usamos un algoritmo entrenado por, digamos, Google, Microsoft, IBM o Amazon, por ejemplo en el campo del procesamiento del lenguaje natural o del OCR, un algoritmo ya entrenado insisto, nosotros no necesitamos especialmente datos, salvo que lo queramos re-entrenar al algoritmo cosa que con frecuencia no tendría mucho sentido.  Si lo usamos tal cual es, no necesitamos datos. Lo usamos y ya está,

Así que si, la inteligencia artificial a veces necesita datos, a veces muchos o muchísimos datos. Pero no siempre. Y no siempre dependiendo del tipo de algoritmo y en que fase de su ciclo de vida lo usemos. No hay, por tanto, identificación de inteligencia artificial con necesidad de datos.


Mito 2: la inteligencia artificial necesita muchos datos. Cuantos más, mejor.


Aparte del hecho de precisar datos, se suele hablar de cantidades gigantescas de datos. De nuevo, esto necesita matizarse.

Sí que es cierto que aquellos algoritmos que necesitan datos en su entrenamiento, suelen necesitar muchísimos datos. Entrenar un algoritmo 'fino' de visión artificial o de procesamiento de lenguaje natural puede necesitar cantidades ingentes de datos. Eso es cierto.

Pero hay otros que son más frugales. Un K-means, o una red bayesiana, por ejemplo, no precisan necesariamente de muchos datos. Un K-means puede descubrir patrones con un número limitado de datos, aunque, quizá, a más datos pueda ser más fino en su segmentación.

Más importante que eso, en realidad la necesidad de muchos datos no es una virtud, sino un lastre para aquellos algoritmos de inteligencia artificial que sí los precisan. Falta mucho por investigar y conseguir al respecto, pero algunos de los objetivos de áreas de trabajo como el transfer learning o el aprendizaje por refuerzo buscan, entre otras cosas, ser mas económicos en datos, disminuir esa dependencia de los datos, sobre todo de los grandes volúmenes de datos.


Mito 3: Realizar análisis de datos es inteligencia artificial


No. No siempre. No la mayoría de las veces.

En cualquier empresa, se puede y se debería hacer análisis de datos. Se debería recoger información de sus ERP, sus CRM, sus BPMS, o cualesquiera otros sistemas y, ya sea directamente en esos sistemas o sobre  un repositorio que reúna los datos de diversas fuentes (un ODS, un datamart, un datalake), o incluso, mediante visualizadores de datos como PowerBI o Tableau que actuan de manera directa sobre repositorios originales, obtener indicadores, tendencias y, eventualmente, reunirlos en cuadros de mando o informes.

Pero hacer eso no significa que estemos haciendo inteligencia artificial. Obtener un indicador (por ejemplo, el tiempo medio de proceso) mediante una 'query' más o menos compleja sobre una base de datos no es hacer inteligencia artificial. Hacer predicciones basados en simples valores medios del pasado, no es inteligencia artificial. Es un uso razonable y aconsejable de los datos, pero no es inteligencia artificial.

Lo sería si sobre esos datos, aplicamos, por ejemplo, un algoritmo de machine learning para hacer segmentación descubriendo patrones no evidentes subyacentes a los datos. Entonces sí. 

Es decir, sólo algunas explotaciones y análisis avanzados de los datos son inteligencia artificial. 

Pero otras cosas, otras consultas e indicadores, son business intelligence o incluso, ni eso, meros indicadores e informes básicos. Son muy útiles, Son muy aconsejables. Se deberían hacer si o si. Pero no son inteligencia artificial.


Mito 4: La inteligencia artificial es lo mismo que la analítica de datos


Igual que, como veíamos en el punto anterior, gran parte de la analítica que se realiza sobre datos, una analítica sencilla que casi no merece ni ese nombre, no es inteligencia artificial, tampoco se puede identificar inteligencia artificial con analítica de datos.

¿Por qué lo digo?

Pues porque leyendo o escuchando a ciertos autores, parece como si se identificase analítica de datos con inteligencia artificial, como si lo único que se pudiese hacer con inteligencia artificial fuese la analítica de datos.

En absoluto es así.

La analítica de datos es un área de aplicación de la inteligencia artificial, muy útil, muy común, muy generalizable a sectores y empresas, pero no es lo único que se puede hacer ni de lejos.

Con inteligencia artificial se puede procesar el lenguaje, se puede procesar la voz, se puede analizar imágenes, se pueden planificar movimientos, se pueden crear vídeos e imágenes, se pueden hacer juegos, etc, etc, etc. Un campo inmenso y creciente de usos.

La analítica de datos es sólo uno de esos muchos campos. Uno solo. Un pequeño subconjunto.

No hay identificación.


Mito 5: Big Data implica Inteligencia Artificial y viceversa


De nuevo, tiende a identificarse Big Data con Inteligencia Artificial. No es así. Son dos cosas diferentes aunque puedan solapar, y solapen de hecho, en algunos casos.

Big Data es tecnología para procesar grandes volúmenes de datos, de diversas tipologías (incluyendo datos no estructurados) a grandes velocidades, en tiempo real o cuasi-real.

Esa tecnología se puede aplicar, sí, para analítica sobre grandísimos conjuntos de datos y, en ese caso, estaríamos uniendo inteligencia artificial y Big Data.

Pero Big Data se puede utilizar también, por ejemplo, para el llamado Complex Event Processing donde no hay, por sí mismo, analítica ninguna ni necesariamente inteligencia artificial.

Y la inteligencia artificial, como ya hemos visto, no siempre necesita muchos datos, y cuando no necesita muchos datos, no necesita Big Data.

De nuevo, no hay identificación, solo una útil convivencia e interacción en ciertos casos.


Conclusiones


En conclusión, no identifiquemos, en primer lugar, términos que designan cosas diferentes. No es lo mismo análisis de datos, que Big Data, que inteligencia artificial. A veces concurren, pero no son lo mismo y ninguno de los tres implica necesariamente a ninguno de los otros dos.

Y ya en el campo de la inteligencia artificial. no asumamos que necesita datos, porque no siempre es así. Y no asumamos que, cuando la inteligencia artificial necesita esos datos, es algo positivo porque, en realidad, suele ser una necesidad pero también un lastre.

Espero que esto ayude al lector.

Y espero a contribuir a clarificar las cosas aunque, debo confesar que, en este respecto, me siento un poco como 'una voz que clama en el desierto' y que muchos preferirán ignorar estos avisos y mantener sus concepciones o mensajes erróneos en lugar de reflejar la realidad.

¡Qué le vamos a hacer!


martes, 19 de octubre de 2021

La visión tecnoemocional del teletrabajo de Virginia Cabrera

'Disfruta teletrabajando' es, evidentemente, un libro sobre teletrabajo, pero con un enfoque que no se centra especialmente en las necesidades técnicas del teletrabajo ni siquiera especialmente en las organizativas o económicas sino, más bien, en los impactos emocionales, en la gestión y desarrollo personales en un ambiente de teletrabajo y en la gestión de equipos virtuales. Y todo ello redactado con el estilo práctico, cercano y directo que caracteriza a la autora.

Se trata, además, de un libro multimedia ya que, al texto escrito propio de cualquier libro, le acompañan una serie de vídeos a los que se accede a través de unos códigos QR que se proporcionan al final de cada capítulo.

La obra de una extensión entre corta y mediana se estructura en cinco grandes capítulos, como sigue:
  • 'Mitos y realidades del teletrabajo': Se dedica, como el propio título anuncia, a desmontar nueve mitos que existen sobre el teletrabajo y, en su lugar, describir cómo es la realidad.

  • 'Aprendiendo a garantizar tu rendimiento': Proporciona un plan de acción en tres pasos para organizar el trabajo propio cuando se funciona en modo teletrabajo. Los pasos son (1) Organizar el espacio y el tiempo para ser altamente productivos (2) Tomar el control emocional estableciendo la propia motivación así como ciertas fronteras y (3) Ponerse en valor a uno mismo mediante un desempeño diferencial. Para cada uno de esos tres pasos aporta, a su vez, tres pautas específicas.

  • 'Estableciendo colaboración efectiva y afectiva': Se centra ahora en la colaboración con otros colegas y, de nuevo, repite el esquema de tres pasos y tres pautas por paso. En este caso los pasos son: (1) Conseguir efectividad plena en las comunicaciones (2) Enriquecer las relaciones compartiendo expectativas y (3) Conseguir que todos ganen mediante la negociación de pautas de convivencia.

  • 'Gestionando a un equipo que no se ve': En este caso, se adopta no tanto la perspectiva de un profesional individual sino la de un gestor de equipos virtuales. Y, de nuevo, nos encontramos con el esquema de tres pasos con tres pautas, siendo los pasos, en este caso (1) Establecer una identidad y un propósito común (2) Asegurar la ejecución de las tareas y la consecución del resultado y (3) Adelantarse a las desviaciones para evitar conflictos.

  • 'Identificando nuevas oportunidades para brillar': Volvemos al plano individual pensando un poco bajo la perspectiva de marca personal y desarrollo profesional, y el planteamiento se concreta en tres ideas, aunque en esta ocasión no muestran como los pasos de un plan de acción sino como una suerte de reflexiones y consejos. Esas ideas son (1) Los nuevos tiempos implican nuevos valores (incluyendo flexibilidad y confianza) (2) El disfrute del propio trabajo como condición para un futuro profesional brillante y (3) El teletrabajo es a la vez un reto y una oportunidad para brillar como profesional.
Aparte de la información aportada de manera textual, cada capítulo se cierra con un par de vídeos de la autora incidiendo desde dos perspectivas, 'cultiva tu mentalidad digital y 'practica tu actitud digital', en temáticas complementarias a las tratadas en el capítulo y, además, y también en forma de vídeo enlazado, se incluye la colaboración de un experto. En concreto, los expertos que intervienen son, por orden de capítulos:
  • Juan Martínez de Salinas
  • Roberto García Esteban
  • Mª Ángeles Fernández Benito
  • José Luis Montesino
  • Hass Machiab
'Disfruta teletrabajando' es un libro muy oportuno en cuanto a temática, probablemente único en cuanto a su planteamiento del teletrabajo desde esa perspectiva tecnoemocional que caracteriza a la autora y un libro fresco, cercano, muy fácil de leer y lleno de indicaciones prácticas y accionables.

Virginia Cabrera Nocito

(Fuente: Elaboración propia a partir de su perfil en LinkedIn y otros materiales)

Virginia Cabrera Nocito
Virginia Cabrera Nocito se define como especialista en Transformación Digital Tecnoemocional, mentalidad y actitudes digitales y en ese campo actúa como mentora, formadora y divulgadora.

Es fundadora y CEO de 'Cultivando Mentes Digitales' desde donde presta sus servicios de formación y mentoring.

Además de proporcionar sus propios programas de formación, colabora como docente en entidades como UNIR (Universidad Internacional La Rioja), Universidad Nebrija, etc

Es además co-fundadora del Podcast 'Caminos de knowmad' que trata de temáticas relacionadas con los trabajadores del conocimiento y 'freelances' y co-fundadora del blog 'Balcon40' sobre actitud digital, además de colaborar en otros blogs como Think Big Empresas de Telefónica.

Anteriormente, trabajó en Telefónica durante más de 20 años habiendo pasado por Terra Mobile, Telefónica Móviles y Telefónica Empresas. En su etapa en Telefónica Empresas trabajó en el desarrollo del negocio TIC para PYMEs y actuó como especialista en Transformación Digital

Virginia es Ingeniero de Telelecomunicación por la Universidad Politécnica de Madrid.

Puedes conocer más de la autora visitando su perfil en LinkedIn o siguiéndola en Twitter donde se identifica como @vcNocito.

Ficha técnica:

EDITORIAL: Wolters Kluwer
AÑO: 2021 
ISBN: 978-8409273850
PAGINAS: 178


lunes, 18 de octubre de 2021

Privacidad versus donación de datos, un equilibrio ético.

Cuando se habla de inteligencia artificial, especialmente cuando se habla de ética en inteligencia artificial, se suele poner mucho énfasis en el uso, especialmente en el mal uso, de los datos.

Se establece por un lado una íntima relación entre datos e inteligencia artificial, una relación que, en mi opinión, es algo equívoca, o más bien se transmite de una forma equívoca, cosa que desarrollaré en algún artículo futuro.

Pero sobre todo se pone el énfasis en las explotaciones inadecuadas de los datos, en la falta de respeto por la privacidad y en el riesgo para nuestra intimidad.


Los riesgos para la privacidad


Me gustaría poder decir lo contrario, pero lo cierto es que esos usos inadecuados de los datos son absolutamente reales, y los riesgos para nuestra privacidad muy ciertos y muy elevados. Entregamos, constantemente, datos a nuestros clientes y proveedores, datos a empresas con las que interactuamos siquiera de forma mínima, datos en encuestas telefónicas, datos en todo tipo de transacciones, datos a las apps de nuestros smartphones y datos en redes sociales.

Es cierto que, desde el nacimiento del GDPR esos datos se entregan normalmente con consentimiento explícito, pero todos sabemos que, aunque teóricamente el consentimiento es un mecanismo fuerte de protección, en la práctica, los leoninos y farragosos 'términos y condiciones' ligados a esa cesión de datos y nuestra propia comodidad y cultura de la gratuidad nos llevan a cederlos sin la más mínima consideración ni protección.

Y no son sólo los datos que entregamos de forma explícita, que ya son muchos, sino la información que se puede deducir, de manera indirecta, correlando datos y detectando patrones mediante aplicación de técnicas de machine learning, a partir de nuestra propia imagen en fotografías, a partir de lo que visitamos y hacemos 'Like' en redes sociales, a partir de lo que expresamos en esas redes, a partir de los sitios por los que nos movemos (conocido mediante nuestra geoposición), a partir del lugar donde vivimos, etc. Es impactante darse cuenta todo lo que se puede deducir sobre una persona, la precisión del perfilado que se puede llegar a hacer. Por poner un ejemplo, ayer mismo visualizaba una TED Talk  en que una investigadora del MIT, Rébecca Kleinberger decía por ejemplo que, a partir del sonido de la voz de una mujer, se puede deducir si está embarazada o no. ¡Sólo por el sonido de su voz!

Todo ese conocimiento que una empresa o un estado puede adquirir sobre nosotros se puede usar, se usa de hecho, para labores probablemente admisibles, aunque en algún caso molestas, como el perfeccionamiento de los algoritmos o la optimización de la acción comercial. Pero ese conocimiento profundo se puede usar también, por ejemplo, para la manipulación, sobre todo política, y no digamos ya nada para el ciberdelito. 

Todo ello es una llamada de atención, a nivel individual pero también a estados y administraciones para la toma de medidas, cosa que, afortunadamente, ya está en marcha, al menos, en la Unión Europea.


Uso ético y donación de datos


A pesar de lo que antecede, debo decir que siempre me he declarado tecno-optimista, y siempre he afirmado que la tecnología, en conjunto, es motor de progreso y bienestar social. Todavía recientemente lo afirmaba en la presentación de mi libro 'Robots en sombra' y también en la presentación de libro de mi amiga Valvanera Castro 'La aventura de innovar'.

Y con el uso de los datos soy de la misma opinión.

Son absolutamente ciertos, e incluso preocupantes, todos los malos usos de los datos que he mencionado anteriormente. Pero también son ciertos, y en el fondo mucho más abundantes, todos los usos positivos de los datos para la actividad económica e incluso para el bienestar social.

La recolección y análisis de los datos permite a cualquier empresa u organización, conocerse mejor a sí misma y a su mercado y tener una base más sólida para la toma de decisiones. Y eso es bueno para la empresa individual, claro, pero también para la economía en su conjunto y, por tanto, para el progreso de la sociedad.

La recolección y análisis de datos permite entrenar y optimizar tantos y tantos algoritmos de machine learning en campos como la visión artificial, el procesamiento del lenguaje natural o la predicción meteorológica, que luego usamos despreocupadamente como si la disponibilidad de esos algoritmos fuese algo sencillo o evidente. Y no lo es. Se necesita mucho ingenio, mucho trabajo... y muchos datos.

Por no decir nada de la importancia del uso de los datos en atención medica como el diagnóstico por imagen, en estudios epidemiológicos o, como hemos asistido recientemente de manera muy vívida, el desarrollo de vacunas.

Por eso necesitamos datos. Necesitamos cierta cesión consciente de datos.

 Un poco en esa línea van  Idoia Salazar y Richard Benjamins cuando en su último libro 'El algoritmo y yo' afirman


¡La donación de datos puede salvar vidas!


No es una idea nueva en estos autores. De hecho, en su libro anterior 'El mito del algoritmo' eran, quizá aún más expeditivos al afirmar:


No es ético no usar los datos para el bien social


frase que inspiró un artículo mío en este blog, 'Datos para el bien y la ética tecnológica positiva', un poco en la misma línea del que ahora escribo.

Son bonitas, y resaltan tanto la voluntariedad como el interés social, las palabras que emplean Idoia y Richard: donación de datos.


Conclusión: el equilibro ético


Y es que la ética no se puede hacer sólo en negativo, como prohibición y limitación, aunque a veces sí sea necesario actuar en esa línea. Y es que, los riesgos para la privacidad que el uso de datos pueden tener, que son ciertos, evidentes y graves, no pueden hacernos olvidar que igual que los datos se pueden usar para el mal, en mucha mayor medida esos datos se pueden utilizar para el bien, para el desarrollo económico, para el progreso, para la acción social y para el bienestar de la humanidad.

No caigamos en una hemiplejía ética contemplando sólo los riesgos. Hagamos un uso consciente de los datos, minimizando los riesgos de su mal uso pero promoviendo también, incluso más, su utilización para el progreso y para el bien.

 Donemos datos.


viernes, 15 de octubre de 2021

Explorando la posibilidad de mentes robóticas con Jun Tani

'Exploring Robotic Minds: Actions, Symbols, and Consciousness as Self-Organizing Dynamic Phenomena' es un libro, obra de un roboticista, en realidad un neuro-roboticista que intenta contestar a una preguntas complejas, profundas y desafiantes: ¿Es posible crear una mente robótica? ¿Pueden los robots llegar a adquirir consciencia y cómo? Y, en el fondo, ¿Cómo se genera la propia consciencia humana?

Para ello, el autor separa en su obra, dos partes muy diferenciadas. Una primera parte, muy interesante y mucho más asequible, en que revisa el tratamiento que la consciencia ha tenido desde diversas disciplinas: el cognitivismo, la fenomenología, la neurociencia y la neuro-robótica. Y una segunda, mucho más compleja y especializada, pero verdadero objetivo del libro, donde Jun Tani desgrana sus propias hipótesis sobre esa creación de mentes (robóticas y no robóticas) y los experimentos diseñados para comprobar diferentes aspectos de esas hipótesis, unos experimentos realizados con robots reales en ambientes reales e incluyendo el diseño, por ejemplo, de arquitecturas de redes neuronales especializadas.

Con ello, el desarrollo del libro es como sigue:
  • 'PART I: ¿WHERE DO WE GO WITH MIND?:': Una revisión acerca de cómo se ha explorado el problema de las mentes cognitivas desde diferentes disciplinas

    • '1. Where Do We Begin With Mind?': Un corto capítulo que actúa a modo de introducción, donde el autor explica el problema a resolver, y alguna experiencia y epifanías personales. Además declara ya de forma directa su hipótesis principal, a saber, que las consciencias surgen de la relación conflictiva, entre la mente subjetiva y el mundo objetivo, una causalidad circular que surge del choque en interacciones iterativas entre una intencionalidad 'top-down' y un reconocimiento perceptual 'bottom-up' de la realidad. Finaliza explicando brevemente la estructura del libro.

    • '2. Cognitivism': Explica el cognitivismo, una disciplina que considera a la mente como un objeto observable desde fuera y que se describe como un sistema de símbolos y metáforas computacionales. Explica los conceptos de composición y recursión y describe algunos modelos cognitivos como el GPS ('General Problem Solver'). Finaliza identificando el problema de base del cognitivismo, a saber, cómo surge un sistema de símbolos de un sustrato no simbólico como son los patrones senso-motores.

    • '3. Phenomenology': Explica ahora la fenomenología, una tendencia filosófica abanderada por Edmund Husserl según la cual el análisis del mundo natural se basa exclusivamente en las experiencia de los individuos.

    • '4. Introducing The Brain and Brain Science': Saltamos ahora a la neurociencia. Se comienza estudiando en bastante profundidad los mecanismos jerárquicos de reconocimiento visual y la generación de acciones. Luego pone su atención en las neuronas espejo y finaliza estudiando de nuevo con bastante profundidad cómo surge la intención y el eventual libre albedrío.

    • '5. Dynamical Sstems Approach for Modeling Embodied Cognition': Finaliza esta revisión de diferentes enfoques sobre mentes congnitivas con la aproximación del modelado de la cognición mediante la teoría de sistemas dinámicos. Explica con bastante profundidad los fundamentos de sistemas dinámicos. Luego salta a la llamada robótica basada en el comportamiento impulsada por Rodney Brooks en los años ochenta. Habla de alternativas para el modelado del cerebro incluyendo los modelos de red neuronal que explica con bastante detalle y extensión. Y finaliza hablando de neurorobótica, algo que ya entra de lleno en el trabajo del propio Tan y en lo que sigue en la segunda parte del libro.

  • 'PART II: EMERGENT MINDS: FINDINGS FROM ROBOTIC EXPERIMENTS': Desarrolla la propuesta de Tani y los experimentos llevados a cabo con robots reales para confirmarlas.

    • '6. New proposals': Un capítulo importante, aunque no sencillo, que resume muchas de las ideas del autor y de su trabajo experimental. Explica que quiere construir robots con alguna forma de carácter auténtico que surja de la interacción dinámica entre futuros posibles y la reflexión sobre el propio pasado del robot de forma que se activen y comprendan los futuros más probables compartidos con los demás. Explica cómo enfoca la construcción de visiones subjetivas en modelos neurodinámicos y defiende que es posible construir un 'pensamiento' segmentado en elementos discretos como símbolos, proposiciones y operadores lógicos a partir de modelos dinámicos de la mente que no usan esa computación discreta en su funcionamiento interno o, dicho de otra forma, que la neurodinámina no lineal soporta una mecánica computacional discreta para la composicionalidad, al tiempo que preserva el espacio métrico de los número reales en que se expresan las propiedades físicas como la velocidad, el peso o el color. Recoge su concepción de lo esencial para la construcción de modelos cognitivos, a saber, (1) representar la mente mediante sistemas dinámicos no lineales (2) los sistemas cognitivos son capaces de predecir el resultado perceptual de su intención de actuar sobre el mundo pero esa intención se adapta a través de las señales de error detectadas en la entrada perceptual real (3) la estructura de la consciencia debe clarificarse a partir del examen de la causalidad circular generada en esa interacción entre la intención y el mundo objetivo.

    • '7. Predictive Learning About The World from Actional Consequences': Revisa una serie de experimentos centrados en el aprendizaje de navegación de un robot intentando contestar a dos preguntas. En primer lugar, cómo se puede desarrollar una representación composicional del mundo por medio de la auto-organización de estructuras neurodinámicas y a través del aprendizaje acumulado de experiencias de actuación sobre el entorno. Y, en segundo lugar, intentando profundizar en la fenomenología del 'yo', clarificando su estructura subyacente examinando la interacción entre la predicción 'top-down' y el reconocimiento 'bottom-up' adquirido durante la navegación del robot.

    • '8. Mirroring Action Generation And Recognition with Articulating Sensory-Motor Flow': Aborda el problema de cómo a partir de un flujo contínuo de información senso-motora, se puede reconocer y segmentar en bloques discretos y articulados. Con esa idea, el autor propone una arquitectura de red neuronal RNNPB ('Recurrent Neural Network with Parametric Biases') que luego somete a experimentación con robots reales que la emplean.

    • '9. Development of Functional Hierarchy for Action': Parte de la hipótesis, bastante aceptada, de que el cerebro usa una estructura jerárquica tanto para el reconicmiento de estímulos sensoriales com para la generación de instrucciones motoras e intenta demostrar que eso que denomina 'composicionalidad fluida' puede conseguirse usando restricciones intrínsecas en las diferencias temporales de la actividad neuronal en diferentes niveles durante el transcurso de la auto-organización, junto con interacciones iterativas entre los diferentes niveles en el aprendizaje de consolidación. Los experimentos se apoyan en una red neuronal recurrente (MTRNN, 'Multiple Timescale Recurrent Neural Network') caracterizada por la dinámica de sus múltiples escalas temporales.

    • '10. Free Will for Action And Consciouss Awareness': Explora el tema de las intenciones y el libre albedrío y demuestra, vía experimentos con robots, algo que ya se ha identificado en el cerebro humano: que el reconocimiento de una intención de hacer algo es posterior al inicio de la acción en sí misma lo cual parece cuestionar bastante el propio libre albedrío.

    • '11. Conclusions': Un bastante largo capítulo de conclusiones, que revisa lo ya visto y también explora líneas de trabajo futuras.
'Exploring Robotic Minds: Actions, Symbols, and Consciousness as Self-Organizing Dynamic Phenomena' es un libro original, interesante e incluso desafiante, pero muy complejo, especialmente en la segunda parte que muestra el verdadero trabajo de Tani. Es posible que esa complejidad le haya restado una eventual popularidad a la que, dado el interés del tema y el rigor del análisis, podría haberse hecho acreedor, al menos en ciertos círculos.

Se trata de una obra que conjuga una visión amplia y multidisciplinar, con un conocimiento muy especializado de inteligencia artificial y robótica y que, desde un punto de vista científico/ingenieril me parece extraordinario aunque, debo decir, eso sí, con toda humildad porque no creo haber entendido todos los razonamientos de Tani, que no me convence del todo su hipótesis básica de que la consciencia emerge de la interacción dialéctica y conflictiva entre la planificación de la acción ('top-down') y las expectativas que crea, con la entrada perceptual del verdadero estado del mundo ('bottom-up') ni de que los experimentos, que sin duda son rigurosos, demuestren por tanto la generación de una verdadera mente robótica.

Un libro, pues, complejo, para leer muy despacio y, a poder ser, con una sólida base matemática y de inteligencia artificial, especialmente de redes neuronales.

Jun Tani

(Fuente: Traducción y elaboración propia del perfil en su perfil en Loop)

Jun Tani
Jun Tani es profesor del Okinawa Institute of Science and Technology Graduate University.

Jun Tani obtuvo su grado en ingeniería mecánica de la Waseda University en Tokio en 1981, un doble grado en ingeniería eléctrica y mecánica de la University of Michigan, Ann Arbor, en 1988 y el grado D.Eng. de la Sophia University, Tokio en 1995.

Inició su carrera de investigación en el Sony Laboratory en 1990. Estuvo en el Laboratory for Behavior and Dynamic Cognition, RIKEN Brain Science Institute, Saitama, Japón, durante doce años hasta 20212. Fué profesor a tiempo completo en el Electrical Engineering Department, Korea Advanced Institute of Science and Technology, Daejeon, Corea del Sur, desde 2012 hasta 2017. Actualmente, es profesor a tiempo completo en el Okinawa Institute of Science and Technology, Okinawa, Japón.

Sus intereses investigadores incluyen la neurociencia cognitiva, la psicología del desarrollo, fenomenología, sistemas adaptativos y robótica.

Es autor del libro 'Exploring Robotic Minds: Actions, Symbols, and Consciousness as Self-Organizing Dynamic Phenomena' publicado por Oxford University Press en 2016.

Puedes saber más del autor siguiéndole en twitter donde se identifica como @tani1216jp.


miércoles, 13 de octubre de 2021

Tres criterios para considerar a un robot un agente moral

¿Puede un robot ser considerado un agente moral? No es una pregunta baladí, dadas sus implicaciones éticas e, incluso, legales (ligada al concepto de responsabilidad o 'liability'). 

Veamos alguna idea al respecto.


El concepto de agencia moral



La idea de la agencia moral, o de los agentes morales es un concepto filosófico que, siguiendo la definición de la wikipedia, sería, la capacidad de un individuo para emitir juicios morales basados ​​en alguna noción de lo correcto y lo incorrecto y ser responsable de estas acciones. 

O, dicho de otra forma, un agente moral es un ser que es capaz de actuar con referencia al bien y al mal.

Aunque, como casi en cualquier cuestión filosófica existen corrientes y opiniones, en general tenemos pocas dudas de que un ser humano es un agente moral. No tan clara es la respuesta si eso lo referimos a animales y menos, aún, y eso voy en este artículo, si de lo que hablamos es de agentes artificiales, básicamente a robots.

Con frecuencia, el debate acerca de la agencia moral surge en las obras que hablan de ética de máquinas, de ética de los robots o, incluso, de relación robots-personas.

El último punto en que me lo encuentro es leyendo el libro 'The robot will see you now' editado por John Wyatt y Stephen N. Williams. En un capítulo que firma Noreen Herzfeld, se razona sobre si la inteligencia artificial debería contemplarse como una herramienta, un sustituto de personas o incluso un compañero o pareja. Y es bajo ese prisma que se vuelve a la idea de la agencia moral. 

Se hace notar, lo primero, que la agencia implica intención e independencia. 


Agency connotes intention or independence an agent's action stems from a choice or volition internal to the actor.


Los tres criterios de agencia moral


Susan Leigh Anderson y Michael Anderson

Y luego se hace mención al trabajo de Michael Anderson y Susan Leigh Anderson y su libro 'Machine Ethics', donde estos dos autores, identifican tres criterios que una entidad, en este caso un robot, debería satisfacer para ser considerado un agente moral:


  • El robot no debería estar bajo el control directo de ningún otro agente o usuario.

  • La interacción del robot con su entorno debería ser aparentemente calculada y deliberada

  • Debería satisfacer algún tipo de rol social que implique responsabilidades.


¿Puede cumplir los robots actuales esos criterios.

Se nos aporta el razonamiento sobre un robot usado para el cuidado de ancianos, algo que ya se está haciendo. Se razona que esos robots no actúan bajo supervisión directa, es decir, cumplen el primer criterio. Se concluye, asimismo, que en su labor, el robot toma decisiones o realiza elecciones y, en ese sentido, cumpliría el segundo criterio. Sin embargo, con respecto al tercer criterio se entiende que el robot debería ser consciente  de su responsabilidad para con el paciente, el anciano en este caso. Y ese criterio no es satisfecho por ningún robot actual y quién sabe si podrá ser satisfecho alguna vez por un robot futuro.

Según ese razonamiento, un robot cuidador de ancianos (en realidad, ningún robot actual) no sería un agente moral.


El problema de la consciencia


Hago simplemente un apunte para finalizar. Según los tres criterios y la forma de aplicar el tercero, parece necesaria una consciencia en el robot, algo que parece muy lejano, suponiendo que sea posible, aunque, como veremos en nuestro próximo post ya hay trabajo intentando crear mentes robóticas y alguna suerte de consciencia.


Foto de cabecera: 'Morals and the Machine' Derek Bacon en 'The Economist'