miércoles, 30 de diciembre de 2020

Mis #TEDTalks de 2020

Y por séptimo año consecutivo, en este penúltimo día del año, publico la lista de TED Talks que he visto a lo largo de los últimos doce meses. 

En esta ocasión, este 2020 me ha dado para visualizar 48 de esas charlas.

Como ya pasó el año anterior, mi fuente para identificar las charlas que exploro han sido fundamentalmente las sugerencias de la propia página de TED, con alguna excepción particular en que directamente he buscado al speaker o a la charla por un motivo u otro.

En este 2020, alguna charla ha estado muy ligada a la actualidad, destacando quizá dos: la charla de la activista Greta Thunberg cuando estaba en su apogeo la cumbre del clima, y la profética charla de Bill Gates, muy mencionada hace unos meses, sobre una pandemia por coronavirus. 

Este año he favorecido las charlas relacionadas con robótica e inteligencia artificial y sobre algún tema relacionado del campo de la psicología o neurociencia como es la temática de la conciencia, y así me parecen dignas de destacar, por la relevancia de los personajes, la charla de Fei Fei Li y la de Rosalind Pickard, creadora del affective computing.

Del resto, los speakers, salvo alguna excepción puntual, no son muy conocidos y me he guiado, como digo, más por el atractivo del tema para mi que por el ponente.

Y, sin más, estas son mis 48 charlas de 2020:


De cara al 2021, iremos paso a paso pero espero seguir, como es habitual, a un ritmo aproximado de una charla por semana (con algún parón por viajes y/o vacaciones) y en principio seguiré favoreciendo las charlas sobre robótica a inteligencia artificial, aunque sin descuidar otros temas, algunos muy diferentes, que son de mi interés como psicología, liderazgo, innovación, tecnología, etc. Y seguiré, supongo, acudiendo a las sugerencias de TED salpimentándolas con la búsqueda de speakers o charlas concretas que, por un motivo u otro, traigan a primer plano algún personaje o tema. De momento, ya tengo pre-seleccionadas charlas para cubrir hasta el mes de Marzo.

Y, si todo va bien, el 30 de Diciembre de 2021 publicaré un post similar a este con más charlas.

Artículos de este blog relacionados

lunes, 28 de diciembre de 2020

Una rápida incursión en la autonomía y el libre albedrío de las máquinas y sus implicaciones éticas

Vamos a ser muy claros y directos en el inicio de este artículo para evitar desde el principio las fantasías y los malos entendidos: no, las máquinas no disponen de libre albedrío.

Es un tema en el que me gustaría profundizar dentro de un tiempo cuando haya investigado algo más el concepto e implicaciones del libre albedrío desde el punto de vista de la filosofía y las religiones. Aún así, y de forma preliminar, pero plenamente convencida, repito lo que acabo de decir: las máquinas no disponen de libre albedrío. No al menos las máquinas de que disponemos hoy en día. No, probablemente, las máquinas de que dispondremos en un futuro inmediato y quizá no tan inmediato. Tal vez nunca lo alcancen.

Y sin embargo las inteligencias artificiales y los robots más avanzados, incluyendo en ese concepto también a elementos como los vehículos autónomos o ciertos drones, exhiben una clara autonomía, es decir, son capaces de funcionar por sí solos sin necesidad de intervención humana y son incluso capaces de aprender y adaptar su comportamiento sin necesidad de esa intervención de personas. En esa capacidad reside una parte importante de su inteligencia, de su utilidad, y de su capacidad para asombrarnos y generarnos admiración.

Pero, ¿esa autonomía no es una forma de libre albedrío?

No. No lo es. En mi opinión no lo es, y creo que la mayoría de expertos o al menos conocedores de la inteligencia artificial y la robótica estarán de acuerdo conmigo y supongo que, con más motivo aún, filósofos, religiosos y otros humanistas estarán igualmente de acuerdo conmigo  

Libre albedrío implica conciencia, libertad y voluntad propia. Y los robots no tienen conciencia ni voluntad propia. 

¿Y libertad? 

Tampoco. 

En algunos de los cursos que imparto, y en algún artículo que he publicado en este mismo blog ya he hecho ver que los algoritmos de la inteligencia artificial, al menos los que yo conozco, al menos los más populares y sólo con alguna reserva en lo relativo a los algoritmos genéticos, son absolutamente deterministas. Deterministas quiere decir que ante las mismas entradas producen las mismas salidas. Sin duda. Sin opción a la sorpresa. Lo que ocurre es que los algoritmos de inteligencia artificial adaptan su algoritmo de funcionamiento, que es plenamente determinista, ajustando parámetros mediante un algoritmos de aprendizaje que también son plenamente deterministas. Deterministas pero dependientes, eso sí, de la experiencia concreta a que el algoritmo que aprende se ve sometido durante su entrenamiento y, por tanto, autónomos y en cierto sentido imprevisibles (sólo en cierto sentido).

Pero nuestras queridas máquinas inteligentes reciben esos algoritmos plenamente deterministas desde el exterior, desde las personas. Y no los interpretan, no los someten a crítica, no se los saltan. Simplemente los ejecutan. Y a la ejecución obediente de unos algoritmos deterministas que les son dados desde el exterior difícilmente la podremos calificar de libre albedrío, por muy inteligentes, flexibles y autónomos que sean (que lo son).

Saltando ahora a las implicaciones éticas que esto tiene, acudo al libro 'Oxford Handbook of Affective Computing' que hace una pequeña digresión ética y menciona a Enmanuel Kant, uno de los más grandes filósofos de la historia y uno de los de mayor peso en materia de ética, y nos recuerda que:

For Kant in particular, an agent cannot make an ethical choice unless it has that kind of freedom to begin with.

En efecto, para Kant un elemento imprescindible de la ética es la libertad, la capacidad de decisión, es decir, el libre albedrío. Y hemos dicho que las máquinas no lo tienen. La conclusión parece más que clara: las máquinas no pueden tener responsabilidad ética.

¿Quién entonces?

En la misma fuente, unas líneas más adelante cita un informe de EPSRC (Engineering and Physical Sciences Research Council), para el cual, la conclusión es muy clara:

So long as we build systems to do only a few things and specify when they should do which, it is hard to dispute [...] that attributing ethical responsibility to them simply clouds the issue: responsibility lies firmly with the builder.

O sea, según esto, la responsabilidad ética no está en la máquina, sino en quien la construye.

¿Y la responsabilidad legal?

En este aspecto hay debates muy ligados, por ejemplo, al vehículo autónomo. ¿El fabricante? ¿El dueño? ¿La administración? No está del todo claro.

En cualquier caso, no en la máquina, que es un ser inanimado, sin personalidad jurídica (aunque hay voces que sugieren la necesidad de esa personalidad) y sin libre albedrío.

El argumento básico creo que es bastante indudable. Los detalles de las consecuencias éticas y legales pueden traer consigo, lo traen de hecho, más debate.

Aquí lo dejo por ahora, pero seguro que vuelvo en algún momento a este tema del libre albedrío.


viernes, 18 de diciembre de 2020

Deep learning y visión artificial con Binford, Jagadeesh, Ruby, Lepika, Tisa y Nedumaan

'Modern deep learning and advanced computer vision' es una revisión amplia y de cierta profundidad de dos campos muy relacionados: por un lado el área de machine learning y en especial deep learning y, por otro, la visión artificial propiamente dicha. Y digo esto porque puede partecer un libro sobre visión artificial, y con esa idea realmente lo compré y leí, y que lo relativo al machine learning es un mero apoyo. Sin embargo, no es así del todo: lo cierto es que hay bastante tratamiento de machine learning y deep learning 'per se', con independencia de sus participación en el campo de la visión artificial. 

Se trata de un libro más bien extenso y de complejidad media-alta, aunque en este punto es algo variable, con secciones bastante complejas y otras, sin embargo, casi divulgativas. 

El libro se estructura en solo cinco capítulos aunque, eso sí, de bastante longitud cada uno:
  • 'Fundamentals of computer visión': Comienza con algunas ideas básicas como qué es la visión artificial y sus etapas en la formación de imágenes y en visión en niveles 1, 2 y 3. Luego revisa ideas de algoritmos mediante cinco casos de estudio para, a continuación, acometer una revisión de aplicaciones desde un punto de vista sectorial y, en concreto, comentando los sectores de distribución, automoción, salud, banca e industria. Y finaliza el capítulo revisando algunos campos relacionados con la visión artificial como son la inteligencia artificial, el machine learning, el procesamiento de lenguaje natural, el procesado de señal y la visión en robots.

  • 'Machine learning and computer vision': Un capítulo que, aunque en teoría relacionado con visión artificial, en realidad es prácticamente un repaso de la disciplina del machine learning. Comienza con conceptos de base empezando por explicar lo que es el propio machine learning, algunos de sus retos y dificultades, dónde se encuentran habitualmente aplicaciones de machine learning en nuestro día a día y su conexión con ideas como la inteligencia artificial, las redes neuronales o el aprendizaje estadístico. A continuación explica las tres tipos típicos de aprendizaje: supervisado, no supervisado y por refuerzo, para, finalmente, hacer un extenso recorrido por los principales algoritmos del machine learning con hasta quince familias de algoritmos que incluyen las regresión lineal y logística, árboles de decisión, análisis de componentes principales, support vector machines, etc.

  • 'Modern deep learning approaches': Manteniéndose todavía en conceptos casi independientes de la visión artificial, en este capítulo profundiza en el deep learning, explicando en qué consiste y su relación con la visión artificial abordando una amplia revisión de arquitecturas modernas que incluyen, por ejemplo GoogLeNet, AlexNet, ResNet o las redes de convolución basadas en regiones. Luego acomete una descripción de hasta diez algoritmos de deep learning muy recientes como las máquinas de Boltzman, las redes lambertianas o YOLO, en lo que es, probablemente, la parte más especializada y compleja del libro.

  • 'Recent trends in computer vision': Es una revisión, bastante más accesible y atractiva, de diferentes tendencias, doce, en visión artificial. Se habla, por ejemplo, de realidad aumentada, de reconstrucción 3D, de contestación viisual a preguntas, de la transferencia de aprendizaje, etc

  • 'Advanced computer vision techniques': Un último capítulo dedicado a las técnicas más avanzadas de visión artificial pero explicadas con un tono más divulgativo y entretenido que la parte central del libro y donde se habla, por ejemplo, de la generación de contenido viisual mediante redes adversarias, de analítica de vídeo, de espejos inteligentes, de la mezcla de lenguaje y visión, etc
'Modern deep learning and advanced computer vision' es un libro con mucho conocimiento e información, a ratos algo denso, a ratos entretenido, pero sin duda con una gran aportación de conceptos e ideas. 

No está, probablemente, al alcance de cualquier lector, pero para según qué perfiles, puede aportar una gran visión de conjunto y también conocimientos especializados de algunas áreas, especialmente las algorítmicas. 

Ficha técnica:

miércoles, 16 de diciembre de 2020

La inteligencia artificial y el realismo mágico

Realismo mágico: Movimiento literario hispanoamericano surgido a mediados del siglo XX que se caracteriza por la inclusión de elementos fantásticos en la narración, con lo que se pretende profundizar en la realidad a través de lo mágico que hay en ella.

Oxford Languages


Diríase que, en ocasiones, más ocasiones de las convenientes y casi razonables, el relato que se hace de la inteligencia artificial y la robótica tiene un algo de realismo mágico, una mezcla casi indistinguible de elementos reales y fantásticos pero narrados como si fuesen ciertos, tangibles, realidad pura y dura.

Abunda, por desgracia, el discurso que, intencionadamente o no, ignora la realidad de la inteligencia artificial y la robótica para comunicarla como una suerte de narración fantástica, ciencia-ficción o realismo mágico, bañada con frecuencia en distopía.

Nada tienen de malo la fantasía, la ciencia-ficción y mucho menos el realismo mágico. Por el realismo mágico han transitado  autores tan reputados como Gabriel García Márquez, Juan Rulfo, Gunter Grass o Haruki Murakami, por mencionar algunos, incluso no hispanoamericanos. Y en el realismo mágico parecen encuadrarse algunas de las obras de mi adorado paisano Alejandro Casona.

Amo la literatura casi tanto como la tecnología y la inteligencia artificial.

Pero cada una tiene su momento.

Si estás en una empresa, haciendo un plan de transformación digital, o de robotización, o de cualquier otra suerte de aplicación de tecnología cognitiva, por favor, estúdiala bien, sé consciente de sus posibilidades reales y actuales, de sus beneficios y sus riesgos, de sus costes y su eficiencia, y decide racional e informadamente en consecuencia. Hablamos de negocio. No es el momento de la ciencia-ficción, la fantasía ni la magia. Es el momento del conocimiento, el análisis y el rigor.

Si eres un jurista o legislador, si te preocupan, por ejemplo, la privacidad de los datos, o la explicabilidad de los algoritmos, o si te traen de cabeza las posibles consecuencias en el empleo de la automatización o si, tal vez, eres de los que estudian la eventual fiscalidad sobre robots, por favor, preocúpate, antes de legislar nada, de entender en profundidad la naturaleza de aquello que legislas. Entiende con claridad y profundidad  el objeto de tu posible norma. Hablamos de leyes. No es el momento de la ciencia-ficción, la fantasía ni la magia. Es el momento del conocimiento, el análisis y el rigor.

Si eres, quizá, un filósofo, o antropólogo o tienes un carácter humanista de alguna manera y te preocupan los aspectos éticos de la inteligencia artificial, por favor, antes de juzgar y lanzar teorías, antes de 'filosofar' o debatir 'en vacío', preocúpate de entender el fenómeno sobre el que debates, sobre su verdadera naturaleza, su verdadero alcance y sus verdaderas implicaciones. No moralices sobre leyendas.  Hablamos de ética y moral. No es el momento de la ciencia-ficción, la fantasía ni la magia. Es el momento del conocimiento, el análisis y el rigor.

Y no pienses, ni por un momento, que resultan aburridos el conocimiento, el análisis y el rigor. Es interesante, motivador y casi inspirador el análisis profundo, el alcanzar conclusiones y certezas y el aplicarlas en la práctica para conseguir mejores resultados de negocio, mejores leyes o saludables recomendaciones éticas. Créeme, anida en todas esas actividades, no sólo dignidad y utilidad, sino también alegría, armonía e incluso belleza.

Pero si, simplemente, eres humano, y si ahora estás tal vez en tu casa, quizá de vacaciones o de fin de semana, o si estás a punto de echarte una siesta o quizá de irte a la cama tras un largo y duro día de trabajo... ahora sí, ahora es el momento de dejarse ir y permitir volar a la imaginación, ahora puede ser un excelente momento para la ciencia ficción, para la fantasía y para el realismo mágico. Relájate y disfruta.

¿Te recomiendo algo?

Lee, por ejemplo, el relato 'La máquina que ganó la guerra' de Isaac Asimov. Pocas veces habrás visto una ciencia-ficción más realista. O, mejor incluso, sumérgete en el teatro de Alejandro Casona. Lee 'La dama del alba' y verás lo que es el realismo mágico y entenderás, quizá, por qué todas las noches de San Juan, tuiteo la frase 'Esta noche todos los ríos del mundo llevan una gota del Jordán' y te garantizo, sobre todo, que encontraras belleza, una enorme belleza.


lunes, 14 de diciembre de 2020

¿Cómo es posible que los robots detecten las emociones humanas?

Quizá, uno de los aspectos más sorprendentes, más estimulantes y, en cierto sentido, más intimidantes de las robótica e inteligencia artificial actuales, es la creciente capacidad de los robots para captar, analizar y entender de alguna forma las emociones humanas y adaptar su comportamiento a esas emociones.

Parece increíble, pero no lo es. En estos momentos, y aunque todavía con camino para el perfeccionamiento, los robots son capaces de captar, medir y clasificar emociones humanas. 

¿Cómo es eso posible?


Condiciones para la percepción de la emoción


Podemos decir que para que una emoción humana pueda ser captada, medida, analizada y clasificada, es preciso que se den dos condiciones:


  • Manifestación física: es decir, que esas emociones, que tendemos a entender como un fenómeno interno del que sólo nosotros somos conscientes, deje muy por el contrario un rastro externo, una manifestación física perceptible desde el exterior.

  • Consistencia: Que esas manifestaciones físicas perceptibles de la emoción sigan patrones comunes, razonablemente consistentes, de forma que la misma emoción se manifieste de forma parecida y con arreglo a los mismos patrones, cuando se experimenta por la misma persona en diferentes momentos del tiempo, por diferentes personas e, incluso, en diferentes culturas.

Y lo cierto es que esas condiciones se dan en la realidad: las emociones humanas producen una manifestación física externa y esas manifestaciones físicas externas de la emoción se adhieren a patrones más o menos comunes y consistentes hasta el punto de permitir la percepción, medida y una cierta clasificación de esas emociones.

Para ello, los robots se confían a la evolución y avance de dos tipos de tecnologías que se corresponden con las dos condiciones. Por un lado a la "sensórica", la construcción de dispositivos capaces de captar y medir esas manifestaciones externas de la emoción. Y, por otro lado, la inteligencia artificial y el machine learning como mecanismo de reconocimiento y clasificación de patrones.

Pensando sobre todo en lo que tiene que ver con sensores ¿de qué posibilidades tecnológicas disponemos? 

En el  libro 'Emotional Design in Human-Robot Interaction: Theory, Methods and Applications' editado por Hande Ayanoglu y Emilia Duarte se dedica un capítulo al tema de la captación y medida de emociones y se nos propone una división entre medidas subjetivas y medidas objetivas. Las primeras, las subjetivas, en realidad no se ajustan al patrón que hemos descrito puesto que son las personas las que informan en los experimentos de su estado emocional. No obstante, revisamos ambas categorías.


Medidas subjetivas


En estas medidas son los propios individuos los que informan de sus emociones mediante encuestas o informes.

Las 18 emociones de PrEmo


En la obra citada se menciona, por ejemplo, PrEmo, una herramienta creada en 2000 y que consiste en 18 imágenes de tipo comic (ver imagen) que representan emociones: 9 son emociones positivas y 9 negativas.

Otra herramienta que aparece es SAM (Self-Assessment Manikin) creado en 1994  y que evalúa la activación ('arousal') o sea, la intensidad de la emoción, la valencia ('valence'), es decir, si es positiva o negativa,  y el dominio emocional ('emotional dominance'), o lo que es lo mismo, la sensación de control sobre el evento que provoca la emoción.

Y se mencionan otros como PANAS ('Positive and Negative Affect Schedule') o FACS ('Facial Actions Coding Systems'), éste último usado con expresiones faciales y que descompone las expresiones faciales en sus componentes de movimientos musculares.

Aunque estas herramientas se han usado y usan en el campo de la Interacción Personas-Robots (HRI, Human-Robot Interaction) parecen más orientadas, al menos esa es mi conclusión, a obtener datos etiquetados que sirvan posteriormente para el aprendizaje de los algoritmos que realmente van a identificar emociones en personas. 

Es decir, que este tipo de técnicas, aunque puedan tener otros muchos valores desde el punto de vista de la psicología, para el tema que nos ocupa, la detección de emociones por parte de los robots, creo que sirven como una herramienta para potenciar el lado de la inteligencia artificial en su fase de aprendizaje o entrenamiento.

Medidas objetivas


Las medidas anteriores, aparte de su subjetividad intrínseca, están sometidos al riesgo de la racionalización consciente, lo que puede ocultar mecanismos no explicitados. Existen sin embargo otro conjunto de técnicas (y tecnologías) para la medida y que tiene más que ver con el lado de la "sensórica".

Los autores de este capítulo, a saber, Hugo Alexandre Ferreira y Magda Saraiva, nos explican que en la formación de las emociones intervienen muchos elementos del sistema nervioso y así, y de forma simplificada, nos enumeran, dentro del sistema nervioso central, al cerebro, a los órganos de los sentidos y a la médula espinal. Y dentro del sistema nervioso periférico, al sistema somático, al sistema autónomo, al simpático y al parasimpático. En todos ellos las emociones tienen reflejo por lo que, potencialmente, en todos ellos podríamos intentar medir algún reflejo físico de las emociones.

También nos explican que, habitualmente, a la hora de medir emociones se consideran tres dimensiones que ya hemos citado (activación, valencia y dominio):
  • Activación ('arousal'): Indica el grado de alerta o excitación y se relaciona sobre todo con el sistema nervioso autónomo y con el sistema endocrino. Por tanto, se medirá en el propio cuerpo pero, afortunadamente, tiene otro tipo de manifestaciones en gesticulación facial. por ejemplo. Más concretamente, los autores mencionan esta lista de manifestaciones y posibles medidas o mecanismos de evaluación:

    • Diámetro de la pupila Donde la técnica a usar es el seguimiento ocular ('eye tracking')

    • Patrones de movimientos oculares medibles mediante 'eye tracking' y EOG (ElectroOculoGraphy)

    • Gesticulación facial que se procesa mediante reconocimiento facial o EMG (ElectroMioGraphy)

    • Habla mediante análisis de voz/sonido, ECG (ElectroCardioGraphy) o IMU (Inertial Measurement Unit, que incluye acelerómetro, giróscopo, magnetómetro y barómetro)

    • Ritmo y variabilidad de las pulsaciones usándose en este caso ECG (ElectroCardioGraphy), PPG (PhotoPletismography) y vídeo.

    • Ritmo y patrones de respiración mediante sensores de presión, EMG (ElectroMioGraphy), PPG (PhotoPletismography) y oximetría.

    • Presion arterial medida por medio de sensores de presión y PPG (PhotoPletismography).

    • Temperatura mediante termómetros, infrarrojos o cámaras térmicas.

    • Sudor usando GSR (Galvanic Skin Response) o EDA (ElectroDermal Activity).

    • Actividad cerebral quizá lo más fascinante y desafiante y a lo que se tiene cierto acceso mediante EEG (ElectroEncefalGraphy).

  • Valencia ('valence'): que indica de alguna manera el sentido de una emoción (si es positiva o negativa), algo que no se puede correlar de forma simple a la activación del sistema nervioso autónomo ya que la reacción puede ser muy parecida independientemente de la valencia. En su lugar, se acude a manifestaciones más externas como la gesticulación facial, movimientos y posturas del cuerpo o los gestos. También se han encontrado trazas de la valencia en elementos de la actividad cerebral. Las técnicas identificadas en este caso (algunas coincidentes con las vistas antes) son:

    • Gesticulación facial reconocimiento facial o EMG (ElectroMioGraphy).

    • Habla análisis de voz/sonido, ECG (ElectroCardioGraphy) o IMU (Inertial Measurement Unit).

    • Movimientos corporales captados mediante VIS/IR (VISible InfraRed) y cámaras de profundidad 3D.

    • Actividad cerebral mediante (EEG ElectroEncefalGraphy) y otras técnicas que se mencionan más abajo el apartado 'global')

  • Dominio ('dominance'): que se percibe con base en la actividad cerebral.

  • Global ('overall'): se usan técnicas basadas en neurofisiología y neuroimagen como fMRI (functional Magnetic Resonance Imaging), fNIRS (functional Near Infra-Red Spectroscopy), MEG (MagnetoEnceloGraphy), PET (Positron Emission Tomography), BCI (Brain-Computer Interface), TCS (Transcranial Current Stimulation) o TMS (Transcranial Magnetic Stimulation)

En conclusión


Se trata, como se puede observar, de una lista larga de técnicas / tecnologías, cada una con sus fundamentos físicos que habilitan la existencia de sensores y con su correlación con las emociones que es lo que, en el fondo, deseamos conocer. 

Probablemente valga la pena detenerse a conocer cada una de esas técnicas, y quizá en algún momento dedique espacio en este blog a comentar alguna de ellas, pero de momento el mensaje relevante es que si, nuestras emociones dejan trazas externas observables y medibles, que sí, esas manifestaciones físicas observables presentan patrones comunes y, por tanto, sí, los robots pueden detectar y de alguna forma medir y gestionar las emociones humanas.

lunes, 7 de diciembre de 2020

Pensamiento humano versus pensamiento robótico: la paradoja de Moravec

A veces parece que la Inteligencia Artificial se acerca a la humana. Los avances en inteligencia artificial y robótica son tan impresionantes, que a veces nos puede producir la impresión de que estamos a punto de conseguir una suerte de 'sorpaso' robótico a las personas, que puede que estemos cerca de la famosa singularidad en que las máquinas superarán en inteligencia a las personas. 

Y, sin embargo, las cosas no son así. Las máquinas, los robots, están mucho más lejos de lo que parece de alcanzar la inteligencia de una persona. No me atrevo a pronosticar si alguna vez se producirá ese 'sorpaso' ni, caso de que éste sea posible, cuándo puede acaecer. Lo que sí me parece meridianamente claro es que aún no estamos en ese punto, ni siquiera demasiado cerca.

Podríamos concentrar en dos ideas, esa lejanía de las capacidades cognitivas robóticas frente a las humanas. Y ello basándonos en dos conceptos antiguos de la inteligencia artificial.


Inteligencia artificial fuerte y débil



En primer lugar la famosa distinción entre inteligencia artificial fuerte y débil. La primera, la inteligencia artificial fuerte, la que podría suponer una verdadera superinteligencia capaz de superar a la humana, es una inteligencia de propósito general, capaz, como la humana, de tratar con todo tipo de problemas y situaciones, que lo mismo resuelve un problema matemático que cuenta un chiste, que es capaz de jugar al ajedrez, pero también de captar un doble sentido. La inteligencia artificial débil, por su parte, es una inteligencia artificial que se concentra en problemas concretos: la detección de objetos, el reconocimiento de personas, el entendimiento del lenguaje. etc. Y lo cierto es que todavía nos encontramos en el punto de la inteligencia artificial débil, la que resuelve esos problemas concretos.

Bien es cierto que esos problemas que resuelve la inteligencia artificial débil son problemas complejos y de mucho mérito. Es cierto que cada vez sabemos hacer más cosas mediante inteligencia artificial y que el desarrollo se produce de manera rápida. Es cierto, incluso, que cada vez integramos en un mismo robot o en un mismo software mayor número de capacidades inteligentes individuales. Los robots avanzados, por ejemplo, incluyen capacidades de procesamiento y generación de lenguaje natural, unidad a capacidades de visión artificial y también capacidades ligadas a la planificación y gestión del movimiento. Todo ello unido nos impresiona y parece acercarnos a esa visión del humanoide robótico completo. Pero, aunque los avances son innegables e impresionantes, esa especie de inteligencia artificial integrada no es aún, diría que ni de lejos, una inteligencia artificial realmente fuerte.


La paradoja de Moravec



Hans Moravec
Y algunas de las dificultades para conseguir esa inteligencia artificial fuerte parecen guardar relación con la ya muy antigua paradoja de Moravec, la segunda idea que quería mencionar. Y es que, según este famoso investigador de origen austriaco, se produce la paradoja de que cosas que para los humanos son muy complicadas, como por ejemplo, el juego del ajedrez o los cálculos matemáticos, son sencillas para las máquinas y nos superan en ello. Pero, sin embargo, cosas muy sencillas para los humanos, capacidades relacionadas sobre todo con la percepción y entendimiento del entorno, el contexto o el sentido común, resultan extraordinariamente complejas para las máquinas.

El origen de la paradoja parece residir en que esas capacidades cognitivas humanas a las que no concedemos importancia porque todos las poseemos, y creemos por que ello que son capacidades básicas y sencillas, no lo son en absoluto, sino que son extraordinariamente complejas, mas que esas otras que consideramos más avanzadas. El motivo parece ser de una especie de aprendizaje evolutivo.

Las capacidades más básicas, las que tienen que ver por ejemplo con la percepción del entorno y su entendimiento de manera global, son capacidades muy antiguas, que compartimos en buena medida con los animales, y que se han ido afianzando y perfeccionando a lo largo de milenios y milenios de evolución y selección natural pero que heredamos de manera natural al nacer. Nos vienen dadas, si, pero fruto de un aprendizaje y optimización milenarios. 

Por el contrario, las capacidades que consideramos más avanzadas, más intelectuales, más plenamente humanas, son relativamente recientes en el panorama evolutivo. Podemos decir que son más avanzadas, y en cierto sentido lo son, porque se apoyan en las anteriores, pero a nivel de su estructura interna, de su mecánica cognitiva, son en realidad más sencillas, más fáciles de entender y, sobre todo, y para lo que nos interesa, más fáciles de emular en una máquina inteligente. 


En conclusión



Deslumbrados por la capacidad de la inteligencia artificial e incluso de disciplinas de computación más sencillas, para emular y superar el razonamiento humano en esas capacidades aparentemente superiores, creemos hallarnos cerca de la inteligencia general, pero la dificultad para emular las capacidades cognitivas humanas básicas, las que nos parecen inferiores pero en realidad son mucho más sofisticadas, nos baja a la realidad y nos hace ser conscientes de que, a pesar de los innegables y fantásticos avances en robótica e inteligencia artificial, aún estamos lejos de ese 'sorpaso', y más aún de la famosa singularidad, caso que sea, siquiera, posible.


miércoles, 2 de diciembre de 2020

Tres componentes técnicos esenciales para el reconocimiento de la emoción en la voz

Muchos son los canales por los que los humanos expresamos las emociones. Y muchas son las fuentes de información (y los sensores y algoritmos) que un sistema artificial debe utilizar si quiere aprovechar esa riqueza expresiva para detectar emociones.

Uno de los canales que más utilizamos los humanos es la voz, la voz que expresa en lenguaje natural, mediante denotación y connotación, nuestros  pensamientos y emociones. Pero mucha información emocional acompaña a la fonética, al timbre, a la entonación.

La detección de la emoción con base en la voz, es un desafío tecnológico y algorítmico. En el libro libro 'The Oxford Handbook of Affective Computing'  se identifican tres componentes que se consideran fundamentales para un sistema de reconocimiento de emociones basado en voz. Son los siguientes:


  • Etiquetado de emociones: Definición e implementación de un sistema de etiquetado de emociones que proporcione la base para la computación. Al fin y al cabo, la detección de emociones suele reducirse a un problema de los denominados de clasificación en que, ante una entrada más o menos compleja, respondemos con una salida que es una etiqueta de categoría y, en este caso, buscamos las categorías que mejor estructuran las emociones.

  • Normalización: Transformación de las señales originales en una señales normalizadas que eliminen el efecto en la voz de otros aspectos que no tienen que ver con las emociones.

  • Algoritmos: Una algoritmia basada, como no es difícil de imaginar, en machine learning y que sea capaz de implementar un modelo que, ante una señal normalizada (componente 2) sea capaz de proporcionar una etiqueta (componente 1) que represente adecuadamente la emoción expresada.


Un esquema claro, aunque mucho más fácil de expresar que, evidentemente, de diseñar e implementar.