miércoles, 24 de febrero de 2021

Cinco aspectos es que nuestros cerebros aún superan a la inteligencia artificial

Corren, como se suele decir, ríos de tinta al respecto de aquellas capacidades en que los ordenadores, y particularmente los sistemas de inteligencia artificial, superan a las personas e hipotetizando sobre la posibilidad de llegar a la tan traída y llevada singularidad en que las máquinas superen a los humanos y se auto-mejoren dejando a la raza humana en un peligroso 'fuera de juego'.

Y corren también otros ríos de tinta, tan caudalosos como los anteriores, que defienden la superioridad de la mente humana y a veces se atreven a asegurar que las máquinas jamás nos podrán superar.

En muchos casos el debate cae en la imprudencia y utiliza, por un lado y por otro, posiciones gratuitas e injustificadas, más cercanas a la opinión, la especulación o el apriorismo que al argumento lógico, al dato o al anclaje en la realidad.

No me voy a pronunciar en exceso sobre la adecuación de sus argumentos, pero sí voy a recoger la opinión de Gary Marcus y Ernest Davies, quienes en su libro 'Rebooting AI. Building Artificial Intelligence We Can Trust' nos señalan cinco aspectos en los que, a su juicio, el cerebro humano supera todavía a los ordenadores. Son estos:


  • Entender el lenguaje

  • Entender el mundo

  • Adaptarnos flexiblemente a las circunstancias

  • Aprender cosas rápidamente sin necesidad de grandes cantidades de datos

  • Razonar a pesar de disponer de una información incompleta e incluso inconsistente

Lo más llamativo de esta propuesta de Marcus y Davies es que no recurren a tópicos en apariencia más fáciles de defender, como pueden ser la creatividad, el humor, la improvisación o el sentimiento. Muy al contrario, se concentran en capacidades, digamos, muy intelectuales, y más sorprendentemente todavía, el algunas que pueden parecer discutibles.

Nos dicen, por ejemplo, que los seres humanos superan a los ordenadores en entender el lenguaje cuando ya son moneda corriente los sistemas que interactúan por voz y usando lenguaje natural. O que, nos superan en entender el mundo o adaptarse cuando ya vemos vehículos autónomos, robots móviles o drones avanzados que parecen entender perfectamente su entorno y adaptarse.

Y sin embargo, no les falta razón. 

Es cierto que los sistemas de entendimiento de lenguaje natural, aún no alcanzan un verdadero entendimiento, sino sólo un entendimiento muy parcial que les permite extraer informaciones útiles, estructurar el discurso o reconocer intenciones dentro de un catálogo acotado. Pero no alcanzan un conocimiento profundo ni pones ese conocimiento en relación con un contexto amplio o con el llamado 'sentido común'.

Y es cierto que los vehículos autónomos perciben e interpretan su entorno pero siempre dentro de unos parámetros mas o menos conocidos y unos entornos más o menos previsibles. 

Es cierto, pues, que los seres humanos superamos aún a las máquinas en esos aspectos, aunque quizá los mencionados se traten de algunos de los baluartes que a lo mejor no podamos defender a largo plazo.

Parece muy claro que las máquinas nos superan en algunas cosas (en parte por eso las queremos) y en otras no. Y parece que aún vamos ganando ¿Seguirá siendo el saldo neto resultante favorable a los humanos como sin duda lo es ahora o se desequilibrará a favor de las máquinas en el futuro? 

A largo plazo sólo podemos hacer apuestas pero argumentar poco. 

A corto, y a pesar de los enormes avances de la inteligencia artificial, la verdad es que 'no hay color'. Seguimos ganando por goleada.


lunes, 22 de febrero de 2021

Seis preguntas a formular a cada nuevo éxito en Inteligencia Artificial

Cuando una tecnología o una metodología se ponen de moda comienzan a aparecer noticias confusas, inexactas y grandilocuentes sobre ella. Quizá no ocurra solo en tecnología ni metodologías pero, desde luego, en esos campos ocurre y mucho.

Y, claro, ese 'bombo', esa exageración y esa inexactitud no podía dejar de afectar a una disciplina tan potente, tan atractiva y que tanto pie da a la imaginación como es la inteligencia artificial.

Y, en efecto, nos movemos en medio de un torrente de noticias fantásticas y exageradas, de especulaciones y errores de concepto, de opiniones no fundamentadas, de promesas de tierras prometidas y de advertencias apocalípticas, que se entremezclan con los hechos, las verdades y los innegables y espectaculares avances y éxitos que realmente se están produciendo en el campo de la inteligencia artificial.

¿Cómo separar el grano de la paja? ¿Cómo saber dónde está la verdad? 

No es fácil, desde luego, pero como principios generales, conviene ser prudentes e incluso un poco escépticos, leer de varias fuentes (incluyendo la literatura más técnica aunque puedan ser mas 'dura') y contrastar si es posible con profesionales reales de este campo.

Un poco en esa línea, en su libro 'Rebooting AI. Building Artificial Intelligence We Can Trust'. Gary Marcus y Ernest Davies nos proponen seis preguntas que deberíamos formular ante la noticia de un gran éxito en inteligencia artificial. Son estas:


  • Dejando a un lado toda la retórica, ¿Qué es lo que realmente hace el sistema de inteligencia artificial?

  • ¿Cuán general es el resultado? Es decir, ¿se aplica sólo a una situación muy específico o es realmente genérico?

  • ¿Existe algún tipo de 'demo' para probar con mis propios ejemplos. Los autores aconsejan ser excépticos con el presunto avance si esa 'demo' no existe.

  • En caso de que los investigadores o, más bien, sus gabinetes de prensa) argumenten que el sistema de inteligencia artificial es mejor que los humanos, concretar de qué humanos estamos hablando y cuánto mejor es el el sistema.

  • ¿Hasta qué junto el éxito en esa tarea en concreto nos acerca a una inteligencia artificial genuina?

  • ¿Cómo de robusto es el sistema? ¿Se puede aplicar con otros conjuntos de datos sin necesidad de un re-entrenamiento masivo?

Como se puede observar, por detrás de esas preguntas late un cierto escepticismo, pero diría que no es un escepticismo sobre la tecnología en sí, sino sobre la comunicación exagerada, ampulosa y falta de exactitud que sobre la misma se suele hacer.

Diría, además que aunque estas preguntas están pensadas para el campo de la inteligencia artificial, en buena medida son aplicables, las preguntas y, sobre todo, el espíritu que las anima, a muchas otras tecnologías, metodologías e incluso simples tendencias de todo tipo.

Por desgracia, no podemos evitar la comunicación incorrecta, el 'postureo' tecnológico ni la sobre-actuación. Pero lo que sí podemos es ser prudentes, hacernos preguntas e intentar contrastar las noticias.


miércoles, 17 de febrero de 2021

Robótica y el retorno de la lógica difusa

Hace ya muchos años oí hablar de la lógica difusa o borrosa o, por su nombre original en inglés, 'fuzzy logic'. Se trata de una lógica que, en lugar de operar con valores exactos de sus variables, trabaja con términos ambiguos como 'poco', 'bastante', 'cerca' y términos por el estilo, de una forma parecida a como, en apariencia, o al menos superficialmente, razonamos con frecuencia los humanos.

La lógica difusa resuelve el problema tratando esos conceptos ambiguos como unas funciones de probabilidad. Es decir, a un valor concreto de una variable se le asigna una probabilidad de pertenencia a un valor difuso como 'bastante'. Y luego es capaz de aplicar reglas lógicas a esos términos borrosos.

Con esta base, los sistemas o controladores que utilizan lógica difusa, trabajan normalmente en tres fases:

  • Fuzzification: es decir, conversión del valor exacto en un valor borroso

  • Inferencia difusa: aplicación de reglas de inferencia que trabajan con términos borrosos y que constituyen la verdadera lógica difusa.

  • Defuzzification: paso, de nuevo, del valor difuso, a un valor concreto que se pueda emplear en un actuador físico real.

Lofti Zadeh
La lógica difusa tuvo su bautizo con el artículo 'Fuzzy sets' de Lofti Zadeh, publicado en 'Information and control'  nada más y nada menos que en 1965 y se ha considerado con frecuencia, o al menos así la conocí yo, como una técnica de Inteligencia Artificial

Pero la lógica difusa ha tenido, o al menos en mi percepción, una existencia algo gris, con algún periodo de esplendor pero, en general, bastante olvidada en la literatura y con muy poca presencia en medios populares ahora que todo lo que tiene que ver con la inteligencia artificial está omnipresente. Ni siquiera se suele mencionar ya a la lógica difusa como un ejemplo de técnica de inteligencia artificial, quizá deslumbrados por el machine learning y las redes neuronales profundas.

Puede ser un tema de marketing o puede que, simplemente, la lógica difusa, con éxitos que la han llevado hace ya muchos años a incorporarse a soluciones como el enfoque de cámaras fotográficas, se haya convertido en una tecnología ya asimilada y por tanto poco atractiva.

A veces me he preguntado qué ha sido de la lógica difusa, si sigue viva, dónde se aplica y si se investiga o trabaja más en ella y desde hace tiempo tengo en mi debe actualizarme un poco respecto a su estado del arte.

Pero, de forma un poco involuntaria, he recibido muy recientemente una pequeña actualización. Finalizando la lectura del libro 'Introduction to robotics: analysis, control, applications' de Saeed B. Niku, me he encontrado un último capítulo dedicado precisamente a la lógica difusa, evidentemente, orientada al campo de la robótica. El capítulo cuenta, de forma breve, sus fundamentos técnicos y lógicos y ya al final identifica algunas aplicaciones.

Nos dice que hay situaciones en que la lógica difusa puede ser la opción preferida o, incluso, la única. Y entre esas aplicaciones nos menciona el sistema de control para un robot móvil que se tenga que mover en un terreno irregular (mi mente se ha ido a vídeos del famoso robot Spot de Boston Dynamics caminando por exteriores), o el de un robot humanoide que 'choque los cinco' con una persona o, de nuevo, el de un robot humanoide cuyos rasgos faciales se modifiquen en función de lo que perciba en un interlocutor humano (ahora no he podido evitar pensar en el robot Sophia) o, por último, en los robots colaborativos que en ambientes industriales trabajan mano a mano con personas.

Se trata, como se ve, de ámbitos de aplicación muy avanzados y actuales.

Así que parece que no, la lógica difusa no estaba muerta. ni siquiera estaba viva pero convertida en algo asimilado y aburrido. Parece no solo viva, sino muy fresca y vital.

Quizá, sólo quizá, asistamos entonces al retorno de la lógica difusa y ésta se ponga de moda, no sé si decir que nuevo o casi, casi, por primera vez.


viernes, 12 de febrero de 2021

Tres principios para unas máquinas inteligentes beneficiosas para la humanidad

Cuando miramos hacia el futuro de la inteligencia artificial, un futuro que no sabemos del todo bien dónde situar, nos asaltan dudas y temores acerca de si realmente se puede alcanzar una inteligencia artificial generalista, una máquina super-inteligente, tan inteligente que pudiera superar de manera general a la inteligencia humana y que. en las visiones más extremas, en la llamada singularidad, se pueda llegar a  auto-mejorar y hasta tomar el control independizándose, por así decirlo, del dominio humano.

¿Es eso posible?

Creo que la respuesta más realista y honrada es que no lo sabemos. No parece que sea seguro, pero tampoco imposible. Si está claro que estamos lejos, bastante lejos de ese punto.

Pero estamos lejos si hablamos de nuestro nivel tecnológico actual, de las capacidades de la inteligencia artificial presente, frente a las que se necesitarían para una inteligencia artificial general como la mencionada. Pero no necesariamente lejos si hablamos de tiempo. Una disrupción tecnológica, un descubrimiento radical, podría acercar mucho algo que ahora mismo parece muy lejano, casi pura fantasía.

No estamos, pues, seguros de ese escenario sea posible, pero tampoco de que sea imposible. Así que quizá convenga estar vigilantes y preparados, y con tiempo, para un evento tan importante, tan disruptivo para la humanidad, quizá el más relevante desde su propia creación.

Trabajando un poco en esa línea Stuart Russell, en su libro 'Human compatible: AI and the problem of control' se preocupa inicialmente sobre lo que puede pasar si la inteligencia artificial alcanza el notable éxito de construir una inteligencia artificial general, un éxito que, sin embargo, el autor parece ver como un regalo envenenado, algo que pone en riesgo a la humanidad.

Sin embargo, su visión no es del todo pesimista, o al menos no del todo desesperanzada. No aboga por una eventual prohibición del desarrollo de la Inteligencia Artificial, una prohibición que no ve, por otro lado, muy viable.

Stuart J. Russell
Lo que aboga en realidad, al menos eso es lo que yo entiendo, es por cambiar la forma de diseñar los algoritmos de inteligencia artificial, para adoptar unas políticas que eliminen el riesgo de que las máquinas tomen el control en nuestra contra.

Para ello indica que debemos dejar de trabajar con máquinas o algoritmos a los que les establecemos objetivos, ya que esos objetivos se convierten en una suerte de mandamientos ineludibles, unos mandatos que la máquina o el robot intenta cumplir a toda costa, 'caiga quien caiga' por así decirlo. Y en la persecución del cumplimiento de sus objetivos puede generar muchos daños y acciones indeseadas incluyendo el evitar su propio apagado o ignorar las voluntades de los humanos o el daño que les pueda infligir puesto que eso va en contra del cumplimiento de sus objetivos.

Como alternativa, nos habla de unas máquinas beneficiosas  ¿Qué son esas máquinas beneficiosas? Pues, en palabras del propio Russel:

 

machines whose actions can be expected to achieve our objectives rather than their objectives.


O sea, que el truco está en cambiarle los objetivos. Ya no deben tener objetivos propios, aunque sean objetivos marcados por los humanos, sino que su gran objetivo pasa a ser el cumplimiento de los deseos de los humanos

Y para articular un poco más esa idea aporta tres principios que deben gobernar esas máquinas beneficiosas y que nada tienen que ver con las leyes de la robótica de Asimov (aunque un parecido lejano sí parecen guardar) Esos tres principios son


  • Máquinas altruistas puras: El único objetivo de la máquina es maximizar la realización de las preferencias humanas

  • Máquinas humildes: La máquina inicialmente tiene incertidumbre acerca de cuáles son esas preferencias

  • Predecir las preferencias humanas: La fuente última de información sobre las preferencias humanas es el comportamiento humano

Quizá convenga aclarar un poco el sentido de los dos últimos principios. La humildad, el desconocimiento inicial de cuáles son las preferencias humanas, obliga a que la máquina tenga que aprender de los humanos, para lo cual se aplicará el tercer principio. La idea es evitar una especie de soberbia algorítmica' que le haga 'pensar' a la máquina que sabe todo sobre los humanos sin 'consultar' realmente cómo son y qué prefieren. De no hacerlo así la máquina actuaría con una peligrosa 'cabezonería' similar a cuando le ponemos objetivos propios con el riesgo que eso conllevaría.

El tercer principio garantiza que esa super-inteligencia realmente se fija en los humanos para aprender evitando otras fuentes.

¿Cómo suenan esos principios?

¿Quizá abstractos y simplistas? ¿Quizá futuristas? ¿Quizá lejanos de una implementación real en algoritmos reales?

Puede que un poco sí, pero no olvidemos, por una parte, que estamos hablando de un futuro incierto y, por otro lado, y sobre todo, que quien los formula, Stuart Russell, es un muy buen conocedor de cómo funciona la inteligencia artificial real, fuera de toda fantasía, así que quizá tenga sentido darles a estos principios algún tipo de oportunidad.


miércoles, 10 de febrero de 2021

Una hipótesis sobre el impacto de la automatización en el empleo

¿Cómo influirá una creciente automatización en el empleo neto? ¿Destruirá empleo?¿Creará empleo?

El miedo a una destrucción masiva de empleo ante el avance de la automatización, una automatización cada vez más inteligente y capaz de sustituir no solo trabajos manuales sino también muchos trabajos intelectuales y cualificados, está más que justificado.

¿Pero tiene que ser así? ¿Tiene realmente que destruirse empleo neto?

Hay argumentos en las dos direcciones.

Los más pesimistas parecen mirar a lo inmediato y deducir que, evidentemente, si se automatizan muchos trabajos, deja de ser necesaria la mano de obra, y dejamos por tanto de ser necesarias las personas, estando abocados al paro masivo.

Los más optimistas piensan que si, que se destruirán ciertos empleos, pero que se crearán otros nuevos y que el balance neto será positivo. Y la revisión histórica de lo ocurrido con otras revoluciones industriales y tecnológicas parece darles la razón.

Sin embargo, en general estos análisis, al menos hasta donde yo he podido ver, y a pesar de aportar aquí o allá algún dato numérico, parecen más temerosos o voluntaristas según el caso que científicos, con escaso peso teórico, con poca aparato estadístico o matemático, con pocos argumentos sólidos en definitiva. En buena medida son más opiniones que análisis rigurosos.

Recientemente me he encontrado con otra forma de argumentar que me ha llamado la atención por lo diferente. No es que sea una teoría detalladísima, no al menos en lo que yo he podido ver, pero sí parece alumbrar una versión algo más razonada y no del todo evidente.

Se trata de la exposición que hace Stuart Russel en su libro 'Human compatible: AI and the problem of control' y que ejemplifica con el caso casi trivial de la pintura de paredes y el impacto de la tecnología (en este caso el grueso de las cerdas del pincel). La curva que ofrece es la siguiente:

Según este autor, la evolución del desempleo con la mejora tecnológica no sigue siempre la misma dirección. Al principio, cuando el nivel tecnológico es relativamente bajo, una mejora tecnológica aumenta el empleo. ¿Por qué? Porque el aumento de productividad que supone la tecnología, hace que un cierto tipo de servicios o soluciones que antes eran caros y poco atractivos, pasen a ser interesantes, se compren cada vez más y, por tanto, para que la producción pueda satisfacer la demanda, se genera empleo.

Sin embargo, a partir de un cierto punto en que ya no se va a demandar más, un aumento de tecnología, de automatización, supone ya una eliminación de mano de obra humana. Si no hay demanda adicional pero se necesita menos mano de obra humana para la producción, el resultado es el desempleo.

No puedo decir si este planteamiento es cierto o no, pero me parece un razonamiento interesante. Eso sí, no veo claro si está contemplando la tecnología y los servicios asociados un poco desconectados de lo que pasa en otros servicios o en el resto de la sociedad. Es posible que el incremento de riqueza que ha supuesto ese incremento de productividad se pueda traducir en mayor consumo de bienes y servicios completamente diferentes, tirando del empleo y llevando a un resultado neto positivo o al menos a suavizar el impacto.

En fin, la idea es interesante aunque tal vez no del todo concluyente.

Lo que probablemente podamos dar por seguro es el aumento creciente de la automatización por lo que, en la forma que corresponda, deberíamos prepararnos para ello.


lunes, 8 de febrero de 2021

Un valle inquietante táctil. Una experiencia práctica.

En el mundo de la robótica es bien conocido el fenómeno del valle inquietante o 'uncanny valley', una hipótesis propuesta por el profesor de robótica Masahiro Mori y, en realidad, nunca completamente confirmada, incluso discutida por algunos autores, pero que ha gozado de amplio predicamento y difusión.

Masahiro Mori

El valle inquietante recoge la reacción emocional de las personas ante un objeto, digamos que un muñeco o un robot, en función del parecido de ese robot con una persona sana.

Lo que la hipótesis del valle inquietante aplicada a robots viene a decir es que, a medida que un robot se va pareciendo más a una persona, aumenta la aceptación del mismo por los humanos. Pero esa tendencia positiva se rompe bruscamente cuando el robot ya se parece mucho a un humano sano pero todavía no es claramente igual. Existe, según la hipótesis, una zona relativamente estrecha de similitud con los humanos en que, no sólo no aumenta la aceptación sino que se produce un rechazo claro. Y la aceptación sólo vuelve a aumentar, y lo hace fuertemente, si el robot se parece muchísimo al humano sano hasta ser casi indistinguible.

El valle inquietante. Fuente: IEEE

Alguna posibilidad explicativa de ese valle inquietante que he tenido oportunidad de escuchar es que podría ser una reacción ante una figura que por parecerse mucho a un humano, pero no del todo, nos puede instintivamente recordar a una persona enferma, a un cadáver e incluso a un zombi.

El valle inquietante es sólo una hipótesis, no claramente confirmada empíricamente y discutida por algunos científicos y roboticistas. Aparte de la falta evidencia empírica, se le achacan cosas como que lo que marca la aceptación o rechazo no es sólo el aspecto sino un conjunto complejo de elementos que incluyen también, por ejemplo, el comportamiento. También hay quien piensa que ese rechazo puede ser sólo inicial y que rápidamente nos acostumbraríamos a ese robot con solo mantener el contacto.

Cuando he leído sobre el valle inquietante, es cierto que en general parece que el factor desencadenante de la aceptación o rechazo es en esencia el aspecto visual. Sin embargo, quisiera relatar una experiencia personal, probablemente poco relevante, pero que para mi fue llamativa.

Hace pocos días tuve ocasión de visitar un centro en que estaban trabajando y desarrollando software para varios robots, robots sociales por más señas.

La mayoría tenían el aspecto que podemos esperar de un robot social: una apariencia más o menos humanoide, pero claramente diferenciada como máquina y, en algún caso, podría ser discutible lo de humanoide porque sólo tenía trazas ligeras de esa 'humanidad'. Unos robots construidos, como es habitual, con metal, plástico y materiales parecidos.

Pero había un robot diferente: un robot con apariencia claramente humana, algo así como un maniquí pero dotada de voz y con una cierta dosis de expresión facial (algo así como una versión algo menos sofisticada del famosísimo robot Sophia). En cuanto a aspecto, diría que se movía en una zona cercana al valle inquietante, probablemente sin alcanzarlo del todo.

Pero lo que me llamó más la atención no fue el aspecto, sino el tacto. Desde hace tiempo tenía yo curiosidad por conocer el tacto que tienen esos robots que en cierta medida imitan la piel y musculatura humanas. Quería saber la sensación que produce y hasta qué punto se parece a tocar a una persona.

Así que tomé la mano del robot.

Y la sensación era extraña, bastante extraña. El tacto era suave y próximo a la carne y piel humanas e incluso podría decir que era casi cálido... pero sin duda tampoco era igual que un ser humano. Había un algo diferente y se notaba la ausencia de huesos lo que le confería una extraña blandura a lo cual se unía que era una mano inerte (no sé si porque este modelo de robot no es capaz de mover las manos y sus dedos o porque en ese momento no lo hizo como respuesta a mi acción de tomar su mano). En fin, como digo, una sensación extraña. No exactamente desagradable, pero sí extraña.

Unas horas más tarde se me ocurrió pensar que, quizá, sólo quizá, lo que había yo experimentado al tocar la mano de ese robot humanoide era una suerte de versión atenuada de valle inquietante, pero un valle inquietante que, en esta ocasión no tenía que ver con el aspecto, sino con el tacto.


viernes, 5 de febrero de 2021

¿Cuando se producirá 'la singularidad'? Tres motivos para evitar pronunciarse

La singularidad, ese fenómeno anunciado por pensadores futuristas como Ray Kurzweil y que identifica el punto en la historia, muy cercano según algunos visionarios incluyendo al propio Kurzweil, en que las máquinas superarán en inteligencia a los humanos y serán capaces de regir sus propios destinos...y tal vez el nuestro. 

¿ Es creíble que se llegue a producir esa singularidad? Y, en caso afirmativo, ¿Cuándo llegaría?

Para ambas preguntas hay opiniones para todos los gustos: desde quien afirma que 'la singuralidad está próxima', por ejemplo en 2050, hasta quien piensa que ese desempeño de las máquinas es, simplemente imposible.

Un pensador importante del campo de la inteligencia artificial, Stuart J. Russel, simplemente se niega a valorar la segunda pregunta: cuándo. Así, en su libro 'Human compatible: AI and the problem of control' alega tres motivos para no entrar ni siguiera a considerar el responder a la pregunta. En realidad, Russel no menciona la palabra 'singularidad', sino que el término que utiliza es una Inteligencia Artificial super-inteligente ('superintelligent AI')' pero no creo equivocarme al asimilar este concepto al de singularidad. En cualquier caso, estas son sus razones para no entrar en predicciones sobre el momento de su llegada:


  • Alta probabilidad de error: alega que existe una larga tradición de equivocarse en este tipo de predicciones e incluye algún ejemplo como cuando en 1967 Marvin Minsky predijo que en una generación el problema de crear inteligencia artificial estaría casi completamente resuelto...cosa que no hemos logrado ni de lejos hoy día, más de 50 años después.

  • Indefinición del umbral: No está definido realmente en qué consiste esa superinteligencia o cuándo ésta se considerará que ha superado a la humana. Explica que las máquinas ya superan de largo a los humanos en algunos aspectos. Pronostica que esos aspectos se harán más amplios y profundos pero ¿Con qué criterio, con qué medida, se considerará que, en conjunto, han superado a la inteligencia humana?- Nadie lo ha definido.

  • Impredecibilidad intrínseca: el tercer argumento, quizá el más original y relevante, es que se trata de un evento intrínsecamente impredecible. ¿Por qué? Pues porque no se va a conseguir por una mera evolución de la inteligencia artificial tal y como es hoy en día. Se necesita un salto cualitativo, un gran descubrimiento ('breakthrough'), algo que cambie realmente el terreno de juego. Y ese tipo de saltos, argumenta, son inherentemente impredecibles.

Así que, nos quedamos con las ganas de una estimación de la eventual llegada de la singularidad. Pero es una contención, en el fondo, muy razonable, no cual no quita que debamos estar muy atentos a la evolución. A lo mejor en algún momento, y caso de que la singularidad sea posible, nos podemos hacer una idea cierta de cuándo pueda suceder e intentar estar preparados para ello.

 

miércoles, 3 de febrero de 2021

Los altavoces inteligentes como Caballos de Troya

Tanto si te gusta esa comparación como si no, tengo que advertir que esa asimilación de los altavoces inteligentes a un Caballo de Troya no es realmente mía sino que la encuentro leyendo el libro 'Human compatible: AI and the problem of control' de Stuart J. Russell.

¿En qué sentido un altavoz inteligente es un Caballo de Troya?

Realmente en dos perspectivas completamente diferentes, una negativa y otra positiva. 


El Caballo de Troya como amenaza


La negativa, que no es a lo que se refiere Stuart J. Russell pero que se acerca mas a lo que en nuestra cabeza surge cuando nos hablan hoy en día de 'Caballos de Troya'. es la posibilidad de que esos altavoces recaben información de los usuarios que luego no sea tratada con suficiente respeto a la privacidad e intimidad. 

Es decir, sería la posibilidad del uso de esos altavoces inteligentes para el espionaje, por llamarlo de alguna manera. Ya ha habido algún escándalo al respecto y afamadas compañías que han reconocido recoger muestras de las conversaciones de sus clientes/usuarios aunque, eso sí, alegando que se emplean con respeto a la privacidad y sólo para mejorar los algoritmos y, por tanto, el servicio a sus clientes.

En el fondo, nada muy diferente al riesgo que corremos de toma de datos de nuestros smartphones o redes sociales o herramientas de mensajería como WhatsApp.


El Caballo de Troya como oportunidad


La otra visión es mucho más positiva, al menos en mi opinión, y hablaríamos de 'Caballos de Troya' más bien como una especie de cabeza de puente para el desembarco de la inteligencia artificial en los hogares, un papel que, en cierto modo, comparten con los smarthones. Esta es la frase más representativa de lo que dice Stuart Russell:


They are, in a sense, Trojan horses for AI. Because they are, embedded in so many lives, every tiny improvement in their capabilities is worth billions of dollars.


En efecto, en ambos casos, smartphones y altavoces inteligentes, se trata de dispositivos cada vez más ubicuos y, por tanto, cada vez más presentes en empresas, hogares y en las habitaciones e incluso la palma de la mano de cada uno de nosotros. Esto, unido a su conexión a la nube, les pone en una posición excelente para, por un lado hacer llegar sus mejoras y funcionalidades a grandes capas de población y, por otro, a actualizar con cierta facilidad y agilidad esas capacidades. Es decir, a una evolución rápida y ubícua.

Esto puede suponer el desembarco de muchas capacidades, incluyendo por ejemplo, también la domótica o, en el caso de los smartphones, la realidad aumentada.

Específicamente en el caso de la Inteligencia Artificial, la ubicuidad de este tipo de dispositivos ya ha generalizado las interfaces basadas en voz y lenguaje natural, dos de las grandes áreas de avance de la Inteligencia Artificial. Pero estas capacidades se pueden ir incrementando con otras relacionadas como conversaciones más inteligentes, traducciones, detección y manejo avanzado de sentimientos y emociones, etc. También cabría la adaptación inteligente al usuario con base en sus interacciones y gustos pasados.

Si el hardware de los altavoces inteligentes evoluciona un poco, podrían confundirse con la gama baja de los robots sociales y emplearse para usos relativamente sencillos pero útiles como el recordatorio de medicamentos a ingerir o de citas pendientes, convirtiéndose en unos asistentes personales efectivos.

Si el hardware evolucionase un poco más y se le dotase de movilidad, habríamos convertido, 'de facto' a los altavoces inteligentes en robots sociales y se podrían ir confundiendo cada vez más con robots de servicio.

No es imprescindible, sin embargo, la evolución del hardware, sólo con la presencia del altavoz, sus capacidad de interacción verbal, su posibilidad de conexión domótica y de conexión con la nube, las posibilidades funcionales y de nuevos servicios son enormes y suponen que, en efecto, y en el más positivo de los sentidos, los altavoces inteligentes pueden ser un caballo de Troya para la entrada de la automatización, la Inteligencia Artificial  y muchos otros servicios en nuestros hogares.

lunes, 1 de febrero de 2021

Efecto Baldwin, aprendizaje e inteligencia artificial

Uno de los elementos que diferencian a los algoritmos de Inteligencia Artificial, por lo menos a una buena parte de ellos, de otro tipo de algoritmos usados en computación y que producen resultados externos de aparente inteligencia, es la capacidad de aprendizaje, de mejorar y adaptar su comportamiento con base en su experiencia o en los ejemplos resueltos que se les propone.

Esta característica acerca un poco, siquiera un poco, a los agentes artificiales inteligentes, al comportamiento de los seres vivos, incluido, claro, al ser humano. No hay que fantasear: están muy lejos todavía de un comportamiento similar al humano, pero es un paso en esa dirección.

El aprendizaje es fundamental en la inteligencia artificial y es uno de los motivos que permiten que los algoritmos de inteligencia artificial sean capaces de resolver con éxito problemas para los cuales no sabríamos darle unas reglas claras al software (tal como sí hacemos con algoritmos tradicionales) sobre cómo resolver el problema. Gracias a esa capacidad de aprendizaje hemos sido capaces de resolver con éxito problemáticas en el campo del lenguaje natural, de la visión artificial y muchos otros.

De alguna forma los humanos, visto que no éramos capaces de explicar al algoritmo lo que tenía que hacer, hemos 'abdicado' de esa responsabilidad y, en su lugar, hemos dotado a los algoritmos de capacidad de aprendizaje para que alcancen las conclusiones por sí mismos (aunque con cierta ayuda humana, claro, en forma de ejemplos o experiencias). Y los hechos demuestran que ha sido una buena estrategia.

Parece que la naturaleza, de hecho, hizo algo parecido con nosotros, los seres vivos y, notablemente con el ser humano.

Descubro leyendo el libro 'Human compatible: AI and the problem of control' de Stuart J. Russell el llamado Efecto Baldwin, que parece guardar cierta analogía con el tema algorítmico.

Describe el autor, primero, cómo mediante la evolución los seres vivos se adaptan a su entorno y mejoran su capacidad de supervivencia. Algo que es bastante conocido. Sin embargo, también se afirma, y creo que también es algo bastante comprobado, que la evolución mediante mecanismos como la pura selección natural sería muy lenta.

El efecto Baldwin se describe como una especie de elección entre, por un lado, seres instintivos, cuyo comportamiento viene totalmente marcado por la evolución y, por otro, los seres adaptativos, que aprenden, y cuyo comportamiento viene en parte fijado por la evolución pero, en otra parte, por su aprendizaje y adaptación al medio, un aprendizaje que se produce, evidentemente, durante la vida de ese ser adaptativo.

Lo importante de este efecto es que lo que aprende un ser vivo durante su existencia supone una adaptación muchísimo más rápida que la meramente evolutiva por selección natural y, sin embargo, como los individuos adaptados tienden a sobrevivir mejor, también tienden a procrearse más y, por tanto, a transmitir de alguna manera su aprendizaje a generaciones posteriores.

De esta forma, el aprendizaje en los seres vivos supone un mecanismo de aceleración de la evolución y, por supuesto, hace más aptos para la supervivencia a esos seres adaptativos.

Existe una bonito, y seguro que no del todo casual, paralelismo con lo que suponen la inteligencia artificial y el machine learning para la evolución algorítmica. No es difícil asimilar la algoritmia tradicional, con reglas conocidas y marcadas de antemano, a la evolución por pura selección natural, instintiva, y por tanto de mejora lenta, frente  a la algoritmia con capacidad de aprendizaje, adaptativa y con capacidad de evolución rápida.

Podríamos suponer que la introducción de capacidad de aprendizaje en los algoritmos va a acelerar el desarrollo y capacidad de los mismos. Los resultados de los últimos años en materia de inteligencia artificial así parecen confirmarlo. 

¿Es este un patrón real? ¿Seguirá así en el futuro?

Como en todo lo que tiene que ver con Inteligencia Artificial conviene no dejarnos llevar en exceso por la imaginación ni extremar las metáforas pero, no obstante, creo que ese paralelismo es muy interesante y sí puede mostrar un patrón o un fenómeno subyacente interesante para la evolución algorítmica y, por tanto, tecnológica y, en el fondo, de la humanidad.