viernes, 5 de febrero de 2021

¿Cuando se producirá 'la singularidad'? Tres motivos para evitar pronunciarse

La singularidad, ese fenómeno anunciado por pensadores futuristas como Ray Kurzweil y que identifica el punto en la historia, muy cercano según algunos visionarios incluyendo al propio Kurzweil, en que las máquinas superarán en inteligencia a los humanos y serán capaces de regir sus propios destinos...y tal vez el nuestro. 

¿ Es creíble que se llegue a producir esa singularidad? Y, en caso afirmativo, ¿Cuándo llegaría?

Para ambas preguntas hay opiniones para todos los gustos: desde quien afirma que 'la singuralidad está próxima', por ejemplo en 2050, hasta quien piensa que ese desempeño de las máquinas es, simplemente imposible.

Un pensador importante del campo de la inteligencia artificial, Stuart J. Russel, simplemente se niega a valorar la segunda pregunta: cuándo. Así, en su libro 'Human compatible: AI and the problem of control' alega tres motivos para no entrar ni siguiera a considerar el responder a la pregunta. En realidad, Russel no menciona la palabra 'singularidad', sino que el término que utiliza es una Inteligencia Artificial super-inteligente ('superintelligent AI')' pero no creo equivocarme al asimilar este concepto al de singularidad. En cualquier caso, estas son sus razones para no entrar en predicciones sobre el momento de su llegada:


  • Alta probabilidad de error: alega que existe una larga tradición de equivocarse en este tipo de predicciones e incluye algún ejemplo como cuando en 1967 Marvin Minsky predijo que en una generación el problema de crear inteligencia artificial estaría casi completamente resuelto...cosa que no hemos logrado ni de lejos hoy día, más de 50 años después.

  • Indefinición del umbral: No está definido realmente en qué consiste esa superinteligencia o cuándo ésta se considerará que ha superado a la humana. Explica que las máquinas ya superan de largo a los humanos en algunos aspectos. Pronostica que esos aspectos se harán más amplios y profundos pero ¿Con qué criterio, con qué medida, se considerará que, en conjunto, han superado a la inteligencia humana?- Nadie lo ha definido.

  • Impredecibilidad intrínseca: el tercer argumento, quizá el más original y relevante, es que se trata de un evento intrínsecamente impredecible. ¿Por qué? Pues porque no se va a conseguir por una mera evolución de la inteligencia artificial tal y como es hoy en día. Se necesita un salto cualitativo, un gran descubrimiento ('breakthrough'), algo que cambie realmente el terreno de juego. Y ese tipo de saltos, argumenta, son inherentemente impredecibles.

Así que, nos quedamos con las ganas de una estimación de la eventual llegada de la singularidad. Pero es una contención, en el fondo, muy razonable, no cual no quita que debamos estar muy atentos a la evolución. A lo mejor en algún momento, y caso de que la singularidad sea posible, nos podemos hacer una idea cierta de cuándo pueda suceder e intentar estar preparados para ello.

 

No hay comentarios:

Publicar un comentario