lunes, 28 de diciembre de 2020

Una rápida incursión en la autonomía y el libre albedrío de las máquinas y sus implicaciones éticas

Vamos a ser muy claros y directos en el inicio de este artículo para evitar desde el principio las fantasías y los malos entendidos: no, las máquinas no disponen de libre albedrío.

Es un tema en el que me gustaría profundizar dentro de un tiempo cuando haya investigado algo más el concepto e implicaciones del libre albedrío desde el punto de vista de la filosofía y las religiones. Aún así, y de forma preliminar, pero plenamente convencida, repito lo que acabo de decir: las máquinas no disponen de libre albedrío. No al menos las máquinas de que disponemos hoy en día. No, probablemente, las máquinas de que dispondremos en un futuro inmediato y quizá no tan inmediato. Tal vez nunca lo alcancen.

Y sin embargo las inteligencias artificiales y los robots más avanzados, incluyendo en ese concepto también a elementos como los vehículos autónomos o ciertos drones, exhiben una clara autonomía, es decir, son capaces de funcionar por sí solos sin necesidad de intervención humana y son incluso capaces de aprender y adaptar su comportamiento sin necesidad de esa intervención de personas. En esa capacidad reside una parte importante de su inteligencia, de su utilidad, y de su capacidad para asombrarnos y generarnos admiración.

Pero, ¿esa autonomía no es una forma de libre albedrío?

No. No lo es. En mi opinión no lo es, y creo que la mayoría de expertos o al menos conocedores de la inteligencia artificial y la robótica estarán de acuerdo conmigo y supongo que, con más motivo aún, filósofos, religiosos y otros humanistas estarán igualmente de acuerdo conmigo  

Libre albedrío implica conciencia, libertad y voluntad propia. Y los robots no tienen conciencia ni voluntad propia. 

¿Y libertad? 

Tampoco. 

En algunos de los cursos que imparto, y en algún artículo que he publicado en este mismo blog ya he hecho ver que los algoritmos de la inteligencia artificial, al menos los que yo conozco, al menos los más populares y sólo con alguna reserva en lo relativo a los algoritmos genéticos, son absolutamente deterministas. Deterministas quiere decir que ante las mismas entradas producen las mismas salidas. Sin duda. Sin opción a la sorpresa. Lo que ocurre es que los algoritmos de inteligencia artificial adaptan su algoritmo de funcionamiento, que es plenamente determinista, ajustando parámetros mediante un algoritmos de aprendizaje que también son plenamente deterministas. Deterministas pero dependientes, eso sí, de la experiencia concreta a que el algoritmo que aprende se ve sometido durante su entrenamiento y, por tanto, autónomos y en cierto sentido imprevisibles (sólo en cierto sentido).

Pero nuestras queridas máquinas inteligentes reciben esos algoritmos plenamente deterministas desde el exterior, desde las personas. Y no los interpretan, no los someten a crítica, no se los saltan. Simplemente los ejecutan. Y a la ejecución obediente de unos algoritmos deterministas que les son dados desde el exterior difícilmente la podremos calificar de libre albedrío, por muy inteligentes, flexibles y autónomos que sean (que lo son).

Saltando ahora a las implicaciones éticas que esto tiene, acudo al libro 'Oxford Handbook of Affective Computing' que hace una pequeña digresión ética y menciona a Enmanuel Kant, uno de los más grandes filósofos de la historia y uno de los de mayor peso en materia de ética, y nos recuerda que:

For Kant in particular, an agent cannot make an ethical choice unless it has that kind of freedom to begin with.

En efecto, para Kant un elemento imprescindible de la ética es la libertad, la capacidad de decisión, es decir, el libre albedrío. Y hemos dicho que las máquinas no lo tienen. La conclusión parece más que clara: las máquinas no pueden tener responsabilidad ética.

¿Quién entonces?

En la misma fuente, unas líneas más adelante cita un informe de EPSRC (Engineering and Physical Sciences Research Council), para el cual, la conclusión es muy clara:

So long as we build systems to do only a few things and specify when they should do which, it is hard to dispute [...] that attributing ethical responsibility to them simply clouds the issue: responsibility lies firmly with the builder.

O sea, según esto, la responsabilidad ética no está en la máquina, sino en quien la construye.

¿Y la responsabilidad legal?

En este aspecto hay debates muy ligados, por ejemplo, al vehículo autónomo. ¿El fabricante? ¿El dueño? ¿La administración? No está del todo claro.

En cualquier caso, no en la máquina, que es un ser inanimado, sin personalidad jurídica (aunque hay voces que sugieren la necesidad de esa personalidad) y sin libre albedrío.

El argumento básico creo que es bastante indudable. Los detalles de las consecuencias éticas y legales pueden traer consigo, lo traen de hecho, más debate.

Aquí lo dejo por ahora, pero seguro que vuelvo en algún momento a este tema del libre albedrío.


No hay comentarios:

Publicar un comentario