miércoles, 28 de octubre de 2020

Riesgos en el negocio de la Inteligencia Artificial

Aunque nos interesa mucho la inteligencia artificial como pura tecnología, y aunque nos interesa mucho la inteligencia artificial desde el punto de vista de sus connotaciones éticas e incluso humanísticas, lo cierto es que la inteligencia artificial, por suerte, es también un negocio. Un negocio que, para algunos actores, es el objetivo mismo de su actividad empresarial y para otros, la mayoría, un elemento que les puede aportar eficiencia, calidad, diferenciación, etc

En al artículo anterior, vimos algunos elementos funcionales y éticos necesarios para la confianza en la inteligencia artificial. En este artículo, y siguiendo la misma fuente, a saber, el libro 'An introduction to ethics in robotics and AI' de Christoph Bartneck, Christoph Lütge , Alan Wagner y Sean Welsh, vamos a adoptar la perspectiva de negocio y revisar riesgos asociados a la inteligencia artificial.

Los autores distinguen dos grandes bloques de riesgos:

  • Riesgos generales
  • Riesgos éticos


Riesgos generales


Hablaríamos en primer lugar del riesgo funcional, es decir, del caso de que la solución inteligente, simplemente, no funcione. No es este un riesgo diferente al de cualquier otro negocio tecnológico, pero es evidente que existe y, quizá, apuntaríamos, dada la naturaleza menos determinista y predecible de los algoritmos de inteligencia artificial frente a otro tipo de soluciones técnicas, el riesgo pudiera ser, quizá, algo mayor en este caso.

El segundo tipo de riesgos de este bloque que identifican los autores son los riesgos sistémicos, es decir, se trata de riesgos que afectan a todo el sistema. Se mencionan, por ejemplo, crisis financieras como las generadas por las 'subprime'. Un negocio de inteligencia artificial se ve afectado como sujeto paciente, como cualquier otro, por este tipo de riesgos sistémicos pero, en el caso concreto del ámbito financiero, y a modo de ejemplo, hay que recordar que muchos de los movimientos en bolsa están gobernados por algoritmos y que ya se han producido 'sustos' generados por avalanchas de órdenes dadas por robots. Es decir, también hay el riesgo de que los negocios de inteligencia artificial no sólo sean pacientes de un riesgo sistémico sino que, por desgracia, pueden ser agentes, es decir, generadores de ese riesgo.

El siguiente tipo de riesgo serían los riesgos de fraude. Los autores apuntan al uso de software para generar fraudes como en el tristemente célebre caso de Volkswagen y sus emisiones contaminantes. No nos parece que tampoco en este caso sea un riesgo específico de la inteligencia artificial, pero como software que es, puede intervenir en algún caso.

Finalmente, se indican los riesgos de seguridad como los que se pueden producir en sofisticadas plantas industriales con un control complejo normalmente con una dosis alta de software, o los bastante manidos y probablemente injustamente magnificados accidentes de vehículos autónomos.


Riesgos éticos


En primer lugar tenemos en este apartado los riesgos reputacionales. Los autores señalan como ejemplo el caso de algoritmos sesgados y los prejuicios que pueden generar. También aportan el ejemplo de mal uso de los datos con el caso Cambridge Analytica aunque yo diría que en este caso, más que un riesgo reputacional es, directamente, un uso fraudulento con su efecto de deterioro, evidentemente, en la imagen de los protagonistas. Y creo que habría que ampliar aún más el alcance de este tipo de riesgos para incluir, por ejemplo, cómo los ya mencionados accidentes de los vehículos autónomos pueden suponer, por efecto propaganda, un riesgo y un freno al desarrollo de estas tecnologías y sobre todo a su adopción.

A continuación se abordan los riesgos legales. En este campo pensaríamos en los efectos legales derivados, por ejemplo, de un accidente o de una violación de la política de uso de datos. Sin embargo, los autores se centran más bien en la posibilidad de caer en prácticas anticompetitivas. Aunque creo que en el ámbito de la inteligencia artificial se puede dar ese caso dado el peso de actores como Google, IBM o Microsoft, lo cierto es que los ejemplos que aportan los autores provienen no del campo de la inteligencia artificial sino del software en general: la multas de la Unión Europea a Microsoft y a Google con su android, por prácticas anticompetitivas.

En tercer lugar, tendríamos los riesgos medioambientales. No parece que la inteligencia artificial sea un área muy específicamente afectada por este tipo de riesgos pero podrían darse en caso de un fallo si, por ejemplo, un sistema inteligente controlase instalaciones industriales que usasen gases o líquidos peligrosos o bien, por ejemplo, instalaciones nucleares. Por vía indirecta, la inteligencia artificial podría, en el fondo como cualquier otro software, contribuir negativamente al medio ambiente por materiales, consumo energético, emisiones etc propias de los centros de proceso de datos donde se ejecutan. No parece, no obstante, que este tipo de riesgos sean especialmente relevantes para el campo de la inteligencia artificial.

Finalmente, se mencionan los riesgos sociales. donde se aportarían ejemplos como el efecto en la motivación y moral de profesionales ante la automatización, un eventual aumento del aislamiento social o problemas derivados de usos considerados como inaceptables de la inteligencia artificial cuando, por ejemplo, se entiende que afectan a la privacidad.  


Gestión de los riesgos


A la hora de gestionar estos riesgos los autores apuntan a tres líneas de actuación. aunque en muchos momentos lo hacen más desde el punto de vista más de la sociedad que de una compañía concreta.

En primer lugar apuntan a cambios regulatorios para incrementar la seguridad. Desde el punto de vista de las compañías lo que se apunta es a la implantación de mejores prácticas como forma de minimizar riesgos.

En segundo lugar apuntan a que no sólo hace falta regulación en las industrias tecnológicas punteras en inteligencia artificial, sino también en sectores más tradicionales. Así, por ejemplo, para el caso del vehículo autónomo pudieran ser necesarias nuevas regulaciones en el sector seguros.

 Finalmente, y ahí si se centran más en las empresas, se apunta a la implantación de normas y procedimientos basados en consideraciones éticas y más allá del mínimo legal.


Conclusión


Aunque los propios autores reconocen que hay más riesgos que no se han tratado (riesgos comerciales, riesgos monetarios, etc), lo anterior es una buena estructuración de riesgos, bien es cierto que no siempre muy específicos de la inteligencia artificial. Y aportar estructura y cercanía a la realidad empresarial siempre es bueno y, más aún, si pretendemos pasar de consideraciones éticas más o menos genéricas o teóricas, a acciones concretas en empresas concretas o sectores concretos.


No hay comentarios:

Publicar un comentario