lunes, 18 de marzo de 2024

Cuatro capacidades basadas en tecnología para la resiliencia digital

Parece bastante claro que estamos en una época de grandes cambios, de frecuentes y profundas disrupciones.
Algunas de ellas provienen del ámbito tecnológico (me atrevería a denominar como tal, por ejemplo, las aportaciones de los últimos años procedentes de la inteligencia artificial) pero otras no, como es el caso de la pandemia del COVID y, probablemente el auge de China o, por desgracia, me atrevería a afirmar, que también eventos como la guerra de Ucrania y, sobre todo, sus implicaciones geoestratégicas.

Las implicaciones de esas disrupciones son, como es natural, muy profundas y afectan a todo tipo de ámbitos, pero, pensando en el mundo de las empresas ¿qué se puede hacer?


Una propuesta digital para tiempos de disrupción


Hace unas semanas finalicé la lectura del libro 'The transformation myth' de  Gerald C. Kane, Rich Nanda, Anh Nguyen Phillips y Jonathan R. Copulsky, un libro centrado fundamentalmente en transformación digital, pero justificado y fuertemente influenciado por el hecho de haber sido escrito durante la pandemia COVID.

El título, lo del mito, simplemente se refiere a que la transformación digital no es un 'one shot', algo que se hace una vez, sino que se trata de una preparación, una transformación continua.

Y la preparación es, precisamente, frente a fenómenos disruptivos como el COVID


Resiliencia digital


Los autores proponen conseguir lo que denominan la resiliencia digital que, de alguna forma, con base en tecnologías digitales, aunque no exclusivamente basada en ellas, permite a las organizaciones estar preparadas para afrontar esos fenómenos disruptivos.

En concreto, la definición que aportan los autores en las primeras páginas es:


organizations and leaders whose digital transformations can withstand or recover quickly from the difficult conditions created by disruptive events.


¿Cómo hacerlo?


De la tecnología a las capacidades para la resiliencia digital


Los autores indican que más que centrarse exclusivamente en las tecnologías, lo que se debe conseguir son capacidades organizativas que si, se apoyan en las tecnologías digitales, pero van más allá y, sobre todo, se orientan a objetivos de negocio.

Los autores confiesan que su foco son sobre todo los aspectos estratégicos, de talento, liderazgo y culturales de esas capacidades, pero también reconocen el papel de la tecnología indicando que


completely ignoring the technological aspects of digital resilience is neither possible nor helpful.


algo que me parece sensato, realista y con lo que estoy plenamente de acuerdo.


Las cuatro capacidades


Y, en ese camino, identifican cuatro capacidades, basadas en tecnología, pero rodeadas de los otros elementos, que caracterizan a las organizaciones digitalmente resilientes. Esas cuatro capacidades, y que son lo que principalmente quería contar en este post, son:


  • Adaptabilidad ('nimbleness'): una adaptabilidad (o agilidad, según la traducción) que se refiere tanto a la velocidad a que las organizaciones son capaces de actuar como a su capacidad para pivotar (es decir, hacer cambios relevantes en el modelo de negocio inicialmente ideado) cuando la realidad así lo aconseja. Aunque la forma de expresarlo recuerda claramente a la filosofía de 'agile' e incluso de Lean Startup, los autores advierten de que no es lo mismo evitando especialmente la identificación con los modelos 'agile' y justificándolo como que, aunque la adaptabilidad se puede conseguir mediante 'agile', existen otras formas de hacerlo. Los autores señalan que la la disponibilidad de una robusta infraestructura digital, unida a la cultura adecuada, permite la adaptación de esa plataforma a retos diferentes.

  • Escalabilidad ('scalability'): concepto que incluye no sólo la capacidad de crecer mucho en un corto espacio de tiempo sino, también, la capacidad para manejar fuertes incrementos no previstos y, por decirlo de alguna forma, 'de la noche a la mañana'. Y lo ejemplifican con lo que se ha convertido en un caso típico: el crecimiento de Zoom con la pandemia COVID. Añaden, además, la necesidad, en esos casos extremos, no sólo de conseguir la pura escalabilidad, el aumento de capacidad, sino la adecuada comunicación a clientes, empleados y socios.

  • Estabilidad ('stability'): es decir, se trata de mantener la excelencia operacional a pesar de las adaptaciones, de los pivotajes y de el escalado rápido.

  • Opcionalidad ('optionality'): es la capacidad de integrar las capacidades de terceras organizaciones para conseguir ser más adaptables, escalables y estables. Para ello se suele crear un ecosistema de socios


Conclusiones


Me gusta el enfoque de los autores, que equilibran lo estratégico y organizativo con lo tecnológico, pero sin negar el papel de éste último, como si hacen otros autores. 

Y me parecen interesantes y bastante representativas las cuatro capacidades.


lunes, 11 de marzo de 2024

Ocho formas de mejorar un modelo de negocio digital basado en información gratuita

Como explico en mi primer libro 'La carrera digital', uno de los elementos que caracterizan al mundo digital y que le confiere un gran poder transformador, es el fenómeno del coste marginal nulo, es decir, del hecho que la producción de una unidad adicional, de software, información, etc, tiene un coste despreciable que, a efectos prácticos, podemos considerar nulo.


La gratuidad como base de un modelo de negocio


Ese fenómeno permite a los negocios digitales ofrecer con cierta facilidad, servicios o prestaciones gratuitas y construir modelos de negocio completos basados en la gratuidad.

Evidentemente, en algún momento o en alguna otra parte del modelo de negocio, deben existir unos retornos, unos ingresos directos o indirectos que justifiquen la oferta gratuita y proporcionen viabilidad al modelo de negocio en su conjunto: ingresos por publicidad, ingresos por venta de datos, ingresos indirectos con base en la atención conseguida, etc

Aunque la gratuidad como mecanismo de promoción y como parte de modelos de negocio no es exclusiva ni mucho menos del mundo digital, sí que es cierto que ese coste marginal nulo al que me refería, 'hace las cosas mucho más fáciles' en materia de gratuidad a los negocios digitales y hace que la gratuidad esté mucho más presente en este tipo de modelos.

A eso se une una cierta herencia cultural de Internet en que los clientes, los ciudadanos, nos hemos acostumbrado a recibir servicios gratuitos y nos resistimos a pagar por ellos.

Las empresas digitales, por supuesto, deben tener todo esto en cuenta.


Las ocho formas de mejorar los modelos de negocio


Aunque las posibilidades de usar la gratuidad en un modelo de negocio son variadas, me ha interesado y quería traer a este blog, la propuesta que se leo al final del libro 'Exponential Organizations 2.0' de Salim IsmailPeter Diamandis y Michael S. Malone, en que nos hablan de ocho modelos de negocio, en realidad de ocho elementos a considerar en un modelo de negocio, que se basan en la gratuidad de la información pero que van más allá de la pura gratuidad.

Aunque lo encuentro en el libro de Ismail, Diamandis y Malone, en realidad se trata de unas ideas propuestas Kevin Kelly en un post en su blog titulado 'Better than free' y publicado nada menos que en 2008.

Estrictamente hablando, más que modelos de negocio completos, lo que Kelly identifica son elementos de valor que nos ofrece lo digital, que van más allá de la gratuidad, que mejoran la proposición de valor y que, por tanto, conviene incorporarlos en mayor o menor medida en modelos de negocio digitales.

Éstas son esas ocho firmas Son estos:


  • Inmediatez: es decir, la disponibilidad inmediata de información, dado que en general las personas valoramos el ser los primeros en saber algo. 

  • Personalización: la posibilidad de disponer de un producto o servicio personalizado, lo cual mejora el valor de la experiencia de usuario y también crea una cierta forma de apego.

  • Interpretación: que se refiere, aunque la palabra no resulte muy explícita, al acortamiento de la curva de aprendizaje, a la facilidad de uso y entendimiento.

  • Autenticidad: donde, de nuevo, creo que la denominación resulta algo confusa porque en realidad se refiere a fiabilidad, credibilidad y no existencia de errores ('bugs')

  • Accesibilidad: se trata del ya conocido y muy extendido concepto de acceso a servicios en lugar de propiedad de un producto, algo que en el mundo digital ya está muy extendido en servicios de suscripción tipo Netflix o Spotify, o en las propuestas de pago por uso propias del cloud.

  • Corporeización ('embodyment'): se trata de ofrecer de forma gratuita la parte digital de un producto o servicio, pero cobrar, y probablemente de forma abundante, por una experiencia que corporeiza de alguna forma esa información (la impresión ·D de un producto, un espectáculo de música o multimedia, etc), 

  • Patronazgo ('patronage'): Se basa en una idea interesante, aunque quizá discutible, de que el público desea pagar a los creadores (músicos, escritores o lo que sea) y lo que hay que hacer es proponerles formas sencillas (y diría que no muy onerosas) de realizar esa contribución (por ejemplo, al descargar una canción, pagar 'la voluntad' al grupo o creadores).

  • Encontrables ('findability'): Dado que existen tantos contenidos y que es fundamental que ésta oferta sea conocida por el público que lo puede consumir, es esencial la incorporación de mecanismos que permitan con la mayor facilidad posible, encontrar esos contenidos o esos productos y servicios.


Conclusiones


La gratuidad es un factor muy potente y transformador del mundo digital, pero ha de ser usada de manera inteligente para construir buenas proposiciones de valor y modelos de negocio interesantes y viables.


lunes, 4 de marzo de 2024

Las diez megatendencias tecnológicas actuales según Peter Diamandis

Es costumbre común, en todo lo relativo a  la tecnología, intentar detectar tendencias y entrever lo que el futuro, inmediato o lejano, nos puede traer en materia de esa tecnología o de su impacto  en la economía, la sociedad y en nuestras vidas.


Paradoja de las predicciones en tecnología 


Y no deja de ser paradójico contrastar que, precisamente, cuanto más rápido se mueve la tecnología, cuanto con mayor frecuencia e intensidad nos sorprende con sus cambios y aportaciones, más interés tenemos en hacer predicciones.

Es una reacción comprensible e incluso razonable, porque quizá sentimos mas la necesidad de un mapa, una suerte de guía de lo que el futuro, inmediato o lejano, nos puede traer y así, no sólo satisfacer una lógica curiosidad, sino también intentar prepararnos para ese futuro, no sólo desde un punto de vista personal sino, y muy especialmente, en el ámbito corporativo y de gobierno.


Documentos de tendencias tecnológicas


Es frecuente, especialmente en torno a los cambios de año, la emisión de informes y análisis que nos marcan las tendencias en tecnología, por parte de consultoras, analistas e instituciones.

Algo más arriesgado, es plasmar una apuesta por tendencias tecnológicas en un libro. Y es más arriesgado, creo, porque un libro, incluso del ámbito de la tecnología, tiene un ciclo de vida más largo que un mero informe, y dado que es demasiado fácil equivocarse y que los hechos desmientan, al menos parcialmente, las apuestas realizadas, un documento de mas largo plazo como es un libro, puede verse más afectado en su prestigio, por decirlo de alguna forma, que un informe al que, en el fondo, le concedemos sólo validez de un año.

Pero una de esas apuestas es la que me encuentro en el libro 'Exponential Organizations 2.0' de Salim Ismail, Peter Diamandis y Michael S. Malone , una revisión y actualización del libro que con parecido título publicaron estos autores hace unos años.

En su primer capítulo, se recoge la apuesta de uno de sus autores, el bien conocido Peter Diamandis, en cuando a diez mega-tendencias tecnológicas. 


Las megatendencias tecnológicas


Según la visión de Diamandis, esas diez megatendencias moldearían el periodo comprendido entre 2023 y 2033. Y estas son, en concreto, las diez megatendencias que propone y cómo las planeta:


  • El auge de la inteligencia artificial: una inteligencia artificial que según algunos autores incluido el propio Diamandis, alcanzará un nivel humano en esta misma década. Diamandis se fija, como casi resulta inevitable, en la explosión de la IA generativa y los grandes modelos de lenguaje y menciona también la explosión de sensores microscópicos de bajo coste, el despliegue de redes de banda ancha y la conexión con servicios de IA en la nube como contribuidores a ese auge.

  • Inteligencia artificial, robótica y colaboración humana: El auge de la inteligencia artificial como servicio favorecerá la inclusión en todo tipo de actividades produciéndose una colaboración con los humanos y extendiendo la idea del 'copiloto' de inteligencia artificial. También menciona un esperado auge de los robots humanoides.

  • Conectividad gigabit global de muy bajo coste: Menciona al respecto el despliegue de redes 5G y 6G así como comunicaciones por satélite y lo pone en relación también con Internet de las Cosas.

  • Web3 y metaverso, transformando el 'retail', la educación y las relaciones humanas: Apuesta a que el metaverso supondrá un cambio en la vida diaria y la industria mediante la combinación de la realidad virtual y aumentada, las redes 5G, el blockchain y Web3.

  • Vehículos autónomos y coches voladores: Quizá en una de las apuestas más arriesgadas, prevé una redefinición del transporte humano, mediante la implementación de naves eléctricas de despegue y aterrizaje vertical (eVTOL, 'Electrical Vertical Take-Off and Landing'), vehículos autónomos incluyendo flotas de este tipo y transporte aéreo (supongo que usando drones). Con esto prevé un desplome de los costes del transporte, ahorro de materiales y mejora de la planificación urbana.

  • Curación de enfermedades genéticas usando CRISPR y terapia génica: aprovechando la capacidad de editar el genoma humano de manera precisa que ofrece CRISPR se entrevé la promesa de curar muchas enfermedades de origen genético e incluso infeccioso dando lugar a una especie de revolución biológica.

  • Extensión del periodo saludable humano en más de 20 años: La confluencia de una serie de soluciones tanto farmacéuticas como biotecnológicas, y donde incluye cosas como reprogramación epigenética, restauración del suministro de células madre, medicinas senolíticas, etc permitirán, en opinión de Diamandis, extender en muchos años la esperanza de vida humana y hacerlo en condiciones saludables.

  • Agricultura celular y cultivo vertical proporcionando suministros de alimentos locales de alta calidad, más baratos y saludables: Prevé el desarrollo de sistemas de producción de proteínas de forma sostenible y ética. Adicionalmente, el cultivo vertical permitirá llevar las cosechas al centro de las ciudades y darles escala, permitiendo una distribución rápida y de bajo coste.

  • El auge de una energía renovable abundante y barata: Espera continuos avances en energía solar, eólica, geotérmica, hidroeléctrica y nuclear, alcanzando un suministro barato, abundante y ubicuo de energía renovable.

  • Sostenibilidad y medioambiente: espera finalmente que la mayor concienciación medioambiental  y la mayor preocupación por el calentamiento global llevará a las empresas a invertir en sostenibilidad, aunque sólo sea por necesidad y por conveniencias de marketing. Además, espera que disrupciones en ciencia de materiales, soportados por inteligencia artificial y computación cuántica, permitirán reducciones drásticas en materia de residuos y contaminación.


En general, son tendencias reconocibles, la mayoría de las cuales no sorprenden, al menos en lo cualitativo, aunque alguna me parece arriesgada y, sobre todo, excesivamente optimista.

No es extraño en cierto modo ese optimismo dado que Diamandis siempre ha defendido la idea de la abundancia, y de la necesidad de dejar de pensar en términos de escasez y restricciones, y dado también que nos encontramos esta apuesta en un libro sobre organizaciones exponenciales, en las que se espera grandes crecimientos, muy superiores a su competencia.

Aunque el optimismo siempre es refrescante y motivador, y en el fondo me satisface encontrarlo, no sé si en algunas afirmaciones se la va un poco la mano, por decirlo de alguna manera.

El tiempo dará o quitará razones, pero, aunque tengo reservas sobre ello, me encantaría que Diamandis tuviese razón.


Conclusión


La tecnología transforma de manera cada vez más acelerada nuestras vidas, nuestra economía y nuestra sociedad y es por ello lógico que busquemos orientaciones sobre lo que está por venir. 

En este post hemos visto una propuesta concreta, la de Peter Diamandis, una propuesta expansiva y optimista que sería fantástico que resultase acertada.


miércoles, 28 de febrero de 2024

Seis tipos de preocupaciones éticas que producen los algoritmos

Como comentaba en un post anterior, el titulado 'Un mercado de principios éticos',  el hecho de que la ética de la inteligencia artificial esté de moda, trae consigo el que abunden y de manera creciente, declaraciones de riesgos y de principios que, aunque coinciden y se superponen en buena medida, a veces parecen hacer algo inabarcable el dominio de la disciplina.

Así que puede venir bien un poco de estructura

Y una estructuración es precisamente la que me he encontrado y quería comentar leyendo el libro 'The ethics of artificial intelligence' de Luciano Floridi.


Una estructuración de preocupaciones éticas


En realidad, aunque lo recoge en su libro, Floridi se apoya en un artículo, 'The ethics of algorithms: Mapping the debate' del cual el propio Floridi es co-autor, aunque el autor principal (al menos el primero) es Brent Mittelstadt.

La estructuración se basa en la asunción por parte de los firmantes de que que los algoritmos se pueden utilizar, básicamente, para tres cosas, a saber:


  • Convertir datos en evidencias lo que lleva preocupaciones epistemológicas.
  • Motivar acciones que pudieran tener consecuencias éticas lo que conduce a preocupaciones normativas.
  • Asignar responsabilidad por los efectos de dichas acciones lo que nos lleva a preocupación por la trazabilidad.


Y con base en ello, identifican seis grandes tipos de preocupaciones éticas, que encajan en esas tres ideas dando lugar a la siguiente figura obtenida del propio artículo:


Fuente: 'The ethics of algorithms: Mapping the debate'. Mittelstadt et. al


Los seis tipos de preocupaciones


Y una breve descripción de dichas preocupaciones (en un resumen algo apresurado de lo que Floridi vuelca en su libro) podría ser:


  • Preocupaciones epistemológicas Relacionadas con la conversión de datos en evidencias se centran en la calidad y precisión de los datos y hasta qué punto las conclusiones de los algoritmos son justificables. Y en este terreno, se identifican tres tipos de preocupaciones éticas:

    • Evidencias no concluyentes ('inconclusive evidence'): Se refiere al hecho de que los algoritmos de machine learning no deterministas produzcan resultados expresados en términos probabilísticos, identificando relaciones de asociación y correlación pero no causales lo cual puede conducir a identificar patrones donde no existen y pueden desviar la atención de las verdaderas causas subyacentes a un problema. Además, se entiende que los resultados pueden estar parcialmente condicionados por los mecanismos de recolección de datos para su entrenamiento.

    • Evidencias inescrutables ('incscrutable evidence'): Se refieren a la falta de trasparencia debido a características tecnológicas (como pudieran ser los algoritmos de caja negra) o legales (protección de propiedad intelectual). En cualquier caso los autores entienden que eso se traduce en falta de supervisión y responsabilidad y conduce a falta de fiabilidad.

    • Evidencias equivocadas ('misguided evidences'): Se refieren fundamentalmente a la presencia de sesgos o a usos cuestionables de los algoritmos.

  • Preocupaciones normativas Se relacionan con la motivación de las acciones y se refieren al impacto ético de las decisiones adoptadas algorítmicamente o basadas en algoritmos.

    • Resultados injustos ('unfair outcomes'): se refiere a la posibilidad de resultados injustos que se entiende de cuatro formas diferentes según los autores: que no se utilicen las variables adecuadas en el entrenamiento para reconocer a ciertos colectivos, que la capacidad predictiva no sea igual para todo tipo de grupos, que el algoritmo no esté bien calibrado o que no se consiga una paridad estadística.

    • Efectos transformadores ('transformative effects') que afecten a autonomía o privacidad: Así, se entiende que la afectación a la autonomía puede venir de tres fuentes: omnipresencia y proactividad de los algoritmos para informar de las opciones del usuario, entendimiento limitado de los algoritmos por parte de los usuarios o falta de poder sobre los resultados de esos algoritmos. La afectación a la privacidad, por su parte, nace de la creciente interacción de personas con sistemas algorítmicos lo que reduce la capacidad del individuo para controlar quién tiene acceso a esa información y que puede conducir al perfilado del usuario, algo de lo que éstos pueden no ser del todo conscientes.

  • Trazabilidad: Se relaciona con la asignación de responsabilidad y se enfoca en la trazabilidad o cadena de eventos y factores que conducen a un resultado específico, buscando la atribución moral de responsabilidad.

Esta tipología merece, desde luego, una revisión crítica más profunda que lo que aquí he hecho, que es poco más que un resumen 'apretado' de la exposición que, en realidad, es bastante más amplia y pormenorizada. 

Pero, de momento, ahí lo dejo como una guía posible.


Conclusiones


Sin atreverme a afirmar que sea completa ni plenamente acertada (ni tampoco lo contrario), la propuesta de Floridi (y del resto de firmantes del artículo) parece una estructuración interesante por lo clara y estructurada.


domingo, 25 de febrero de 2024

Auto-regulación versus legislación

Como comentaba en algún post anterior, como en 'El escepticismo acerca de la ética de la inteligencia artificial', uno de los claros mecanismos para asegurar hasta cierto punto un comportamiento ético, era, lógicamente, el de la regulación, el establecimiento de leyes que forzasen al seguimiento de comportamientos considerados mayoritariamente como éticos y que previesen el 'castigo' en caso contrario.

Pero también mencionaba el mecanismo de la iniciativa empresarial e individual. Y esto, especialmente en su vertiente corporativa, nos lleva al concepto de la auto-regulación.


Las limitaciones de la ley


Pero ¿por qué la ley no es suficiente? ¿No deberíamos confiar en el mecanismo que de alguna forma ordena y regula toda nuestra sociedad, que se supone garantiza derechos y libertades?

Bueno, quizá pudiéramos pensar que así debe de ser, pero lo cierto es que la ley presenta algunas limitaciones. 

Quizá la más importante, especialmente cuando hablamos de tecnología y de la época actual, es la velocidad. Y no me refiero a la velocidad de su aplicación en juzgados, donde seguramente también tenemos un problema, sino velocidad de la pura legislación, velocidad para que la ley contemple los nuevos retos que trae consigo la tecnología que, ésta sí, avanza a toda velocidad.

Aunque no es necesario hacer una nueva ley para cada nueva tecnología porque, en muchos casos resulta de aplicación lo ya legislado para otras tecnologías o para otras situaciones no necesariamente provocadas por la tecnología, sí que es cierto que ante nuevos fenómenos, puede ser necesaria una nueva legislación y ésta, normalmente, precisa de meses o incluso años para crearse e implantarse. Mientras transcurren esos meses o años, podemos estar en un 'limbo' legal o claramente desprotegidos.

Diría que también pueden existir limitaciones en cuanto a alcance, cuando el legislador, por decisión política o por imposibilidad o inconveniencia prácticas, no regula todos los comportamientos y siguen quedando abiertas puertas para un comportamientos poco ético, pese a la existencia de la ley.


Los frameworks éticos y la auto-regulación


Y en ese ámbito, y bajo el impulso del nuevo liderazgo basado en valores, de la responsabilidad corporativa e incluso de los conceptos ESG, algunas empresas dan un paso al frente anticipándose a la regulación, extendiéndola o dándole un sentido más práctico, incluyendo mecanismos propios y voluntarios de control de sus propios procesos de generación y aplicación de soluciones como ocurre, específicamente en el caso de la inteligencia artificial y amparada bajo la filosofía de la ética por diseño.


El valor de la auto-regulación


En su libro 'The ethics of artificial intelligence', Luciano Floridi, analiza las situaciones en que tiene sentido esa auto-regulación y nos propone las siguientes:


  • No existe legislación (por ejemplo, en experimentación con productos de realidad aumentada)

  • Existe legislación pero que necesita de una interpretación ética (por ejemplo, para entender el derecho a la explicación en el GDPR)

  • Existe legislación pero necesita de un cierto contrapeso, en casos como

    • Es mejor no hacer algo, incluso aunque no sea ilegal (por ejemplo, automatizar completamente un procedimiento médico sin supervisión humana)

    • Es mejor hacer algo, incluso aunque no se exija legalmente (por ejemplo, mejores condiciones laborales para una 'gig economy')

En cualquier caso, Floridi deja claro que la auto-regulación no puede sustituir a la ley propiamente dicha y que su papel es complementario, aunque en ocasiones pueda resultar crucial.

Una llamada de atención


Eso si, conviene, a propósito de la auto-regulación y la iniciativa empresarial, recordar las llamadas de atención que hacía en el post 'El escepticismo acerca de la ética de la inteligencia artificial' acerca de la práctica del 'bluewashing', es decir, una operación más de imagen que de otra cosa, que consiste en aplicar mecanismos éticos en elementos superficiales pero mantener soluciones no éticas en el 'core' del negocio, así como del 'tuning' de principios éticos que comentaba en el post 'Un mercado de principios éticos'.


Conclusiones


Debemos considerar la auto-regulación por parte de empresas, administraciones e individuos como algo positivo y seguramente necesario para conseguir una, llamémosla, excelencia ética, pero esa auto-regulación, no puede sustituir, sino complementar a la ley y, además, debe aplicarse honradamente, buscando realmente los objetivos éticos y no como una mera operación de imagen.


miércoles, 21 de febrero de 2024

Un mercado de principios éticos

Es un hecho incontestable, creo, y lo he utilizado ya muchas veces como inicio de posts en este blog, que la inteligencia artificial está de moda

Y eso es bueno y malo a un tiempo. Nos trae efectos que juzgo como beneficiosos y otros que no lo son tanto.


La moda de la inteligencia artificial


Comenzando por la inteligencia artificial como disciplina científica y tecnológica, capaz de aportar soluciones prácticas el que esté de moda es en primer lugar positivo, simplemente, como síntoma de que se encuentra en imparable progreso, en la constante consecución de nuevos objetivos y nuevas metas, en un innegable progreso que puede traer, y trae de hecho, avance, innovación y bienestar.

Y es bueno que esté de moda porque atrae la atención de empresas, administraciones y particulares, y eso favorece su adopción con todos los beneficios que conlleva. Y porque eventualmente atrae también la inversión, favoreciendo, en forma de círculo virtuoso, su avance.

No es tan bueno, sin embargo, que de la misma forma que atrae la atención de actores con intereses legítimos, también abre las puertas a su uso (una apertura sin duda aprovechada) por parte de actores no tan bien intencionados, aunque eso es algo que ocurre con cualquier tecnología y avance, y lo único que es, quizá, específico del caso de la inteligencia artificial, como también lo es para usos legítimos, es su sofisticación y potencia.

Y no es tan bueno, tampoco, porque favorece el ruido mediático, las publicaciones faltas de rigor que generan confusión, mucha confusión, y en no pocas ocasiones, miedos injustificados, o al menos no del todo justificados por lo exagerados y poco fundamentados.  


La moda de la ética de la inteligencia artificial


Y también está de moda la ética de la inteligencia artificial.

Y eso es bueno en muchos aspectos. Es bueno, en primer lugar y de la forma más básica, por lo esperanzador que resulta el que se preste atención a una reflexión y una acción éticas, una reflexión y sobre todo una acción de las que creo que estamos tan necesitados, y no me refiero específicamente, ni siquiera principalmente, al campo de la inteligencia artificial.

Es bueno porque impulsa soluciones tecnológicas para conseguir un comportamiento más ético de los algoritmos, porque impulsa la regulación y porque impulsa, en algunos casos, los planteamientos éticos de empresas y administraciones.

Pero no es tan bueno porque, de la misma forma que sucede con los aspectos técnicos o de aplicación, sucede también en el caso de la ética la superficialidad, el 'hype', el hablar de ello por hablar, simplemente porque está de moda, pero con poco criterio y en no pocos casos, reforzando la visión negativa, temerosa, y en mi opinión contraproducente, de la inteligencia artificial.

En su libro 'The ethics of artificial intelligence', Luciano Floridi, nos advierte, un poco en ese sentido, de una suerte de inflación de principios éticos, de la proliferación de declaraciones y más declaraciones de principios éticos para la inteligencia artificial, unas declaraciones que en la mayoría de los casos no aportan nada nuevo y que se hacen simplemente, por subirse a un carro de la moda. No se trata de un riesgo grave, en mi opinión, sino de una especie de molestia que, eso sí, distrae un poco sin aportar nada nuevo.

Y existe también el riesgo del llamado 'bluewashing' que mencionaba al final de artículo 'El escepticismo acerca de la ética de la inteligencia artificial', es decir, de una actividad superficial de empresas y administraciones, sobre todo las primeras, en que, por subirse al carro de la moda y, sobre todo, por favorecer su imagen de empresa responsable, acometen acciones 'éticas' superficiales, como declaraciones de principios o alguna iniciativa social tangencial, pero sin alterar el núcleo de su comportamiento y de su producción o uso de soluciones de inteligencia artificial, que pudiera no ser tan ético, o al menos no prestar especial atención a lo ético.


Mercados de principios éticos


Un poco enlazando con la idea del 'bluewashing', el propio Floridi, en la obra citada, nos habla, como riesgo o incluso problema, de los que denomina mercados de principios y valores. Nos dice:


the main unethical risk is that all this hyperactivity creates a 'market of principles and values' where private and public actors may shop for the kind of ethics that best retrofits to justify their current behaviours rather than revise their behaviours to make them consistent with a socially accepted ethical framework.


Y justo a continuación nos lo define más formalmente, aplicándole ahora la denominación de 'compra de ética digital':


Digital ethics shopping [is] the malpractice of choosing, adapting or revising ('mixing and matching') ethical principles, guidelines, codes, frameworks, or other similar standards (especially, but not only, in the ethics of AI) from a variety of available offers in order to retrofit some pre-existent behaviours (choices, processes, strategies, etc), and hence justify them a posteriori, instead of impldmenting or improving new behaviours by benchmarking them against public ethicalstandards.


Es decir estaríamos ante una manipulación de los principios éticos en que las organizaciones 'compran' unos valores y unos principios éticos que 'les convienen', a su medida, unos valores y principios, diría que unos falsos valores y falsos principios, que les permiten seguir operando como ya lo hacían, que les permiten cubrirse de un barniz ético, sin revisar realmente sus comportamientos, y sin aspirar a una 'ética verdadera'.

Y eso es un riesgo más serio y probablemente, por desgracia, muy real.


Conclusiones


El que la inteligencia artificial en general y la ética de la inteligencia artificial en particular,  estén de moda, tiene unos efectos sin duda positivos, de conocimiento, promoción e impulso, pero también traen aparejados riesgos de superficialidad, de concepciones erróneas y, en el caso específico de la ética, de usos poco éticos camuflados bajo un manto de aparente moralidad y buenas intenciones.


miércoles, 14 de febrero de 2024

El escepticismo acerca de la ética de la inteligencia artificial

Que la ética de la inteligencia artificial es un tema de moda, no me cabe duda. De que se habla, por tanto, mucho de ella en todo tipo de foros, eventos y cursos, tampoco.

La cuestión en este post es, sin embargo, si avanzamos, realmente, en una implementación, adopción y uso de la ética de la inteligencia artificial o no, y si debiéramos ser escépticos sobre su  eventual desarrollo.


Las tres vías de abordar la ética de la Inteligencia Artificial


En varios cursos y charlas he destacado tres formas de abordar la ética de la inteligencia artificial, aunque, en realidad, siempre debiéramos considerar una cuarta que, en el fondo es la más intrínsecamente ética. Veamos.

Las tres formas en que, sobre todo, se puede operativizar la ética de la inteligencia artificial, son, en mi opinión:


  • Tecnología
  • Derecho
  • Iniciativa empresarial  e individual


Las tres anteriores en el fondo, y como digo, se centran más en operativizar la ética. La cuarta a añadir es la propia reflexión ética.

Paso a comentar muy brevemente las cuatro.


La reflexión filosófica y los valores


En realidad, la reflexión, la decisión acerca de lo que está bien o está mal, acerca de los valores que queremos promover, conservar y aplicar, es el origen de todo. A veces nos olvidamos de ello, y creo que es debido a dos motivos. 

Uno, que muchos valores ya están asumidos, integrados y dados por supuestos. Por decirlo  de alguna forma, porque heredamos una reflexión ética ya hecha. Así ocurre, por ejemplo, en Occidente, con todo lo que tiene que ver con la privacidad y el derecho a la intimidad. Son valores asumidos, pero no olvidemos que, de alguna forma, la reflexión ética ha sucedido, ha sido anterior y no olvidemos tampoco que, por ejemplo ese derecho a la intimidad y la privacidad consiguiente, no deja de ser una elección, que en Asia, por ejemplo, no se tiene la misma visión acerca de la individualidad.

Y, otro, que quizá, los propios filósofos, los especialistas en teoría en la ética, hacen sesudos y sin duda interesantes análisis, pero pocas veces nos marcan el camino a adoptar (como ocurre con frecuencia en filosofía, se preguntan más que contestan).

Añadiría que hay casos, que voy a obviar en este post aunque personalmente son los que más me interesan, muchos que tiene que ver con roboética y con la forma en que la tecnología desafía nuestra concepción sobre la propia naturaleza humana, en que ni siquiera tenemos unas respuestas claras, unos valores claros, una definición nítida de lo que puede estar bien o estar mal.

En realidad, a la hora de hablar de ética de la inteligencia artificial, lo habitual es obviar la reflexión ética propiamente dicha, partir de unos valores que damos por ciertos y asumidos, y ver cómo respeta o no la inteligencia artificial esos valores y qué podemos hacer en caso de que no sea así.

Y eso nos lleva a la operativización de la ética en inteligencia artificial y a las tres vías de su abordaje. 


La perspectiva técnica


Me gusta recordar que la tecnología aporta también soluciones.

Y me gusta hacerlo porque en muchos autores y muchos ámbitos, creo que con frecuencia motivado por desconocimiento e incluso sesgo cognitivo, se tiende a presentar a la tecnología y a sus creadores, como algo desalmado, creador de problemas y sin la más mínima sensibilidad moral. A veces se presenta a la tecnología, en este caso la inteligencia artificial, y sus creadores, normalmente referidos como los ingenieros, como algo simplemente malo o carente de sensibilidad.

Y, por supuesto, no es así.

Mucha gente ignora que existen algoritmos y herramientas, pensadas y desarrolladas por esos mismos colectivos que algunos consideran culpables, que de forma bastante efectiva permiten explotar los datos respetando la privacidad, o analizar los modelos y algoritmos para detectar y corregir sesgos.

Insisto, soluciones tecnológicas, a veces también metodológicas, para la ética.

Y aunque no siempre va a ser posible (por ejemplo, la cosa en materia de explicabilidad es bastante más compleja), siempre que podamos encontrar una solución tecnológica y automatizada para garantizar el uso ético, será probablemente la medida más efectiva.


El impulso jurídico


La segunda vía es la jurídica.

Con frecuencia digo, no sé si acertadamente, que la ley es el 'brazo armado' de la ética. Cuando tenemos claros unos valores, o unos comportamientos deseados, la forma de garantizarlos, desde luego no totalmente, pero sí en buena medida, es mediante la regulación, mediante la ley, mediante instrumentos jurídicos que obliguen a adoptar esos comportamientos y penalicen cuando no se haga.

Y, al menos en Europa, hay gran actividad en este sentido y, en concreto, ahora estamos en el momento de la famosa AI Act, recientemente consensuada.

Aunque en su momento leí un borrador del texto, confieso que aún no he podido sacar tiempo para leer el enunciado final y para leer suficientes opiniones autorizadas sobre ella.

Entiendo como bueno y necesario que exista esa ley (ese reglamento, en realidad), pero aún no tengo una valoración clara de si éste reglamento en concreto, es la regulación adecuada, si aplica correctamente los principios éticos, si es efectiva y si, al tiempo, no demoniza la tecnología y no impide la innovación y el avance.

En cualquier caso, desde luego, la vía legal está en marcha, al menos en la Unión Europea.


La iniciativa empresarial


Pero, y todos lo sabemos, la ley no puede cubrirlo todo y no es posible avanzar en ella con suficiente velocidad para estar a la par de los avances tecnológicos.

Y, probablemente, tampoco se puede regularlo absolutamente todo.

Queda entonces, creo yo, muchos espacio para el ir más allá de la ley, mucho campo para la ética y responsabilidad individuales y, sobre todo, para la aplicación de principios éticos en el ámbito empresarial, y en la propia administración pública, siguiendo la filosofía de la ética por diseño.

Se trata, o se debiera tratar, cuando se aplica, de una decisión ética y de valores de las organizaciones que deciden aplicar principios éticos en sus propios procesos de diseño, desarrollo, implantación y comercialización de soluciones basadas en inteligencia artificial.

Un comportamiento, desde luego loable, aunque tampoco conviene ser inocentes y conviene darse cuenta de que, valores aparte, y sin dudar de ellos, hoy en día la aplicación de principios éticos, u otros valores como el respecto medioambiental, tienen valor de mercado, son una forma en apariencia efectiva de marketing y de mejora de posición competitiva. 

Es algo así, como un win-win: somos éticos, lo cual es bueno en sí mismo, pero es que además, nos posiciona bien en el mercado.


El 'bluewashing'


Y en parte, ese valor de mercado, esa aspiración a una imagen de marca responsable, puede llamar a lo que a veces se denomina 'bluewashing', derivado del término 'greenwashing' de similar significado pero procedente este último del ámbito medioambiental y de la sostenibilidad..

Se trataría de hacer grandes declaraciones de valores y decálogos éticos, de aplicar puntualmente esos principios éticos en algunos proyectos aislados, de invertir en soluciones de impacto social positivo basadas en inteligencia artificial, quizá a través de fundaciones...mientras el 'core' de la actividad con soluciones de inteligencia artificial, continua al margen de la ética y sin respeto a elementos como, particularmente, la privacidad.


Escepticismo

 

Todo eso nos puede conducir al escepticismo sobre el eventual uso ético de la inteligencia artificial y sobre la efectividad e incluso la intención de las actividades en materia de ética de la inteligencia artificial. 

Así, por ejemplo, me encuentro en el libro 'The ethics of artificial intelligence' del filósofo italiano Luciano Floridi, la siguiente frase


People also spread scepticism about the possibility of an ethical framework that would synthesize what we mean by socially good AI. 


que parece recoger esa sensación de escepticismo en algunos sectores sobre la viabilidad de un armazón ético que conduzca a la aplicación responsable de la inteligencia artificial.


La ética de fondo


Personalmente, creo que sí es viable, y que vale la pena luchar por ello.

Pero no ignoro, y también advierto, de que más allá de tecnologías, leyes y metodologías, lo importante es el verdadero y profundo comportamiento ético o, por mejor decirlo, la asunción profunda y sincera de unos valores y la verdadera voluntad de un comportamiento ético.

Con frecuencia pienso que, permítaseme decirlo así, nos estamos 'poniendo estupendos' con la ética de la inteligencia artificial cuando, por desgracia, observamos comportamientos muy poco éticos en temas mucho más básicos y que afectan desde el día a día hasta, y de forma muy destacada, la acción política y la administración tanto pública como privada.


Conclusiones


Creo que sí, creo que es posible un armazón ético para la inteligencia artificial. Creo que, si nos lo proponemos, somos capaces de encontrar las soluciones técnicas, las metodologías y los instrumentos legales que garanticen el uso ético y socialmente responsable de la inteligencia artificial... y de cualquier otra tecnología.

Pero lo básico, lo realmente importante, lo que marcará el ser o no ser, es que exhibamos unos valores auténticos y profundos. Lo crucial es que, realmente, aspiremos a esa ética.