Sin embargo, me surgen algunas dudas sobre si realmente la inteligencia artificial generativa puede sustituir con ventaja a otras formas de inteligencia artificial o, incluso, otras soluciones de automatización no necesariamente inteligentes en ciertos casos.
Voy a dedicar e reflexionar sobre ello una serie corta de posts, seguramente tres, del que éste es el primero. En este caso, voy a centrarme en el caso de la analítica inteligente.
El planteamiento básico del problema
En general, mis dudas surgen por el carácter probabilista de los modelos generativos, frente a otras formas más exactas y previsibles de crear modelos o realizar tareas. Cuando ese carácter probabilista se aplica en el ámbito creativo (dominio original de la inteligencia artificial generativa) o cuando la usamos sólo para hacer sugerencias, proponer ideas, etc, que luego serán adoptadas o no, y probablemente procesadas por un humano, ese carácter probabilista no es problemático, sino todo lo contrario.
Más dudas surgen cuando la usamos en ámbitos de decisión y acción y con impacto en el negocio donde quizá, quizá, querríamos mayor previsibilidad, mayor repetitividad y, en cierto modo, mayor fiabilidad.
En general, lo que observo es una tensión entre la exactitud que proporcionan técnicas más tradicionales (algunas del campo de la inteligencia artificial y otras no) y que suele ser un requisito de los negocios, frente a la flexibilidad, potencia y facilidad de uso de los modelos generativos.
Vamos a verlo en el caso de la analítica.
Los modelos analíticos
Cuando hablamos de analítica nos referimos a, dicho de una forma sencilla, a obtener resúmenes, conclusiones o hallazgos a partir de unos datos. En el ámbito empresarial podemos querer datos sobre nuestras ventas, sobre la evolución del mercado, sobre nuestros resultados económicos o sobre el impacto de nuestras campañas de marketing, por ejemplo.
En la analítica más tradicional, la que se denomina analítica descriptiva, simplemente explicamos o resumimos con indicadores la situación actual o la evolución en el pasado de cierto parámetros (ventas por producto, tiempos medios de entrega de productos, satisfacción del cliente, costes de producción por unidad de producto, etc) Para este tipo de analítica, no hace falta la inteligencia artificial. La llevamos haciendo desde hace décadas utilizando inicialmente bases de datos relacionales y, posteriormente, bases de datos multidimensionales u OLAP ('OnLine Analytical Processing') en el ámbito de lo que en su momento de denominó 'Business Intelligence'.
En general, acudimos a la inteligencia artificial cuando buscamos la analítica predictiva o la prescriptiva. En la analítica predictiva buscamos no sólo 'contar' o resumir lo que ha ocurrido en el pasado sino, con base en esos datos, obtener un modelo (sobre ventas, sobre campañas o sobre lo que sea) que, aunque se basa en datos del pasado, en la medida que capta bien la esencia de la realidad que modela, permite hacer predicciones de comportamiento futuro (predicciones de venta, de necesidades de materias primas o de posible avería de un equipo o infraestructura)- Estos modelos predictivos son el campo típico del machine learning tradicional que primero decide el tipo de modelo más adecuado (una regresión, un árbol de decisión un 'random forest', un SVM, etc) y luego ajusta parámetros del modelo hasta conseguir una capacidad predictiva razonable.
Más ambiciosa, y no tengo hasta qué punto conseguida mediante métodos tradicionales, tenemos la analítica prescriptiva que, no sólo nos describe el pasado y anticipa el futuro, sino que además nos aconseja qué deberíamos hacer.
Creo que, fundamentalmente, en la actualidad las empresas utilizan el machine learning en abundancia y con éxito en analítica predictiva. Aunque en el campo predictivo es difícil hablar de 'exactitud', lo cierto es que los modelos, una vez entrenados y en producción, son perfectamente deterministas y tememos razonablemente claro por qué predicen lo que predicen y, con base en las pruebas y validaciones que se realizan sobre ellos (en entrenamiento y producción), tenemos razonablemente clara su capacidad predictiva. En ese sentido, podríamos decir que son exactos, sobre todo si los comparamos, como haremos ahora, con los modelos generativos.
El enfoque generativo
El enfoque generativo, y me centro en el caso de los LLM ('Large Language Models') es diferente. Tienen un carácter mucho más transversal y se basan en lenguaje natural.
Lo bueno del lenguaje humano es su enorme versatilidad y potencia, y lo malo es que no es exacto, existiendo ambigüedades, dobles interpretaciones, etc. Y modelos de lenguaje son claramente probabilistas, generando una secuencia de palabras (en realidad tokens, pero no voy a entrar ahora en la distinción) , eligiendo en cada paso la palabra (o token) más probable de forma que se mantenga la mayor coherencia con el prompt de entrada, el contexto, y la salida generada hasta el momento. A pesar de que los resultados son extraordinarios, y cada vez más confiables, no son realmente un modelo exacto.
Hoy en día es perfectamente posible pasarle por ejemplo a ChatGPT una excel o un PDF con datos y pedirle que nos haga un análisis, resuma hallazgos principales, identifique tendencias, nos haga una previsión y nos aconseje cómo actuar. Es decir, en cierto modo le estamos pidiendo una analítica descriptiva, predictiva e, incluso, prescriptiva.
A bote pronto, esta forma de actuar tiene dos problemas posibles
El primero tiene que ver con el volumen de datos. Cuando le pasamos a ChatGPT una excel para que la analice, no vamos a incluir en ella miles o millones de registros sino que trabajamos con cantidades de datos modestas o resúmenes de datos analizados por otras vías. Este problema, sin embargo, el del volumen de datos, no creo que sea un verdadero problema. Y lo digo porque los modelos generativos se pueden usar de muchas formas que no son mediante un chatbot como ChatGPT. En otras formas de emplearlos (con soluciones analíticas especializadas) no creo que el problema del volumen fuese tan grave (aunque habría que ver cómo gestionar la ventana de contexto).
Más complejo me parece la gestión de la exactitud porque el enfoque probabilista y la ambigüedad del lenguaje son casi intrínsecos a los modelos generativos.
Aunque, incluso para eso, también parecen apuntarse algunas soluciones posibles.
El modelo agéntico y las herramientas
Dejando aparte que la evolución de las capacidades de los modelos generativos no dejan de asombrarnos y que no es descartable, ni siquiera a corto plazo que, mediante un entrenamiento específico, mediante algunos ajustes arquitecturales o alguna otra estrategia, los modelos generativos alcancen y mejoren la capacidad predictiva de los modelos de machine learning más tradicionales, hay alguna solución que se puede hacer ya a día de hoy.
Quizá la más evidente pasa por la aplicación, siquiera parcial, del enfoque de agentes y el uso de herramientas que ya explicamos en otro post.
Y me refiero, por un lado, a que ya las soluciones actuales, cuando le pedimos el análisis de datos, generan sobre la marcha el código python para la lectura de los datos y eventualmente también el código python para crear gráficas de evolución y, probablemente, para el propio análisis de datos. Cuando aparece en escena código python, entramos en otra dimensión, porque, aparte de la potencia de hacer esto, sí que obtenemos exactitud. Y el tratar un lenguaje de programación es algo que es natural que 'se le de bien' a los modelos de lenguaje porque, como su nombre indica, un lenguaje de programación es un lenguaje, y además un lenguaje más sencillo, con reglas más claras y mejor estructurado que el lenguaje natural humano. Con esto, si la solución generativa se apoya correctamente en programas python, podría alcanzar o acercarse a la exactitud.
En segundo lugar, porque dentro de las herramientas que invocase un agente podría, por qué no, incluirse la llamada a un modelo analítico de machine learning tradicional ya disponible (bien que esto lo haríamos en modo inferencia, y no es tan claro en el caso del entrenamiento).
¿Estrategias mixtas?
Esto último abre también la puerta a posibles estrategias mixtas que combinen modelos tradicionales con modelos generativos. Una es la que ya he apuntado: que un agente basado en modelo generativo invoque como herramienta a modelos tradicionales.
Otra opción (aunque de nuevo con alguna reserva en la parte de cómo hacer el entrenamiento), es que el modelo generativo sea el que proponga el mejor modelo de machine learning analítico, algo que creo que es perfectamente posible hoy en día (si es que no se está haciendo ya).
Una opinión a vuelapluma
Más como un bote pronto, como una impresión, creo que, al menos a corto plazo, la verdadera analítica a nivel corporativo y gran escala (modelos de atribución de ventas, mantenimiento predictivo de infraestructuras y cosas así) se seguirá haciendo mediante modelos de machine learning tradicionales.
Sin embargo, a pequeña escala, cuando son pocos datos, cuando trabajamos a nivel casi individual analizando un excel, un CSV o un histograma, se aplicarán casi exclusivamente modelos generativos con herramientas de tipo chat y, poco a poco, gestionado y automatizado con agentes.
Lo que no tengo claro, es si habrá interés y capacidad técnica como para convertir los modelos generativos también en la opción analítica de preferencia a gran escala y, en caso afirmativo, cómo se resolverá el problema del volumen de datos y la exactitud.
Conclusiones
Aunque los modelos generativos están invadiendo prácticamente todos los ámbitos de aplicación de la inteligencia artificial, existen dominios para los que pueden no ser la mejor opción, al menos a día de hoy. Y uno de esos ámbitos es la analítica de datos a gran escala donde parece que, al menos por el momento, es una solución más aceptable y seguramente más utilizada, el machine learning tradicional.
Otra cosa es lo que pueda traer el futuro...y si ese eventual futuro es incluso cercano.
No hay comentarios:
Publicar un comentario