jueves, 20 de febrero de 2025

IA generativa y la ventaja de los expertos y el conocimiento

Cuando vemos los grandes avances de la inteligencia artificial, muy especialmente la generativa, y cuando asombramos con sus grandes avances, su capacidad para sustituir al ser humano en tareas netamente cognitivas, de pensamiento y conocimiento, tareas que hasta hace no tanto pensábamos que eran exclusivas del ser humano, es justo hacerse preguntas, muchas preguntas.


¿El fin del pensamiento humano?


Cabe preguntarse, en efecto si, definitivamente, el conocimiento y capacidad de pensamiento humanos son habilidades en retroceso, si en un futuro ya muy próximo, las máquinas nos sustituirán a la hora de pensar y conocer y no necesitaremos hacerlo nosotros.

Cabe preguntarse si las futuras generaciones sabrán menos, conocerán menos, razonarán menos, porque lo hayan delegado todo en una inteligencia artificial cada vez más potente, más generalista y más accesible.

Incluso cabe preguntarse cómo nos afectará en el corto plazo.

¿El conocimiento o la capacidad de razonar han dejado de ser diferenciales? ¿Han dejado de ser valiosos? ¿Van a desaparecer, incluso?


Una pregunta sin respuesta


Para ser sincero, creo que son preguntas para las que, en el fondo, no tenemos una respuesta completa ni segura al menos a medio y largo plazo.

Pienso que sí, que algo nos afectará, que delegaremos en la inteligencia artificial cada vez más tareas cognitivas o de conocimiento. Que lo haremos de la misma forma que cada vez sabemos menos de un lugar a otro sin la ayuda de Google Maps, Waze o similares. De la misma forma que cada vez recordamos menos números de teléfono. De la misma forma que cada vez más, en lugar de buscar datos o informaciones en libros u otras personas, lo hacemos en un buscador, en un Perplexity o en un ChatGPT en una suerte de externalización de la que ya hablé en el post 'ChatGPT y la externalización de capacidades cognitivas. ¿Debemos preocuparnos?'.

Pero no tengo claro hasta dónde vamos a llegar en ello (calculo que bastante lejos) y, sobre todo, cómo nos va a afectar cognitivamente, a nuestra capacidad de pensar, razonar y recordar. 

Y tampoco tengo cien por cien claro qué debemos hacer en cuanto a educación y en cuanto a desarrollo personal pero, preventivamente, y también por vocación, prefiero seguir cuidando mi cerebro, mi conocimiento y mi capacidad de razonar.


Una luz de esperanza: la ventaja de los expertos


Pero, por si nos asusta la posibilidad de que el conocimiento y el 'expertise' se conviertan en irrelevantes, e incluso que desaparezcan, aquí traigo una pequeña lucecita de esperanza. Una lucecita que me he encontrado leyendo el recientemente publicado libro 'Superagency: What Could Possibly Go Right with Our AI Future' de Reid Hoffman y Greg Beato

En él hay un momento en que, hablando del uso de los LLM ('Large Language Models'), los autores mencionan a Ethan Mollick, profesor de Wharton y su post "Latent Expertise: Everyone is in R&D" en substack. Y de él extraen lo siguiente cita:


Experts thus have many advantages. They are better able to see through LLM errors and hallucinations; they are better judges of AI output in their area of interest; they are better able to instruct the AI to do the required job; and they have the opportunity for more trial and error. That lets them unlock the latent expertise within LLMs in ways that others could not.


Lo que Mollick nos dice es que sí, que el conocimiento sigue siendo valioso, que aunque se use un LLM (entiendo que está pensando básicamente en un chatbot basado en LLM), el conocimiento y la pericia de los expertos les permite extraer mucho más valor del LLM y detectar las posibles inconsistencias o alucinaciones de los modelos.

Creo, además, que va mucho más allá que esto va mucho más del mero uso de buenas técnicas de 'prompt engineering', creo que se refiere a conocimiento auténtico, de dominio científico, técnico o de lo que sea.

Una forma sencilla de comprobar esto, es usar una herramienta generativa orientada a imágenes como un Midjourney o un Stable Diffusion, o incluso una orientada a música como Suno. Personalmente he percibido cómo me siento de 'torpe' con estas herramientas, no por el uso en sí, que es casi tan sencillo y accesible como el de cualquier otra. Lo que me falta, en el caso de las imágenes, son conocimientos de arte, de diseño gráfico, de fotografía, de tratamiento de imágenes, de saber describir, de una forma precisa, lo que quiero obtener, casi diría, no sólo describirlo, sino saber qué quiero obtener realmente. Y lo mismo ocurre con la música: carezco de conocimientos musicales suficientes como para describir estilos musicales o técnicas que no conozco. Y por ello, de momento me contento con 'prompts' sencillos o con copiar 'prompts' cuyo resultado me gusta

De la misma forma, parece razonable pensar que, quizá, el 'expertise' es importante en el uso de los modelos de lenguaje.

Lo que no está tan claro es si, como se dice en el lenguaje de la estrategia empresarial, esa ventaja competitiva es sostenible a largo plazo o si sólo es un transitorio mientras la inteligencia artificial avanza más y más.


Conclusiones


La inteligencia artificial, en especial la generativa, desafía nuestro conocimiento y razonamiento y nos hace preguntarnos hasta qué punto ese conocimiento y razonamiento son valiosos y si lo seguirán siendo en el futuro. Y nos hace cuestionarnos sobre qué debemos hacer entonces con nuestra educación y nuestro desarrollo cognitivo.

A corto plazo parece que todavía, el conocimiento, el razonamiento y la experiencia, son cualidades valiosas y diferenciales.

A largo plazo, no lo veo tan claro pero, preventivamente y como opción, prefiero seguir cuidando y desarrollando mi mente, y aconsejaría al lector hacer lo mismo.


No hay comentarios:

Publicar un comentario