Al final de su libro 'Generative AI with LangChain' el autor, Ben Auffart. enumera muy brevemente los trece retos más importantes que, en su opinión, abordan los modelos generativos en su estado actual.
Si en tecnología la fecha siempre cuenta, en algo tan móvil, tan sometido a febril evolución, es importante fijar el momento del tiempo en que esto publico y la información en que me baso. Por si, lector, lees este post pasado un tiempo desde su publicación, pongo énfasis en que el post está escrito a principios de 2025 y el libro en que me baso está publicado en Diciembre de 2023.
Los trece retos para los sistemas generativos
Dicho esto, estos son, comentados brevemente por mi mismo, los treces retos que alutor identifica y las formas de abordarlos de que se dispone.
- Actualidad de la información y deriva ('drift'): es decir, el hecho de que los modelos se encuentran entrenados en un momento dado con la información disponible en ese momento, con lo que su, digamos' 'conocimiento' puede no ser completamente actual y la calidad de su respuesta irse degradando (deriva). El autor apunta como vías actuales de abordaje unos más eficaces métodos de reentrenamiento, la ingesta continua de datos ('stream ingestion pipelines') o métodos de aprendizaje continuo como 'elastic weight consolidation'.
- Conocimiento especializado: es decir, aplicaciones a ámbitos muy concretos. Se puede abordar mediante RAG ('Retrieval Augmented Generation') o mediante técnicas de 'prompting' que incluyan demostraciones o conocimiento.
- Adaptabilidad aguas abajo: es decir, adaptación del modelo para su uso en tareas más allá de aquellas para las que fue entrenado. Para este caso, estaríamos hablando de hacer un 'fine tunning' estratégico o del uso de hardware especializado
- Salidas sesgadas: una problemática conocida y frente a la cual, aparte de mecanismos de auditoría, se pueden aplicar algoritmos de mitigación de sesgo, realizar entrenamientos con juegos de datos equilibrados, etc
- Generación de contenido dañino: que se puede abordar mediante sistemas de moderación de contenidos o métodos de condicionamiento como el RLHF ('Reinforcement Learning with Human Feeddback') usado por la propia OpenAI.
- Inconsistencias lógicas: fallos lógicos, que creo que al menos parcialmente podemos asociar a las alucinaciones, y que se pueden afrontar mediante la aportación de información factual y lógica adicional mediante el uso de bases de conocimiento o técnicas RAG, así como el empleo de arquitecturas híbridas que no sólo utilicen LLMs sino que incorporen otros algoritmos de machine learning e, incluso, inteligencia artificial simbólica.
- Imprecisiones factuales: es decir, pequeños errores o imprecisiones relacionadas con datos o hechos concretos que, de nuevo, se pueden encarar mediante RAG, mediante bases de conocimiento y mediante la actualización frecuente de estas bases de conocimiento.
- Falta de explicabilidad: un problema bien conocido, en cuanto a planteamiento, que no en cuanto a solución, en todo el campo del machine learning y especialmente del deep learning. El autor apunta al uso de técnicas como la introspección del modelo ('model introspection'), 'concept attribution' (es decir, intentar saber qué característica de entrada pesa más o menos en un resultado) o el diseño de modelos interpretables internamente.
- Riesgos de privacidad: para vencer a los cuales se pueden usar técnicas ya conocidas de otros ámbitos de la inteligencia artificial como el aprendizaje federado, la privacidad diferencial, el encriptado o la anonimización
- Alta latencia y costes de computación: para mejorar los cuales se pueden usar también técnicas bien conocidas como la 'quantization' (disminución del número de bits para representar números, aunque se a costa de perder algo de precisión), uso de hardware optimizado o un mejor diseño algorítmico.
- Limitaciones de licenciamiento: que se puede afrontar mediante uso de datos sintéticos o abiertos para entrenamiento o acuerdos de licenciamiento más justos.
- Seguridad / vulnerabilidades: un amplio campo dentro del cual el autor apunta, simplemente, al uso de buenas prácticas de ciberseguridad y el empleo de técnicas 'adversarias'.
- Gobierno: a encarar mediante el desarrollo de frameworks éticos y de cumplimiento normativo.
Conclusiones
Los modelos generativos, pues, presentan muchos e importantes retos pero, como se puede ver, para todos ellos existen formas de superarlos o, al menos, de comenzar a afrontarlos.
Y dado el espectacular ritmo de avances y novedades en este campo, parece razonable pensar que veremos cómo se superan muchos de ellos o cómo, al menos, se mejora de manera notable en la mayoría de los casos.
No hay comentarios:
Publicar un comentario