- Published on
Cada vez que hablás con un LLM, le mandás toda la conversación anterior. Turno 1: 200 tokens. Turno 100: el contexto se llena y empieza a olvidar. RAG ayuda pero trae kilos de texto crudo. Acervo es otro approach: extraer conocimiento estructurado de cada conversación, comprimirlo en un grafo, y reconstruir el contexto a demanda — sin importar la sesión. En este post: el problema, por qué RAG no alcanza, cómo se me ocurrió la idea, y qué construimos en la primera versión.