Расскажу, как строить осмысленные пайплайны Retrieval-Augmented Generation (RAG), в которых LLM не просто «угадывает» ответ по похожим чанкам, а осознанно исследует данные, исходя из их структуры и связей.
В основе подхода — семантическое моделирование данных. В него входят:
- описание предметной области в виде модели данных (ноды, атрибуты, связи),
- хранение данных в графовой базе Memgraph,
- дополнение графа документами и чанками, а также вопросами и ответами,
- формальное описание модели и инструменты vector search, Cypher, SQL для LLM-ассистента;
- самостоятельный выбор ассистентом, как получить ответ.
В докладе покажу:
- как устроена модель анкеров-атрибутов-линков;
- как LLM интерпретирует структуру и использует ее для планирования запроса;
- как сочетаются векторный и графовый поиски;
- и как устроен пайплайн генерации ответа — с fallback'ом, метриками и визуализацией запроса.