✔️ RAG - как GPT перестал галлюцинировать и научился думать с источниками
Классические LLM ограничены собственным контекстом: они выдают только то, что успели "запомнить" при обучении.
RAG (Retrieval-Augmented Generation) ломает эту границу — модель получает доступ к внешним данным и способна подгружать нужные факты *в момент запроса*.
Механика проста, но мощна:
LLM → делает эмбеддинг запроса → ищет близкие документы в векторном хранилище → получает top-k контексты → формирует ответ на их основе.
В итоге модель не "вспоминает", а всегда рассуждает на свежих данных.
Где это реально работает:
- в Copilot для кода, когда модель тянет сниппеты из корпоративных репозиториев;
- в внутренних чатах компаний - поиск по Confluence, Notion, Jira и документации;
- в R&D и науке - динамическая генерация отчётов с ссылками на реальные статьи;
- в юридических и медтех-системах, где каждый ответ должен быть подтверждён источником.
RAG - это уже не просто “надстройка над GPT”.
Это новая архитектура, где память отделена от рассуждения, и ИИ получает навык работы с контекстом, как человек с поисковиком.