я аспірант, працюю над гіпотезою про автоматизацію роботи інженерів конструкторів через агентів (використовую LLM агентів для керування МКЕ софтом).
у дисертації вже десь 115 статей і я вигадав новий флоу: агент читає статтю, витягує цитати, робить з них твердження, перевіряє твердження проти PDF, відстежує що вже переглянуто мною
зробив Next.js дашборд який працює поверх звичайної структури папок. кожна стаття це директорія з summary.md, quotes.md, notes.md, і опціонально claims.json та review-state.json. ніякої бази даних. файлова система це джерело істини, і можна редагувати файли будь-яким редактором — дашборд підхоплює зміни
основний воркфлоу це "структуроване читання". вибираєш статтю, і дашборд показує твої твердження зв'язані з підтверджуючими цитатами. кожну цитату можна автоматично перевірити проти локального PDF, перевіряє чи текст реально є в документі. також можна запустити AI огляд через Codex CLI який оцінює чи цитата справді підтримує твердження (пряма підтримка, часткова, суміжна, невідповідність, суперечність) і пропонує виправлення
формат claims.json простий: масив тверджень (кожне з id, title, type, statement, ID підтверджуючих цитат, теги) і масив цитат (id, title, page, body або сегменти). коли вперше стикаєшся зі статтею, можна попросити AI згенерувати твердження з резюме — воно створює claims.json, а далі це ручний цикл огляду з AI-асист чатом (codex)
все працює локально. API роути обробляють CRUD для нотаток, цитат, зв'язків між ними і стану огляду. запис файлів використовує advisory locking щоб конкурентні мутації не псували стан. AI операції стрімляться через SSE
стек: Next.js 15, React, TypeScript, Codex CLI для AI, pdftotext для верифікації. ніяких зовнішніх сервісів окрім LLM API
зробив для себе, але можливо комусь буде цікаво