Deep-research
Создаёт AI-агента для глубоких итеративных исследований с использованием Gemini и Google Search.
Описание
Это MCP-сервер на TypeScript для Node.js, использующий Gemini 2.5 Flash для автоматизированных исследований. Ключевые особенности: итеративный анализ запросов, генерация SERP-запросов, семантическое разделение контента, батчинг вызовов с кэшированием и создание профессиональных Markdown-отчётов. Поддерживает инструменты Gemini (Google Search, код-исполнение, функции). Потенциальные применения: ИИ-ассистент для анализа тем, генерация отчётов, интеграция в агентов без веб-скрейпинга. Код минималистичен (менее 500 строк), легко расширяем.
Возможности
MCP Интеграция
Работает как MCP-сервер для seamless интеграции с AI-агентами и инструментами.
Gemini 2.5 Flash Pipeline
Длинный контекст, структурированные JSON-выводы, поддержка инструментов: Google Search Grounding, Code Execution, Functions.
Итеративные исследования
Уточнение запросов, анализ результатов с сохранением контекста, контроль глубины и широты (1-5 уровней).
Семантическое разделение
Token-aware chunking для эффективного суммирования и анализа контента.
Батчинг и кэширование
Конкурентные вызовы с лимитом (CONCURRENCY_LIMIT), LRU-кэш для промптов и результатов.
Генерация отчётов
Структурированные Markdown-документы: Abstract, Introduction, Body, Methodology, Limitations, Key Learnings, References.
Persona Agents
Ролевые персоны для LLM (стратег, аналитик, рефинер) для фокусированного и последовательного вывода.
Установка
- Клонируйте репозиторий: git clone https://github.com/ssdeanx/deep-research-mcp-server
- Перейдите в директорию: cd deep-research-mcp-server
- Установите зависимости: npm install
- Создайте файл .env.local с GEMINI_API_KEY=your_gemini_key и другими переменными (GEMINI_MODEL=gemini-2.5-flash, CONCURRENCY_LIMIT=5 и т.д.)
- Соберите проект: npm run build Для запуска как MCP: node –env-file .env.local dist/mcp-server.js Для CLI: npm run start “ваш запрос”