🔍 GPT Researcher MCP Server
Позволяет LLM-приложениям проводить глубокие веб-исследования с фокусом на релевантные источники через протокол MCP.
Описание
Это сервер MCP для GPT Researcher, интегрирующийся с LLM вроде Claude для автоматизированного глубокого поиска в интернете. Использует Python 3.11+, API OpenAI и Tavily для получения качественной информации. Поддерживает транспортные протоколы (STDIO, SSE, HTTP), Docker для продакшена. Потенциальные применения: анализ рынков, научные исследования, генерация отчётов с проверенными данными, оптимизация контекста для ИИ.
Возможности
Глубокое исследование
Автономный поиск и валидация релевантных источников для получения надёжной информации.
Быстрый поиск
Оптимизированный веб-поиск с фрагментами результатов, поддержка Tavily, Bing, Google.
Генерация отчёта
Создание структурированного отчёта на основе результатов исследования.
Получение источников
Доступ к использованным источникам и полному контексту исследования.
Интеграция с Claude
Поддержка локальной и Docker-развёртки для работы с LLM-приложениями.
Установка
- Клонируйте репозиторий: git clone https://github.com/assafelovic/gpt-researcher.git && cd gptr-mcp
- Установите зависимости: pip install -r requirements.txt
- Настройте .env: cp .env.example .env, добавьте OPENAI_API_KEY и TAVILY_API_KEY.
- Запустите: python server.py Для Docker: docker-compose up -d Для Claude Desktop: Настройте claude_desktop_config.json с command и env (API ключи).