Перейти к содержимому

🔍 GPT Researcher MCP Server

Позволяет LLM-приложениям проводить глубокие веб-исследования с фокусом на релевантные источники через протокол MCP.

Python
244 stars

Описание

Это сервер MCP для GPT Researcher, интегрирующийся с LLM вроде Claude для автоматизированного глубокого поиска в интернете. Использует Python 3.11+, API OpenAI и Tavily для получения качественной информации. Поддерживает транспортные протоколы (STDIO, SSE, HTTP), Docker для продакшена. Потенциальные применения: анализ рынков, научные исследования, генерация отчётов с проверенными данными, оптимизация контекста для ИИ.

Возможности

Глубокое исследование

Автономный поиск и валидация релевантных источников для получения надёжной информации.

Быстрый поиск

Оптимизированный веб-поиск с фрагментами результатов, поддержка Tavily, Bing, Google.

Генерация отчёта

Создание структурированного отчёта на основе результатов исследования.

Получение источников

Доступ к использованным источникам и полному контексту исследования.

Интеграция с Claude

Поддержка локальной и Docker-развёртки для работы с LLM-приложениями.

Установка

  1. Клонируйте репозиторий: git clone https://github.com/assafelovic/gpt-researcher.git && cd gptr-mcp
  2. Установите зависимости: pip install -r requirements.txt
  3. Настройте .env: cp .env.example .env, добавьте OPENAI_API_KEY и TAVILY_API_KEY.
  4. Запустите: python server.py Для Docker: docker-compose up -d Для Claude Desktop: Настройте claude_desktop_config.json с command и env (API ключи).

Информация

Язык
Python
Лицензия
MIT License
GitHub Stars
244

Ссылки