Перейти к содержимому

MCP-Bridge

Middleware для OpenAI-совместимого доступа к инструментам MCP

Python
856 stars

Описание

MCP-Bridge — это мост между OpenAI API и инструментами MCP, позволяющий использовать MCP-инструменты через стандартный интерфейс OpenAI без специальной поддержки. Ключевые особенности: поддержка чат-комплейшнов (с и без стриминга), вызов инструментов MCP, семплинг и SSE-бридж для внешних клиентов. Технологии: Python, Uvicorn, Docker, совместим с vLLM и Ollama. Применения: интеграция с Open Web UI, Claude Desktop для расширения LLM-инструментами.

Возможности

Чат-комплейшны без стриминга

Обработка запросов на чат-комплейшны с использованием MCP-инструментов.

Стриминговые чат-комплейшны

Поддержка потоковой передачи ответов с MCP-интеграцией.

Вызов MCP-инструментов

Интеграция и вызов доступных инструментов MCP через OpenAI API.

MCP-сэмплинг

Выбор моделей для генерации на основе параметров интеллекта, стоимости и скорости.

SSE-бридж

Поддержка внешних клиентов через Server-Sent Events для MCP-серверов.

Аутентификация API-ключом

Безопасный доступ с использованием Bearer-токенов.

Установка

Установка через Docker (рекомендуется):

  1. Клонируйте репозиторий.
  2. Отредактируйте compose.yml, добавив config.json (через mount, URL или env). Пример env: MCP_BRIDGE__CONFIG__JSON={“inference_server”:{“base_url”:“http://example.com/v1","api_key":"None"},"mcp_servers":{"fetch":{"command":"uvx","args":["mcp-server-fetch"]}}}
  3. docker-compose up –build -d

Ручная установка:

  1. Клонируйте репозиторий.
  2. uv sync
  3. Создайте config.json с настройками.
  4. uv run mcp_bridge/main.py

Требуется inference engine с поддержкой tool calls (vLLM или Ollama).

Информация

Язык
Python
Лицензия
MIT License
GitHub Stars
856

Ссылки