MCP-Bridge
Middleware для OpenAI-совместимого доступа к инструментам MCP
Описание
MCP-Bridge — это мост между OpenAI API и инструментами MCP, позволяющий использовать MCP-инструменты через стандартный интерфейс OpenAI без специальной поддержки. Ключевые особенности: поддержка чат-комплейшнов (с и без стриминга), вызов инструментов MCP, семплинг и SSE-бридж для внешних клиентов. Технологии: Python, Uvicorn, Docker, совместим с vLLM и Ollama. Применения: интеграция с Open Web UI, Claude Desktop для расширения LLM-инструментами.
Возможности
Чат-комплейшны без стриминга
Обработка запросов на чат-комплейшны с использованием MCP-инструментов.
Стриминговые чат-комплейшны
Поддержка потоковой передачи ответов с MCP-интеграцией.
Вызов MCP-инструментов
Интеграция и вызов доступных инструментов MCP через OpenAI API.
MCP-сэмплинг
Выбор моделей для генерации на основе параметров интеллекта, стоимости и скорости.
SSE-бридж
Поддержка внешних клиентов через Server-Sent Events для MCP-серверов.
Аутентификация API-ключом
Безопасный доступ с использованием Bearer-токенов.
Установка
Установка через Docker (рекомендуется):
- Клонируйте репозиторий.
- Отредактируйте compose.yml, добавив config.json (через mount, URL или env). Пример env: MCP_BRIDGE__CONFIG__JSON={“inference_server”:{“base_url”:“http://example.com/v1","api_key":"None"},"mcp_servers":{"fetch":{"command":"uvx","args":["mcp-server-fetch"]}}}
- docker-compose up –build -d
Ручная установка:
- Клонируйте репозиторий.
- uv sync
- Создайте config.json с настройками.
- uv run mcp_bridge/main.py
Требуется inference engine с поддержкой tool calls (vLLM или Ollama).