MCP LLM Bridge
Соединяет MCP-серверы с OpenAI-совместимыми LLM для использования инструментов через bidirectional перевод протоколов.
Описание
Это мост-переводчик между Model Context Protocol (MCP) серверами и LLM, совместимыми с OpenAI API, включая локальные эндпоинты вроде Ollama. Ключевые особенности: преобразование MCP-инструментов в OpenAI function-схемы, обработка вызовов и возврата результатов. Технологии: Python с использованием uv для установки. Применения: интеграция LLM с MCP-инструментами для задач вроде запросов к БД, автоматизации, работая с облачными или локальными моделями для повышения гибкости AI-систем.
Возможности
Bidirectional протокол-перевод
Преобразует MCP-инструменты в OpenAI function-схемы и обратно для seamless интеграции.
Поддержка OpenAI API
Работает с облачными моделями вроде GPT-4o через API-ключ.
Совместимость с локальными LLM
Интеграция с Ollama и LM Studio через OpenAI-совместимые эндпоинты.
Конфигурируемые MCP-серверы
Поддержка серверов вроде mcp-server-sqlite для тестирования и реальных задач.
Тестирование и демо
Включает создание тестовой БД, запуск с примерами запросов и pytest для проверки.
Установка
Установка
curl -LsSf https://astral.sh/uv/install.sh | sh git clone https://github.com/bartolli/mcp-llm-bridge.git cd mcp-llm-bridge uv venv source .venv/bin/activate uv pip install -e .
Создание тестовой БД
python -m mcp_llm_bridge.create_test_db
Конфигурация .env
OPENAI_API_KEY=your_key OPENAI_MODEL=gpt-4o
Активация окружения
source .venv/bin/activate
Настройка в src/mcp_llm_bridge/main.py (пример для OpenAI)
config = BridgeConfig( mcp_server_params=StdioServerParameters( command=“uvx”, args=[“mcp-server-sqlite”, “–db-path”, “test.db”], env=None ), llm_config=LLMConfig( api_key=os.getenv(“OPENAI_API_KEY”), model=os.getenv(“OPENAI_MODEL”, “gpt-4o”), base_url=None ) )
Для Ollama
llm_config=LLMConfig( api_key=“not-needed”, model=“mistral-nemo:12b-instruct-2407-q8_0”, base_url=“http://localhost:11434/v1” )
Запуск
python -m mcp_llm_bridge.main