MCP Server (Model Context Protocol)
Модульный сервер для управления AI-моделями через стандартизированный API Model Context Protocol.
Описание
Это универсальный сервер на Node.js для реализации Model Context Protocol (MCP), обеспечивающий взаимодействие с AI-моделями от провайдеров вроде OpenAI, Stability AI, Anthropic и Hugging Face. Ключевые особенности: модульная архитектура с динамической загрузкой, стандартизированный API для активации моделей, inference (текст, изображения, речь), стриминг и поиск модулей. Использует ESM, Hono для роутинга, pnpm, Docker. Идеален для унифицированных интерфейсов AI, расширения функционала и тестирования с Mocha/Chai.
Возможности
Модульная архитектура
Динамическая загрузка и расширение через самодостаточные модули с package.json и тестами.
Управление моделями
Активация, деактивация, просмотр и inference для моделей text, image, speech-to-text.
Интеграция с AI-провайдерами
Поддержка OpenAI (GPT, Whisper), Stability AI (Stable Diffusion), Anthropic (Claude), Hugging Face.
Стандартизированный API
Методы для серверной информации, метрик, поиска модулей и инструментов.
Streaming inference
Потоковая генерация ответов для совместимых моделей, включая примеры с curl.
Тестирование и Docker
Комплексные тесты с Mocha/Chai, pre-commit хуки, поддержка контейнеризации для развертывания.
Установка
Предварительные требования:
- Node.js 18.x или выше
- pnpm 10.x или выше
Установка:
git clone https://github.com/profullstack/mcp-server.git
cd mcp-server
pnpm install
Запуск:
pnpm start
Или в режиме разработки: pnpm dev.
Конфигурация:
cp sample.env .env
Отредактируйте .env, добавив API-ключи (OPENAI_API_KEY, STABILITY_API_KEY и т.д.) для провайдеров моделей.
Docker:
docker build -t mcp-server .
docker run -p 3000:3000 mcp-server