Перейти к содержимому

MCP Server for Vertex AI Search

Сервер для поиска документов в Vertex AI с grounding Gemini на приватных данных.

Python
28 stars

Описание

Это MCP-сервер для Vertex AI Search, использующий Gemini с grounding для улучшения качества поисковых результатов на основе приватных данных в Vertex AI Datastore. Поддерживает интеграцию одного или нескольких datastore. Идеально для создания поисковых систем, чат-ботов и приложений с доступом к корпоративным знаниям. Технологии: Python, uv, YAML-конфигурация, транспорты stdio и SSE.

Возможности

Grounding с Gemini

Улучшает качество ответов, опираясь на данные из Vertex AI Datastore для поиска.

Интеграция datastore

Поддержка одного или нескольких Vertex AI datastore для приватных данных.

Транспорты

Работа через stdio или SSE для гибкого использования в разных средах.

Конфигурация YAML

Настройка сервера, модели и datastore через файл config.yml.

Тестирование поиска

Команда mcp-vertexai-search search для проверки без запуска сервера.

Установка

Клонируйте репозиторий: git clone git@github.com:ubie-oss/mcp-vertexai-search.git Создайте виртуальное окружение: uv venv Установите зависимости: uv sync –all-extras Скопируйте config.yml.template в config.yml и настройте (project_id, location, model_name и т.д.). Запустите сервер: uv run mcp-vertexai-search serve –config config.yml –transport stdio Альтернатива: pip install git+https://github.com/ubie-oss/mcp-vertexai-search.git Необходимы: uv, Vertex AI datastore.

Информация

Язык
Python
Лицензия
Apache License 2.0
GitHub Stars
28

Ссылки