LangChain MCP Client Streamlit App
Веб-приложение на Streamlit для чата с LLM-провайдерами и использования инструментов через серверы.
Описание
Это Streamlit-приложение предоставляет интерфейс для подключения к серверам (MCP) и взаимодействия с LLM от OpenAI, Anthropic, Google и Ollama. Поддерживает стриминг ответов, прикрепление файлов (изображения, PDF, текст), управление памятью сессий, тестирование инструментов и мультимодельную конфигурацию. Идеально для разработки чат-ботов, автоматизации задач с инструментами и мультимодального ввода. Технологии: LangChain, Streamlit, SQLite для persistence.
Возможности
Поддержка нескольких LLM-провайдеров
Работа с OpenAI, Anthropic, Google Gemini и Ollama, включая кастомные модели и параметры (температура, токены).
Стриминг ответов
Реал-тайм генерация токенов для совместимых моделей, с интеграцией инструментов и fallback'ом.
Прикрепление файлов
Поддержка изображений (vision-модели), PDF (экстракция текста) и текстовых файлов для мультимодального ввода.
Интеграция с MCP
Подключение к нескольким серверам для доступа к инструментам, с тестированием и логами.
Управление памятью
Короткосрочная сессионная и персистентная память в SQLite, с экспортом/импортом и поиском истории.
Тестирование инструментов
Интерфейс для индивидуального тестирования с валидацией параметров, аналитикой и экспортом результатов.
Установка
Клонируйте репозиторий:
git clone https://github.com/guinacio/langchain-mcp-client.git
cd langchain-mcp-client
Рекомендуется UV:
uv sync --all-extras --dev
uv run streamlit run app.py
Альтернатива с pip:
python -m venv venv
source venv/bin/activate # На Windows: venv\Scripts\activate
pip install -r requirements.txt
streamlit run app.py
Приложение доступно на http://localhost:8501.
Для MCP-сервера: запустите weather_server.py (uv run python weather_server.py), подключитесь по http://localhost:8000/sse.