Перейти к содержимому

LangChain MCP Client Streamlit App

Веб-приложение на Streamlit для чата с LLM-провайдерами и использования инструментов через серверы.

Python
37 stars

Описание

Это Streamlit-приложение предоставляет интерфейс для подключения к серверам (MCP) и взаимодействия с LLM от OpenAI, Anthropic, Google и Ollama. Поддерживает стриминг ответов, прикрепление файлов (изображения, PDF, текст), управление памятью сессий, тестирование инструментов и мультимодельную конфигурацию. Идеально для разработки чат-ботов, автоматизации задач с инструментами и мультимодального ввода. Технологии: LangChain, Streamlit, SQLite для persistence.

Возможности

Поддержка нескольких LLM-провайдеров

Работа с OpenAI, Anthropic, Google Gemini и Ollama, включая кастомные модели и параметры (температура, токены).

Стриминг ответов

Реал-тайм генерация токенов для совместимых моделей, с интеграцией инструментов и fallback'ом.

Прикрепление файлов

Поддержка изображений (vision-модели), PDF (экстракция текста) и текстовых файлов для мультимодального ввода.

Интеграция с MCP

Подключение к нескольким серверам для доступа к инструментам, с тестированием и логами.

Управление памятью

Короткосрочная сессионная и персистентная память в SQLite, с экспортом/импортом и поиском истории.

Тестирование инструментов

Интерфейс для индивидуального тестирования с валидацией параметров, аналитикой и экспортом результатов.

Установка

Клонируйте репозиторий:

git clone https://github.com/guinacio/langchain-mcp-client.git
cd langchain-mcp-client

Рекомендуется UV:

uv sync --all-extras --dev
uv run streamlit run app.py

Альтернатива с pip:

python -m venv venv
source venv/bin/activate  # На Windows: venv\Scripts\activate
pip install -r requirements.txt
streamlit run app.py

Приложение доступно на http://localhost:8501.

Для MCP-сервера: запустите weather_server.py (uv run python weather_server.py), подключитесь по http://localhost:8000/sse.

Информация

Язык
Python
Лицензия
MIT License
GitHub Stars
37

Ссылки