Context Optimizer
Оптимизирует контекст для AI-кодинговых ассистентов, извлекая целевую информацию из файлов, терминалов и веб-исследований.
Описание
Это MCP-сервер на Node.js для AI-ассистентов вроде GitHub Copilot и Cursor AI. Решает проблему переполнения контекста от больших логов, файлов и разговоров, предоставляя инструменты для точного извлечения данных с помощью LLM (Gemini, Claude, OpenAI) и Exa.ai. Ключевые особенности: анализ файлов, выполнение команд с экстракцией, follow-up вопросы, веб-исследования. Применения: улучшение продуктивности в кодинге, избежание потери контекста, фокус на решении задач без обработки ненужных данных.
Возможности
Анализ файлов (askAboutFile)
Извлекает конкретную информацию из файлов без загрузки всего содержимого, идеально для проверки функций или импортов.
Выполнение команд (runAndExtract)
Запускает терминал-команды и извлекает релевантные данные с помощью LLM, с валидацией и таймаутами.
Follow-up вопросы (askFollowUp)
Продолжает диалог о предыдущих выполнениях команд без повторного запуска, сохраняя полный контекст.
Исследования (researchTopic, deepResearch)
Проводит веб-исследования по темам разработки с Exa.ai для получения актуальных практик и анализа.
Безопасность и конфигурация
Валидация путей, фильтрация команд, поддержка нескольких LLM и управление через переменные окружения.
Установка
- Установите глобально: npm install -g context-optimizer-mcp-server
- Установите переменные окружения (см. docs/guides/usage.md для инструкций по ОС): export CONTEXT_OPT_LLM_PROVIDER=“gemini” export CONTEXT_OPT_GEMINI_KEY=“your-gemini-api-key” export CONTEXT_OPT_EXA_KEY=“your-exa-api-key” export CONTEXT_OPT_ALLOWED_PATHS="/path/to/your/projects"
- Добавьте в конфигурацию MCP-клиента (например, claude_desktop_config.json или mcp.json): { “context-optimizer”: { “command”: “context-optimizer-mcp” } } Для полной настройки см. docs/guides/usage.md.