Fast LLM & Agents & MCPs
Репозиторий с теорией и примерами кода для LLM, агентов, инструментов и протоколов — от архитектуры до мультиагентных workflow.
Описание
Это всесторонний ресурс по большим языковым моделям (LLM), включая архитектуры, RAG, fine-tuning, prompt engineering. Фокус на агентах с фреймворками Google ADK, AWS Strands, CrewAI, PraisonAI. Приводятся практические примеры: одиночные и мультиагенты, инструменты (MCP, поиск), проекты вроде детектора AI-контента на AWS Bedrock. Технологии: Python, Streamlit, FastAPI, Ollama, LiteLLM. Применения: автоматизация задач, чатботы, поисковые системы, продуктивность в AI-разработке.
Возможности
Теоретические материалы
Обзоры LLM-архитектур, RAG, fine-tuning, prompt engineering и протоколов MCP/A2A.
Примеры агентов с Google ADK
Сэмплы от простого агента до мультиагентных workflow (sequential, parallel, loop, hierarchy) с Streamlit GUI.
Интеграция инструментов
Локальные/удаленные MCP-инструменты, поиск (Serper, Google), память агентов и LiteLLM для моделей вроде Llama.
Проекты на практике
AI-детектор контента на AWS Bedrock, MCP-агент с PraisonAI и Ollama для автоматизации задач.
Фреймворки и библиотеки
Поддержка LangChain, CrewAI, PraisonAI для создания автономных агентов и workflow.