Skip to content
imarch.dev
Назад в блог
· 11 мин чтения

Model Context Protocol: 10 MCP-серверов для разработчика

AI MCP tools архитектура

У меня давно была проблема, которую ни один AI-ассистент не решал: я хочу попросить модель создать PR на GitHub, обновить задачу в Notion, проверить логи в Docker - и чтобы она это реально сделала, а не сгенерировала текст с инструкцией “теперь откройте терминал и выполните следующую команду”. Разница между ответом “вот как создать PR” и фактическим созданием PR - это разница между справочником и инструментом.

Вопрос, который я задал себе несколько месяцев назад: можно ли сделать так, чтобы AI-ассистент действовал в моей инфраструктуре через стандартный протокол, а не через десяток самописных интеграций, каждая из которых ломается при обновлении? Потому что отдельная интеграция на каждый инструмент - это тот путь, по которому индустрия уже ходила с webhook-адом и SOA/ESB-спагетти. Не хочется повторять.

Ответ, как выяснилось, уже существовал. Anthropic запустил Model Context Protocol в ноябре 2024-го. За год экосистема вокруг него выросла от десятка reference implementations до сотен серверов. Я потратил время на то, чтобы разобраться, что из этого реально работает в повседневной разработке, а что красиво выглядит только в README.

MCP-серверы для разработчиков

Архитектура MCP: почему протокол, а не SDK

MCP (Model Context Protocol) - это стандартизированный способ позволить AI-моделям взаимодействовать с инструментами, API и данными в реальном времени. Архитектура клиент-сервер: хост (Cursor, Claude Code, Claude Desktop) запускает MCP-клиент, который подключается к MCP-серверам. Каждый сервер предоставляет набор возможностей - инструменты, ресурсы, промпты.

Архитектура MCP
Хост
Cursor / Claude Code / Claude Desktop
MCP-клиент
stdio / HTTP+SSE
GitHub MCP Server
Docker MCP Server
Notion MCP Server

Ключевое архитектурное решение - это именно протокол, а не SDK или библиотека. Различие принципиальное. SDK привязывает к языку и среде выполнения. Библиотека требует компиляции вместе с приложением. Протокол позволяет серверу быть написанным на чем угодно, работать где угодно (локально, в Docker, удаленно через HTTP) и подключаться к любому хосту, который поддерживает MCP.

Это значит, что один и тот же GitHub MCP Server работает и в Cursor, и в Claude Code, и в любом пользовательском агенте. Не нужно писать отдельную интеграцию для каждого хоста. Такая же логика, по которой HTTP стал универсальным - не потому что он лучший протокол для каждой задачи, а потому что достаточно хорош для большинства и все его поддерживают.

Транспорт работает двумя способами: stdio (локальный процесс, быстро, без сети) и HTTP с SSE (удаленный сервер, работает через интернет). Для локальных инструментов типа Docker или Git - stdio. Для SaaS-интеграций типа GitHub или Notion - HTTP. Выбор транспорта не влияет на API сервера, что упрощает переход между режимами.

Подключение в Cursor: Settings -> Tools and Integrations -> New MCP Server -> вставить конфиг в mcp.json. Дальше разберу конкретные серверы.

10 MCP-серверов: обзор
GitHub - PR, issues, код
Context7 - актуальная документация
BrightData - веб-парсинг
GibsonAI - базы данных
Notion - документация, задачи
Docker Hub - контейнеры
Browserbase - автоматизация браузера
Figma - дизайн в код
Reddit - исследование продукта

GitHub MCP Server

Первый, с которого я начал, и который использую каждый день. GitHub выпустил официальную MCP-реализацию, которая дает AI прямой доступ к репозиториям, issues, pull requests, commit history и Actions.

{
  "mcpServers": {
    "github": {
      "url": "https://api.githubcopilot.com/mcp/",
      "headers": {
        "Authorization": "Bearer YOUR_GITHUB_PAT"
      }
    }
  }
}

На практике это означает, что я могу сказать “создай PR с этими изменениями, добавь reviewer @username и линкани к issue #42” - и это произойдет. Без переключения на GitHub UI, без копирования ссылок, без потери контекста. Когда работаешь одновременно с тремя репозиториями, это экономит ощутимое количество переключений.

Я использую его ежедневно для трех вещей: создание PR из IDE, просмотр commit history чужого кода (быстрее, чем git log + git show), и работа с issues. Последнее особенно полезно - можно попросить AI прочитать все open issues с определенным label и суммаризировать их. На крупном проекте с 50+ открытыми issues это экономит 20-30 минут ручного чтения.

Context7 MCP Server

Это, пожалуй, самый недооцененный сервер из списка - и при этом тот, который решает фундаментальную проблему. AI-ассистент генерирует код с устаревшими API, deprecated методами, или просто галлюцинирует несуществующие функции. Это происходит потому, что training data модели заморожен - она не знает, что Next.js 15 изменил API middleware, или что в React 19 useEffect работает иначе.

Context7 решает это: сервер вытаскивает актуальную документацию для конкретной версии прямо из источника и подает ее модели как контекст перед генерацией кода.

{
  "mcpServers": {
    "context7": {
      "url": "https://mcp.context7.com/mcp"
    }
  }
}

Достаточно добавить “use context7” в промпт. Я использую его особенно активно при работе с непопулярными фреймворками и свежими мажорными версиями, где у базовой модели мало или устаревшие обучающие данные. Разница заметна - вместо кода, который выглядит правильно, но использует API двухлетней давности, получаешь код, который компилируется с первой попытки.

BrightData MCP Server

Все, кто работал с парсингом, знают боль: антибот-системы, динамический контент, ротация прокси, соблюдение правил. Я сам потратил недели на обход этих проблем при сборе контента для imarch.dev. BrightData MCP Server берет инфраструктуру скрейпинга на себя и дает AI прямой доступ к живому вебу.

{
  "mcpServers": {
    "Bright Data": {
      "command": "npx",
      "args": [
        "mcp-remote",
        "https://mcp.brightdata.com/mcp?token=YOUR_API_TOKEN_HERE"
      ]
    }
  }
}

Практически это означает, что AI может получить актуальные данные с любого сайта в реальном времени - цены, статистику, содержание страниц. Ротация прокси, обход Cloudflare, рендеринг JavaScript - все это решено на уровне инфраструктуры BrightData. Для задач competitive analysis, мониторинга цен или сбора данных для research - полезный инструмент, если вас устраивает ценообразование.

GibsonAI MCP Server

Позиционируется как MCP-сервер для полного цикла работы с бессерверными SQL базами данных: проектирование схемы, развертывание, управление, масштабирование - прямо из IDE. Ключевое отличие от обычных SQL-ассистентов: AI получает полный реальный контекст - схему, точки доступа API, окружение - и генерирует не универсальный код, а рабочий код под конкретную базу.

{
  "mcpServers": {
    "gibson": {
      "command": "uvx",
      "args": ["--from", "gibson-cli@latest", "gibson", "mcp", "run"]
    }
  }
}

Для прототипирования и хакатонов это может быть полезно - база данных создается и развертывается одной фразой. Для рабочей системы я бы пока не стал полагаться на это, потому что управление миграциями и эволюция схемы в автоматическом режиме - это рецепт для боли на длинной дистанции. Но как инструмент для быстрого старта - заслуживает внимания.

Notion MCP Server

Официальный сервер от Notion. Полный CRUD для страниц, баз данных и рабочего пространства. Если Notion - ваша основная система для документации и ведения задач, интеграция с AI через MCP убирает переключение контекста полностью.

{
  "mcpServers": {
    "notionApi": {
      "command": "npx",
      "args": ["-y", "@notionhq/notion-mcp-server"],
      "env": {
        "NOTION_TOKEN": "ntn_****"
      }
    }
  }
}

Для настройки нужно создать Notion Integration, выдать ей права Read/Write/Update/Insert на нужные страницы и скопировать Internal Integration Secret. После этого AI может создавать страницы, обновлять базы данных, искать по workspace. Я использую это для автоматического логирования - после каждой крупной задачи прошу AI записать summary в рабочий Notion.

Docker Hub MCP Server

Docker выпустил собственную реализацию MCP-сервера для управления контейнерами, образами и оркестрацией. AI может диагностировать проблемы, оптимизировать ресурсы и управлять развертываниями.

{
  "mcpServers": {
    "dockerhub": {
      "command": "docker",
      "args": [
        "run", "-i", "--rm", "-e", "HUB_PAT_TOKEN",
        "mcp/dockerhub@sha256:b3a124cc092a2eb24b3cad69d9ea0f157581762d993d599533b1802740b2c262",
        "--transport=stdio",
        "--username={{dockerhub.username}}"
      ],
      "env": {
        "HUB_PAT_TOKEN": "your_hub_pat_token"
      }
    }
  }
}

Главный плюс - не нужно помнить синтаксис docker-команд. Описываешь задачу на естественном языке, AI разбирается с командами сам. Особенно полезно для разработчиков, которые используют Docker регулярно, но не являются DevOps-специалистами и каждый раз гуглят разницу между docker exec -it и docker run --rm.

Browserbase MCP Server

Browserbase дает AI возможность управлять полноценным браузером: навигация по сайтам, заполнение форм, клики, взаимодействие с динамическим контентом. В отличие от BrightData, который работает как прокси для HTTP-запросов, Browserbase управляет реальной сессией браузера - со всеми cookies, JavaScript и DOM.

Это принципиально для задач, которые требуют взаимодействия с UI: автоматизация сквозного тестирования, мониторинг web-приложений, заполнение форм, работа с SPA. Я использовал автоматизацию браузера при сборе контента из Medium - подписка, динамическая загрузка, бесконечный скролл. Без полноценного браузера эти задачи не решаются.

Ограничение - задержка. Каждое действие в браузере занимает секунды, а не миллисекунды как API-вызов. Для массовых операций это может быть медленно. Но для точечных задач, где альтернатива - делать руками, Browserbase работает хорошо.

Figma MCP Server

Процесс “от дизайна к коду” всегда был болью. Дизайнер передает макет, разработчик интерпретирует его вручную, теряет детали, переспрашивает. Figma MCP Server позволяет AI напрямую работать с Figma API: доступ к дизайн-файлам, извлечение компонентов, анализ компоновки.

{
  "mcpServers": {
    "Framelink Figma MCP": {
      "command": "npx",
      "args": ["-y", "figma-developer-mcp", "--figma-api-key=YOUR-KEY", "--stdio"]
    }
  }
}

Основной сценарий использования - конвертация Figma-дизайнов в код без ручной интерпретации. AI видит реальную структуру компонентов, их свойства, отступы, типографику - и генерирует код, который ближе к макету, чем то, что напишет разработчик по скриншоту. Плюс автоматизация: извлечение компонентов, генерация руководства по стилю, создание дизайн-токенов. Для команд, которые работают в Figma активно, это убирает целый класс ошибок при передаче дизайна в разработку.

Reddit MCP Server

Менее очевидный, но полезный инструмент для product research. Реализация использует PRAW (Python Reddit API Wrapper) и дает AI возможность получать и анализировать контент Reddit: пользовательские инсайты, статистику subreddit, трендовые дискуссии.

Практический сценарий - исследование проблем реальных пользователей перед проектированием функциональности. Вместо того чтобы вручную копаться в тредах на r/programming или r/devops, просишь AI проанализировать релевантные subreddits и вытащить паттерны жалоб, запросов и болей. Для тех, кто строит developer tools - это прямой канал к голосу пользователя без необходимости проводить формальные интервью.

Что это меняет архитектурно

Я возвращаюсь к своему исходному вопросу - можно ли сделать так, чтобы AI реально действовал в инфраструктуре, а не просто отвечал на вопросы. MCP дает утвердительный ответ. И что важнее - через стандартный протокол, а не через разрозненные самописные интеграции.

Почему протокол меняет архитектуру
Было: написать и поддерживать отдельный коннектор на каждый инструмент
Стало: подключить MCP-сервер (единый протокол, любой хост)
Один агент, много серверов:
Прочитал issue в GitHub Проверил код Обновил Notion Создал PR

Это архитектурно значимо по нескольким причинам. Во-первых, стоимость интеграции нового инструмента падает с “написать и поддерживать самописный коннектор” до “подключить MCP-сервер”. Во-вторых, появляется возможность строить сложные агентные цепочки, где один агент оркестрирует несколько MCP-серверов одновременно. В-третьих, для тех, кто строит инструменты разработчика, MCP становится обязательным каналом доставки - если у твоего инструмента нет MCP-сервера, AI-ассистенты не могут с ним работать напрямую.

Слабое место на текущий момент - безопасность. MCP-серверы получают токены и учетные данные через переменные окружения, но стандартного механизма для ограниченных прав, журналирования и ротации ключей пока нет. Когда AI-агент имеет доступ к GitHub PAT, Docker Hub token и Notion API key одновременно - это широкая поверхность атаки. Для рабочего использования это нужно решать на уровне инфраструктуры (vault, краткоживущие токены, сегментация сети), а не надеяться что протокол это сделает за тебя.

Как я вижу развитие:

  1. MCP-серверы станут стандартным способом публиковать developer tools для AI - так же, как REST API стал стандартом для web-интеграций.
  2. Появятся каталоги MCP-серверов с рейтингами, аудитом безопасности и версионированием. Сейчас поиск серверов - это GitHub, что не масштабируется.
  3. Корпоративные команды начнут строить внутренние MCP-серверы для своих систем - CRM, ERP, внутренние API. Это дешевле, чем обучать модель на внутренних данных.
  4. Безопасность и управление доступом на уровне MCP станут отдельной дисциплиной. Без этого внедрение в крупных компаниях будет медленным.

Прямо сейчас экосистема движется быстро, крупные игроки (GitHub, Docker, Notion, Figma) выпускают официальные серверы. Игнорировать MCP как архитектор AI-решений уже не получается. Начните с GitHub MCP и Context7 - они окупаются в первый же рабочий день.


Читайте также

Поделиться:

Похожие статьи