Выберите продукт

Cilium vs Calico vs kube-router: Kubernetes CNI comparison (2026)

Выбор CNI в 2026 влияет на задержки, безопасность и удобство эксплуатации Kubernetes. Разбираем Cilium, Calico и kube-router: eBPF и kube-proxy replacement, NetworkPolicy, наблюдаемость (Hubble), WireGuard/IPsec и типовые сценарии выбора.
Cilium vs Calico vs kube-router: Kubernetes CNI comparison (2026)

В 2026 году выбор CNI (Container Network Interface) для Kubernetes — это уже не «какой плагин раздаёт IP». CNI определяет, как будет работать сервисная маршрутизация, как быстро применяются NetworkPolicy, какие у вас есть инструменты наблюдаемости, и насколько предсказуемо всё это обновляется и дебажится.

Ниже — практическое сравнение трёх популярных вариантов: Cilium, Calico и kube-router. Я буду смотреть на вещи глазами админа/DevOps: дата-плейн (iptables/IPVS vs eBPF), замена kube-proxy, поддержка политик, задержки и масштабирование, observability и шифрование east-west.

Как читать сравнение: что реально важно в 2026

Перед выбором «лучшего CNI» полезно зафиксировать критерии, которые чаще всего ломают прод при росте кластера или при ужесточении безопасности.

1) Дата-плейн: iptables/IPVS или eBPF

Calico и kube-router в типовых режимах опираются на классический стек Linux networking (маршрутизация и правила через iptables/IPVS). Cilium делает ставку на eBPF: пакеты обрабатываются на другом «слое», меняются подходы к балансировке, политике и диагностике.

eBPF в 2026 уже зрелый, но требует дисциплины: версии ядра, параметры, апгрейды. Если у вас «зоопарк» дистрибутивов/ядер между нодами, это станет фактором.

2) Service load-balancing: нужен ли kube-proxy

Стандартно сервисы Kubernetes реализуются через kube-proxy, который программирует iptables или IPVS. На небольших кластерах это часто нормально. На больших — можно столкнуться с ростом количества правил, временем их перепрограммирования и сложностью диагностики (особенно когда много сервисов, endpoint’ов и churn).

Отсюда вопрос: нужен ли вам kube-proxy replacement как проектное решение, или лучше оставить «классику» и решать проблемы точечно.

3) Политики безопасности: NetworkPolicy и «качество поддержки»

Поддержка Kubernetes NetworkPolicy на бумаге есть у многих. В эксплуатации важнее другое:

  • скорость применения правил (convergence) при изменениях;
  • насколько удобно понять «почему пакет не прошёл»;
  • сценарии egress, DNS, FQDN-политики и практичность дебага.

4) Наблюдаемость и дебаг сетевых проблем

Чем больше микросервисов, тем дороже становится «слепая» сеть. В 2026 observability — это не роскошь, а способ сокращать MTTR. Для Cilium ключевой элемент — Hubble. Для Calico/kube-router чаще строят наблюдаемость из метрик, логов и внешних инструментов.

5) Шифрование трафика: WireGuard и IPsec

Если вам нужно шифровать east-west (между нодами/подами), CNI становится одним из основных рычагов. И тут важны не лозунги, а эксплуатация:

  • что поддерживается нативно и насколько это легко катать в прод;
  • предсказуемость нагрузки на CPU;
  • влияние на MTU/фрагментацию и удобство диагностики.

Коротко о каждом: кто они и где применяются

Cilium

Cilium — eBPF-ориентированный CNI, который часто рассматривают как «платформу дата-плейна»: сеть, политики и observability идут в одном наборе. Практически это означает меньше iptables-магии, возможность (при желании) отказаться от kube-proxy и сильный упор на наблюдаемость потоков.

Обычно Cilium выбирают, когда важны видимость трафика, зрелая диагностика и есть интерес к eBPF-подходу и/или замене kube-proxy.

Calico

Calico — один из самых распространённых вариантов в проде. Его часто ценят за предсказуемость и понятное поведение на классическом Linux networking. Важно и то, что у многих команд уже есть опыт эксплуатации Calico, а значит ниже риски внедрения.

Calico обычно выбирают, когда нужна стабильная база для NetworkPolicy и маршрутизации без радикального изменения модели (и требований) дата-плейна.

kube-router

kube-router — «компактный» вариант, совмещающий функции, которые часто разнесены по нескольким компонентам (включая реализацию сервисов в своей модели). Его выбирают, когда хотят минимализм, меньше движущихся частей и контролируемую простую топологию — чаще в небольших кластерах или специализированных установках.

kube-router хорошо заходит там, где важна простота и вы заранее принимаете более скромную экосистему по tooling и интеграциям.

FastFox VDS
Облачный VDS-сервер в России
Аренда виртуальных серверов с моментальным развертыванием инфраструктуры от 195₽ / мес

Если вы строите кластер на собственных нодах, заранее оцените требования к ядру, MTU и сетевым режимам: на VDS эти параметры обычно полностью под вашим контролем, и это сильно упрощает стандартизацию дата-плейна (особенно для eBPF и шифрования).

Схема потоков трафика в кластере Kubernetes: сервисы, поды и точки применения политик

Сравнение Cilium, Calico и kube-router по ключевым критериям

Ниже — эксплуатационная выжимка без маркетинга. Конкретика зависит от версий и режимов, но общий смысл для 2026 такой.

  • Дата-плейн: Cilium — eBPF; Calico — классический Linux networking с iptables/IPVS (в зависимости от режима); kube-router — маршрутизация + iptables/IPVS.
  • Замена kube-proxy: Cilium — распространённый сценарий; Calico — чаще оставляют kube-proxy; kube-router — реализует сервисную модель в своём подходе (часто без отдельного «replacement» как у Cilium, но с похожей целью уменьшить зависимость от kube-proxy).
  • NetworkPolicy: Cilium — сильная связка политики + диагностика потоков; Calico — зрелая и привычная реализация; kube-router — базовые сценарии, но меньше возможностей и tooling.
  • Производительность/задержки: Cilium часто выигрывает на масштабных кластерах и сложных политиках; Calico обычно даёт стабильное, понятное поведение; kube-router может быть эффективен в простых топологиях, но функциональный «потолок» ниже.
  • Observability: Cilium (Hubble) даёт преимущество «из коробки»; Calico/kube-router чаще требуют внешней обвязки и ручной диагностики.
  • Шифрование east-west: Calico часто выбирают за практичную эксплуатацию WireGuard; Cilium тоже умеет шифрование (варианты зависят от режима); kube-router обычно закрывают шифрование другими слоями.
  • Сложность эксплуатации: Cilium — выше (режимы, ядро, eBPF-пайплайн); Calico — средняя и привычная; kube-router — меньше компонентов, но можно раньше упереться в ограничения/особенности.

eBPF на практике: что даёт Cilium и где «цена входа»

Практические плюсы eBPF-подхода в Cilium обычно проявляются не в «пиковом throughput», а в управляемости и дебаге:

  • меньше зависимости от огромных наборов iptables-правил;
  • лучше наблюдаемость потоков и причин дропа;
  • гибкость в сервисной балансировке и политике, вплоть до сценария без kube-proxy.

Но и плата понятная:

  • версии ядра и совместимость: вам нужен стандарт на уровне образов нод и регулярные обновления без сюрпризов;
  • много режимов: важно не получить разные профили включений по кластерам без документации и контроля дрейфа;
  • дебаг меняется: вместо «посмотрел iptables» вы чаще будете работать через инструменты Cilium/Hubble и eBPF-диагностику.

Если вы хотите глубже разобраться в диагностике eBPF-инструментами, держите в закладках материал про eBPF-диагностику bcc/bpftrace: это сильно помогает, когда проблема уходит на уровень ядра и потоков.

kube-proxy replacement: когда это действительно нужно

Замену kube-proxy обычно рассматривают в двух ситуациях:

  • кластер растёт, и iptables/IPVS начинают мешать: долгое перепрограммирование, сложная диагностика, деградация при большом churn;
  • вам нужна более прозрачная наблюдаемость «сервис → поды» и понятный ответ, где именно ломается поток.

В случае Cilium kube-proxy replacement — рабочий и распространённый путь. Но это не «галочка», а изменение сетевого слоя: заложите пилот, тесты отказов и проверку совместимости с ingress/gateway.

Из практики пилота полезно отдельно замерять:

  • время сходимости при массовых изменениях endpoints;
  • поведение при rolling upgrade нод;
  • влияние на p95/p99 задержек сервисного трафика.

Если в вашем кластере активно используется IPVS или вы планируете L4-сценарии, пригодится отдельная шпаргалка по IPVS и L4-балансировке — чтобы сравнивать с eBPF-подходом на одинаковых терминах.

NetworkPolicy: где чаще всего болит внедрение

Редкая команда начинает с идеальной модели политик. Чаще всё начинается с «default deny» в отдельных namespace и постепенного открытия нужных направлений. Поэтому в проде важны скорость итераций и качество диагностики.

Cilium

Сильная сторона — связка политика + наблюдаемость. Когда трафик режется, важно быстро понять, это DNS, egress, межнеймспейсовый доступ или конкретный L4-порт. За счёт Hubble и eBPF-телеметрии разбор обычно быстрее.

Calico

Calico хорош, когда нужны воспроизводимые правила и «классическое» поведение на уровне Linux networking. Командам, которые уже уверенно живут с iptables/IPVS/conntrack, часто проще эксплуатировать и дебажить именно такой профиль.

kube-router

Базовые сценарии политик закрываются, но при росте требований к сегментации и удобству расследований вы можете раньше упереться в ограничения и нехватку инструментов.

Производительность и задержки: что сравнивать правильно

Запрос «у кого быстрее» часто приводит к неправильным бенчмаркам. Для CNI важнее:

  • стабильность задержек (p95/p99) под нагрузкой;
  • время применения политик и восстановления связности после изменений;
  • поведение при большом количестве сервисов и endpoints;
  • накладные расходы на observability и шифрование.

Если кластер небольшой и политики простые, разница между Calico и Cilium может быть вторичной. Если вы растёте по количеству сервисов/политик и требованию «видеть сеть», eBPF-подход обычно начинает выигрывать именно по управляемости и предсказуемости.

Observability: почему Hubble часто меняет эксплуатацию

Козырь Cilium — Hubble: потоковая видимость сетевых событий и причин отказов. В проде это обычно превращается в:

  • быстрее RCA (какая политика сработала, где дроп, кто и куда ходит);
  • контроль изменений (после деплоя или правки NetworkPolicy видите ошибки и блокировки на уровне потоков).

В Calico и kube-router наблюдаемость чаще собирают «снизу вверх»: метрики нод/подов, логи компонентов, трассировка приложения, плюс tcpdump/conntrack по необходимости. Это работает, но обычно увеличивает стоимость времени на расследования.

Шифрование east-west: WireGuard и IPsec как операционная задача

Шифрование — это не «включил и забыл». В эксплуатации важно, как вы доказываете, что оно действительно работает, и что будет при обновлениях, проблемах с MTU и нагрузке.

  • как устроена ротация ключей и где это мониторить;
  • как диагностировать проблемы MTU/фрагментации;
  • какой будет overhead CPU на вашем профиле трафика;
  • как быстро вы найдёте «почему часть подов шифруется, а часть нет» (если такое возможно в вашей схеме).

Если нужен относительно простой operational-профиль шифрования east-west, Calico часто рассматривают из-за практичного опыта с WireGuard. Cilium тоже закрывает шифрование, но встраивается в более богатую модель дата-плейна, и это может быть плюсом (единая платформа), либо усложнением (больше режимов и точек контроля).

FastFox SSL
Надежные SSL-сертификаты
Мы предлагаем широкий спектр SSL-сертификатов от GlobalSign по самым низким ценам. Поможем с покупкой и установкой SSL бесплатно!

Если вы публикуете сервисы вовне, не путайте шифрование east-west и TLS на входе. Для внешних endpoints обычно нужен нормальный TLS-контур, и проще всего закрывать это через проверенные SSL-сертификаты и понятный процесс ротации.

Рабочее место инженера: логи сетевых потоков и график задержек для сервисов Kubernetes

Operational complexity: где вас будут ждать сюрпризы

Честное сравнение по сложности эксплуатации — это список вопросов, которые всплывают после внедрения, а не в день установки.

Стандартизация режимов и конфигурации

У Cilium реально больше вариантов: режимы балансировки, включение/выключение kube-proxy replacement, настройки наблюдаемости, шифрование. Без внутреннего стандарта легко получить разные «профили кластера» и разный опыт расследования инцидентов.

Компетенции команды по сетевому дебагу

Если команда уверенно работает с iptables/IPVS, маршрутизацией и conntrack, то Calico и kube-router будут ближе к привычному миру. В Cilium инструментарий и мышление смещаются к eBPF: это даёт мощную видимость, но требует обучения и дисциплины по версиям ядра.

Обновления и откаты

Сетевой слой должен обновляться так же регулярно, как Kubernetes. Заранее проверьте:

  • совместимость с вашим ядром/дистрибутивом;
  • поведение при rolling upgrade нод;
  • наличие понятного плана отката (и отработку этого плана на тестовом контуре).

Рекомендации по выбору: 6 типовых сценариев

1) Нужны топовая observability и контроль потоков

Чаще всего это путь к Cilium (особенно если вы хотите Hubble и более «прозрачный» RCA сетевых проблем).

2) Нужна зрелая «классическая» сеть и привычная NetworkPolicy

Обычно выигрывает Calico: предсказуемо, широко распространено, проще найти опыт и понятные практики эксплуатации.

3) Малый кластер, минимум компонентов, простая маршрутизация

kube-router может быть разумным выбором, если вы осознанно выбираете минимализм и готовы к более скромной экосистеме инструментов.

4) Большой кластер, много сервисов, kube-proxy становится узким местом

Сильный аргумент в пользу Cilium и kube-proxy replacement, но с обязательным пилотом и тестированием отказов.

5) Жёсткие требования к сегментации и egress-контролю

И Cilium, и Calico подойдут. Выбор обычно упирается в приоритет: максимальная видимость и eBPF-пайплайн (Cilium) или классическая зрелость и привычный operational-профиль (Calico).

6) Шифрование east-west обязательно

Смотрите не только на «умеет», а на то, как вы это будете мониторить и дебажить: CPU, MTU, ротации ключей, аварии при обновлениях. На практике чаще сравнивают Cilium и Calico; kube-router реже закрывает эту задачу «из коробки».

Как выбрать безопасно: мини-чеклист пилота

Если есть возможность, делайте пилот. Он почти всегда окупается.

  1. Функционал: Ingress/Gateway, сервисы, Stateful-нагрузки, DNS, egress.
  2. NetworkPolicy: default deny, разрешение DNS, доступ к базам/кешам, запрет межнеймспейсовых соединений.
  3. Инцидент-симуляции: ротация ноды, пропадание интерфейса, packet loss, перегруз conntrack (если актуально).
  4. Наблюдаемость: сколько времени занимает ответить на вопрос «почему под A не ходит в сервис B».
  5. Шифрование (если нужно): overhead CPU, влияние на MTU, диагностируемость.
  6. Операционные процессы: обновление, откат, стандартизация конфигов, обучение команды.

Итог: «лучший CNI» зависит от зрелости и целей

В сравнении Cilium/Calico/kube-router нет победителя «в вакууме»:

  • Cilium — когда вам нужен современный eBPF-дата-плейн, сильная observability и вы готовы управлять режимами (включая kube-proxy replacement) и требованиями к ядру.
  • Calico — когда важны зрелость, предсказуемость, привычный operational-профиль и понятная реализация NetworkPolicy без резких изменений модели сети.
  • kube-router — когда вы осознанно ставите на простоту и компактность, а требования к расширенной наблюдаемости и сложным policy-сценариям умеренные.

Главный совет на 2026: выбирайте не только «по фичам», а по тому, как вы будете жить с этим дата-плейном 2–3 года — обновляться, дебажить и держать предсказуемые задержки под нагрузкой.

Поделиться статьей

Вам будет интересно

Caddy vs Nginx Unit vs Apache mod_php в 2026 году: что выбрать для PHP-сайта OpenAI Статья написана AI (GPT 5)

Caddy vs Nginx Unit vs Apache mod_php в 2026 году: что выбрать для PHP-сайта

Для небольшого PHP-сайта в 2026 году выбор уже не сводится к схеме Nginx и PHP-FPM. Разбираю Caddy, Nginx Unit и Apache mod_php с ...
Dovecot vs Courier vs Stalwart Mail Server в 2026: что выбрать для self-hosted почты на VDS OpenAI Статья написана AI (GPT 5)

Dovecot vs Courier vs Stalwart Mail Server в 2026: что выбрать для self-hosted почты на VDS

Если вы поднимаете собственную почту на VDS, выбор между Dovecot, Courier и Stalwart влияет не только на IMAP-доступ, но и на сопр ...
Podman vs Docker Compose vs systemd units в 2026: что выбрать для self-hosted на одном сервере OpenAI Статья написана AI (GPT 5)

Podman vs Docker Compose vs systemd units в 2026: что выбрать для self-hosted на одном сервере

Для self-hosted-проектов на одном сервере выбор между Podman, Docker Compose и systemd units влияет не только на запуск, но и на о ...