Когда 1 Гбит/с становится узким местом, каждый бэкап, миграция ВМ, медиарендер и аналитика упираются во «время». Десятикратный рост пропускной меняет экономику и привычку планировать работы. Вместо ночных окон «на авось» 10 GbE позволяет сжимать окна, повышать конкурентность и выполнять SLA с запасом. Этот гид даёт рамку решений: **где** 10 GbE окупается, **как** мигрировать волнами с низким риском и **что** покупать, чтобы не зайти в тупик. Мы исходим из реальности «броунфилда»: смешанные 1G/10G, разный кабель и узкие окна изменений — покажем, как сосуществовать в переходный период.
Признаки готовности: бэкап‑окна лезут в рабочие часы, частые «повторить позже» в задачах хранения, vMotion душится, предупреждения о переподписке на ToR‑коммутаторах, заявки о потерях пакетов в часы сборок или ingest.
Где 10 Gbps даёт окупаемость
10 GbE нужен не везде. Ищите потоки, где минуты критичны и высокая конкурентность. Думайте в метриках **часов, сэкономленных в неделю**, и **избежанных рисков**.
- Бэкапы и DR: сокращаем окна и повышаем частоту. Переход с 1 Гбит/с (~125 МБ/с сыро) на 10 Гбит/с (~1,25 ГБ/с сыро) сжимает копирование 5 ТБ с ~11,5 часов до около часа в идеале. С учётом накладных и приложений устойчивые 1,1–1,2 ГБ/с всё равно радикально режут окна, улучшая RPO и снижая шанс пропущенных бэкапов.
- Общее хранилище и БД: iSCSI/NFS/SMB на 10 GbE уменьшает очереди, снижает p95‑латентность и ускоряет сближение реплик. Меньше стопов транзакций, быстрее готовность к отказоустойчивости.
- Виртуализация и VDI: быстрее vMotion/live‑миграции, выше плотность хостов, мягче окна обслуживания. В VDI логон‑шторма проходят быстрее благодаря запасу под массовые копирования профилей/слоёв.
- Медиа‑пайплайны: 4K/8K монтаж, рендер и ingest в общее хранилище выигрывают от jumbo MTU и неблокирующих фабрик; флешки уходят в прошлое, команды правят одни и те же таймлайны.
- Аналитика/ML: ETL‑перестановки и доставка моделей перестают упираться в сеть — лицензированные ядра/GPU меньше простаивают.
Быстрый расчёт: (Часы в неделю × ставка) + (штрафы SLA, которых вы избежали) + (проектов/месяц, которые теперь умещаются). Если сумма ≥ ежемесячной амортизации 10G‑апгрейда — кейс готов.
Архитектуры сети, которые масштабируются
Два типовых подхода.
- Трёхуровневая (core‑distribution‑access): проще встраивать; добавляйте 10G на дистрибуции/доступе для «горячих» сегментов, остальное оставляйте на 1G. Следите за коэффициентами переподписки (напр., 4:1 на доступе, 2:1 на дистрибуции) и пределами бэкплейна, чтобы бёрсты не роняли очереди.
- Spine‑leaf: современным ДЦ даёт предсказуемую восток‑запад пропускную. Лифы — 10G (или 25G) к серверам, спайны — 40/100G. Начните с 2× спайнов и N× лифов, масштабируйтесь парами.
Проектируйте неблокирующие пути там, где это критично (хранилище, гипервизоры, сборка/рендер), и допускайте переподписку на «холодных» уровнях. Отдельные VLAN и классы QoS для хранилища/управления снизят head‑of‑line blocking.
Закупка и выбор железа
- NIC: SFP+ энергоэффективен и гибок (оптика, DAC, AOC). 10GBASE‑T (RJ‑45) reuse меди, но потребляет больше и чуть добавляет задержку. Двухпортовые карты — резерв и суммарная полоса с LACP.
- PCIe: нужен честный Gen3/Gen4 с достаточными линиями (x4 минимум, лучше x8), без конкуренции с тяжёлыми NVMe; смотрите схемы платы, а не листинги.
- Коммутаторы: плотность 10G‑портов, глубокие буферы, бэкплейн выше агрегата. Неблокирующая фабрика, QoS/CoS, PFC (для RoCE), ECN. Дублируйте БП и вентиляторы.
- Кабели: DAC для стойки (≤3 м), AOC или SR для ряда (≤30–100 м), LR для кампуса/метро. Унифицируйте поставщика оптики, метите кабели и оставляйте запас.
- Хранилище: если не кормит трубу — лайн‑рейт недостижим. NVMe с достаточными очередями; проверьте RAID/write‑back, защиту кэша и опции монтирования ФС.
Чек‑лист выбора: энергобюджет, поддержка драйверов (inbox vs DKMS), SR‑IOV, политика по firmware, сроки поставки оптики.
Совместимость и сосуществование с 1G
Чаще всего гибрид длится месяцами. Держите двойной контур (1G управление + 10G данные), пока проверяете MTU и доступность VLAN. Гейтите переключения тестами сквозного пути: **ping с DF‑битом**, traceroute и iperf3 с параллельными потоками. Заранее пропишите откаты: разбор порт‑чаннелов, возврат MTU, пиннинг прошлой версии драйвера. Коммуницируйте окна и ожидаемое поведение (например, субсекундные LACP‑переговоры) заинтересованным сторонам.
Поэтапная миграция без простоя
Разворачивайте 10 GbE там, где выгода максимальна, затем расширяйтесь.
- Волна 1 — максимальный эффект: бэкап‑серверы и цели, гипервизоры для live‑миграции, головы общего хранилища, сборка/рендер. Готовьте канареек и зеркалируйте трафик для валидации.
- Волна 2 — «движки данных»: реплики БД, ETL‑узлы, media ingest, origin CDN. Совмещайте с окнами обслуживания для перепривязки VLAN/MTU.
- Волна 3 — край и общие сервисы: jump‑хосты, бастионы, мониторинг, файловые шары. Выводите временные 1G‑пути после недели стабильности.
Сохраняйте двойную связность (1G + 10G), валидируйте маршрутизацию, VLAN, ECMP и MTU сквозняком. Отслеживайте изменения SLI минимум неделю после переключения.
Эксплуатация: SLA, ёмкость, наблюдаемость
- SLI/SLO: определите SLI (пропускная, p95/p99, потери, TCP‑ретрансмитты) и SLO на каждый поток. Средние скрывают боль — перцентили показывают.
- Планирование ёмкости: следите за загрузкой линков, потерями на микробёрстах и занятостью буферов. Планируйте апгрейды при устойчивых 60–70% пиков или дрейфе p95 к границам SLO.
- Инструменты: драйвер/NIC‑счётчики, длины очередей, IO wait, пропускная хранилища и тайминги приложений. Логуйте изменения (firmware, драйверы, MTU) рядом с графиками.
- Runbook’и: шаги отката, пиннинг драйверов, проверенные firmware и канареечные процедуры для switch/NIC. Тренируйте переключения.
Обучение важно: дайте эксплуатации лабораторию с DAC/AOC и недорогими SFP+ для репетиции перед продом.
Безопасность и соответствие на 10 Гбит/с
- Inline‑устройства: firewall и IDS/IPS должны тянуть 10G с запасом; иначе — сенсоры оффлайн и принуждение на узких местах (L3/L7). Проверьте, не режет ли TLS‑инспекция пропускную.
- Сегментация: разделяйте VLAN хранилища, гипервизоров, управления и пользователей; ACL ближе к нагрузке. Используйте private VLAN где уместно.
- DDoS: публичные 10G‑каналы притягивают volumetric‑атаки; договаривайтесь о скраббинге/защите у аплинка. Лимитируйте входящий трафик для защиты stateful‑устройств.
- Крипто: применяйте AES‑NI/QuickAssist; проверяйте, что TLS‑оффлоад и IPsec не валят полосу. Ротируйте ключи без прерывания долгоживущих соединений.
Комплаенс: убедитесь, что логи производительности/безопасности хранятся по политике; 10G = больше логов — учитывайте хранилище.
Финмодель: от затрат к денежному потоку
- CAPEX: NIC, SFP+/оптика/DAC, 10G‑коммутаторы (возможно, новые PDU/UPS), NVMe при необходимости. Заложите запас оптики 2–5%.
- OPEX: энергия и охлаждение (SFP+ экономичнее 10GBASE‑T), замена оптики, поддержка, обучение. Смоделируйте энергодельту.
- Пример окупаемости: если 10G сокращает бэкап на 8 ч/нед и экономит 4 ч/нед сопровождения, при $60/ч это ~$1 920/мес. Плюс избежанные штрафы SLA и высвобождённые часы — часто достаточно, чтобы окупить умеренный апгрейд.
- Чувствительность: энергия, оптика, рост данных — прогоните best/base/worst.
- Фазы: разбивайте закупки по волнам миграции, сглаживая кэш‑аут и получая ранние выигрыши. Допустимо — лизинг/б/у оптика по политике.
Памятка по медиа
| Медиа | Дистанция | Энергия/латентность | Стоимость | Сценарии |
| SFP+ DAC (медь) | ≤3 м | Очень низкие / очень низкая | Низкая | В стойке, ToR |
| SFP+ AOC (оптика) | 5–30 м | Низкие / низкая | Низкая‑средняя | Внутри ряда |
| SFP+ SR (MMF) | ≤100 м | Низкие / низкая | Средняя | Ряды/кампус |
| SFP+ LR (SMF) | ≤10 км | Низкие / низкая | Средняя‑высокая | Кампус/метро, DR |
| 10GBASE‑T (Cat6a/7) | ≤100 м | Выше / чуть выше | Низкая | Reuse меди где есть |
Шаблон поэтапного ввода
| Волна | Охват | Проверки | Критерии успеха |
| Волна 1 | Бэкапы, гипервизоры, головы хранения | MTU, VLAN, двойные линки | Снижение окна ≥70%; без потерь |
| Волна 2 | Реплики БД, ETL, media ingest | Драйвер/firmware, QoS, буферы | p95 лучше ≥30% |
| Волна 3 | Общие сервисы и край | Тесты резервирования | Нет деградации SLO после переключения |
FAQ
FAQ
В: Нужен ли 10G везде?
О: Нет. Начинайте с бэкапов/DR, хранилища, виртуализации и медиа/аналитики. Остальное может жить на 1G, пока загрузка или SLO не потребуют большего.
В: SFP+ или 10GBASE‑T?
О: SFP+ холоднее и быстрее по задержке; 10GBASE‑T переиспользует медь и упрощает ретрофит. Комбинируйте, но стандартизируйте где возможно.
В: Стоит ли включать jumbo?
О: Если весь путь поддерживает и приложение жёстко грузит сеть — да: меньше CPU‑оверхеда и прерываний. Сначала проверьте сквозняком.
В: Может сразу 25G?
О: Если обновляете ToR, 25G даст бОльший задел по времени при умеренной разнице в цене; часто 25G к серверам + 100G спайны.
Чек‑лист решений
- Кандидаты: бэкапы, хранилище, виртуализация, медиа, аналитика.
- Проверьте PCIe у NIC, бэкплейн/буферы коммутатора, наличие оптики.
- Подберите медиа по дистанции: DAC/AOC/SR/LR vs 10GBASE‑T.
- Спланируйте три волны с двойной связностью и сквозными MTU‑тестами.
- Включите jumbo; настройте RSS/RPS, кольца, offload; проверьте GRO/LRO/GSO.
- Мерьте перцентили и ретрансмитты; пороги алертов и SLO.
- Сегментируйте сети; ACL у нагрузки.
- Смоделируйте CAPEX/OPEX и окупаемость; разбивайте закупки; держите запас оптики.
Что дальше?
Готовы уйти от 1 Гбит/с? Unihost спроектирует и внедрит 10 GbE по волнам: SFP+ оптика, отказоустойчивая фабрика и наблюдаемость. Опишите задачи и ограничения — предложим конфигурацию, сроки и бюджет.