TL;DR
- Спершу оберіть роль (full / light‑pruned / validator / RPC / archive) і розмірте CPU, RAM, NVMe під неї.
- Стабільність і низька затримка важливіші за «товсту» смугу; тримайте двох провайдерів і OOB‑канал.
- Харднінг ОС, firewall за замовчуванням deny; для валідатора — HSM і sentry‑архітектура.
- Моніторте лаг синхронізації, піри, p95/p99, CPU/RAM/IOPS; алерти на офлайн/консенсус/продуктивність.
- Масштабуйтесь вертикально для одиночних вузлів і горизонтально для RPC/HA; підтримуйте ранбуки та тренуйте відновлення.
- Хмара швидка на старті, але для IO‑інтенсивних RPC/архівів на горизонті 6–24 міс вигідніше «залізо»/колокація.
Ролі вузлів — коротко
Роль визначає вимоги до інфраструктури:
- Повний вузол — повна валідація та незалежна перевірка; опора децентралізації.
- Легкий/прудований — менші вимоги до сховища; для гаманців і обмежених середовищ.
- Валідатор (PoS) — бере участь у консенсусі; суворі вимоги до доступності, безпеки та ключів.
- RPC/інфраструктурний — API для dApp/гаманців; оптимізовано під пропуск і низьку затримку.
- Архівний — історичний стан і складні запити; найвищі вимоги до сховища.
Обчислення та ОС
- CPU: x86‑64 з високою продуктивністю на ядро; для RPC корисно більше ядер.
- RAM: ~8–16 ГБ для багатьох full; 32–128+ ГБ для активних RPC/архівів (залежить від мережі/клієнта).
- Пам’ять: ECC для продакшену і особливо валідаторів.
- ОС і пакування: Ubuntu LTS/Debian/RHEL; Docker; для кластерів — Kubernetes.
- Тюнінг системи: ulimit/fs.file‑max, vm.swappiness≈1–10, net.core буфери, TCP BBR за потреби.
- Файлові системи: ext4 або XFS; окремі томи для даних вузла та логів.
Сховище
- Носії: NVMe SSD для активних записів/індексів; SATA SSD — для тестів/легких ролей.
- Ємність: від сотень ГБ (деякі full) до кількох ТБ (архів/RPC). Звіряйтесь з актуальною документацією клієнта.
- Витривалість: орієнтуйтесь на вищі TBW/DWPD; відстежуйте знос.
- Відмовостійкість і відновлення: RAID1/10 або дзеркалювання; регулярні бекали та перевірка відновлення.
Мережа
- Аплінк і затримка: важливіше стабільність і низька латентність, ніж «товста» смуга; RPC може вимагати 1–10 Гбіт/с.
- Стійкість: два провайдери з автофейловером; статична публічна IP для пірингу.
- Порти й NAT: відкривайте вхідні згідно вимог клієнта; коректний NAT/форвардинг портів.
- OOB: незалежний канал аварійного керування (LTE/другий лінк).
Безпека
- Харднінг ОС: мінімальні образи, своєчасні патчі, мінімальні привілеї, auditd.
- Мережева політика: firewall default‑deny; лише потрібні піри/API; rate‑limit; анти‑DDoS.
- Ключі та секрети: валідатори — HSM/апаратні ключі, офлайн‑бекали, ротація, розподіл ролей.
- Sentry‑патерн: валідатор за sentry‑вузлами; жодних публічних вхідних до валідатора.
- Логи та SIEM: централізація логів та алерти на аномалії автентифікації/мережі/консенсусу.
Моніторинг і експлуатація
- Синхронізація й консенсус: лаг по висоті/слоту, кількість пірів, orphan/stale, відхилені блоки.
- Продуктивність: CPU/RAM/IOPS, знос/заповнення NVMe, RPC p95/p99 та помилки.
- Алерти: офлайн, деградація, помилки консенсусу, майже заповнений диск.
- Ранбуки: процедури оновлень, перевірки після рестарту, відкат; вікна обслуговування.
- Бекали та DR: снапшоти БД/ключів; періодичні тести відновлення (RTO/RPO).
Масштабування
- Вертикально: більше CPU/RAM/NVMe; швидші NIC; тюнінг ядра/ФС під IO.
- Горизонтально: кластери для RPC; балансувальники (L4/L7), кешування, георозподіл.
- Спеціалізація: розділяйте ролі (валідатор, sentry, RPC, архів) по вузлах для зменшення blast‑radius.
Економіка та моделі розгортання
- CAPEX: сервери, NVMe підвищеної витривалості, HSM, мережеве обладнання.
- OPEX: енергія, смуга/трафік, IP‑адреси, моніторинг/SaaS, анти‑DDoS, чергування.
- Хмара vs «залізо»/колокація: хмара швидка, але за тривалих IO‑навантажень дорожча; «залізо»/колокація окупні за 6–24 міс.
Референс‑архітектури
| Роль | CPU | RAM | Сховище | Мережа | Особливості | Призначення |
| Повний | 4 vCPU | 16 ГБ | NVMe 1 ТБ | 1 Гбіт/с | Ubuntu LTS, ext4 | Особиста валідація, dev |
| Валідатор | 8 vCPU | 32 ГБ | NVMe 1–2 ТБ | 1 Гбіт/с + OOB | HSM‑ключі, sentry‑вузли | Консенсус |
| RPC (prod) | 16–32 vCPU | 64–128 ГБ | NVMe RAID, 2–8 ТБ | 10 Гбіт/с | LB, кеш, анти‑DDoS | API для dApp/гаманців |
| Архівний | 32 vCPU | 128 ГБ | NVMe 8–24 ТБ | 10 Гбіт/с | SSD підвищеної витривалості | Історичні запити/аналітика |
Чек‑лист перед запуском
- Обрано роль (full/light/validator/RPC/archive) і визначено SLO.
- CPU/RAM із запасом; ECC де потрібно.
- NVMe за ємністю/витривалістю; RAID/дзеркало; план бекалів.
- Два провайдери, статична IP, порти/NAT налаштовані; є OOB.
- Firewall default‑deny; анти‑DDoS/rate‑limit; захищений SSH/VPN.
- Валідатор: HSM/апаратні ключі, sentry‑патерн, без публічних вхідних.
- Моніторинг: лаг, піри, p95/p99, помилки; алерти на чергування.
- Ранбуки: апдейти, відкат, перевірки після рестарту.
- DR: тест відновлення; RTO/RPO задокументовані.
- Економіка: модель CAPEX/OPEX; вибір хмара/залізо; контракти/SLA.
Що далі?
Потрібні середовища full/validator/RPC/archive? Unihost спроєктує, розгорне й візьме в експлуатацію: виділені сервери, NVMe, анти‑DDoS, мережа з OOB і 24/7 моніторинг. Надішліть ланцюг, роль, цільові SLO та бюджет — підготуємо конфігурацію, терміни й вартість.