Про що йдеться насправді
Криптовалютна нода – не «чорний ящик», а набір дуже конкретних робочих навантажень: мережевий госсіп, перевірка підписів, виконання транзакцій/VM, зберігання й індексація стану, (де)серіалізація та компресія, інколи – побудова блоків і генерація доказів. Кожна з цих задач по‑різному навантажує центральний процесор (CPU) і графічний процесор (GPU).
У 2025 році інфраструктура для Web3 і L2 чітко ділиться на три кошики:
- Класичні ноди (full/validator/RPC) – у PoS‑мережах їм потрібні сильні CPU, швидкий NVMe та передбачувана мережа. GPU рідко обов’язковий.
- Ноди та сервіси з важкою криптографією – масова верифікація підписів, агресивний паралелізм, BLS/Ed25519, батч‑перевірки. Тут виручають багатоядерні CPU з багатим набором інструкцій; GPU корисний точково.
- Завдання, де GPU – головний прискорювач – генерація/агрегація zk‑доказів, пост‑обробка доказів, а також деякі аналітичні/ML‑надбудови навколо mempool. Саме тут GPU змінює правила гри.
Цей матеріал – «людська» карта місцевості: що робить CPU, де справді допомагає GPU, чому «звичайна» нода впирається в RAM/диск/одну‑дві гарячі нитки, а zk‑сервіси розкривають тисячі паралельних потоків; яку конфігурацію вибрати для конкретної ролі; на що дивитися під час масштабування; і як Unihost допоможе зібрати стійку архітектуру без переплат за кремній, що простоюватиме.
Як це працює
Роль CPU у ноді
Думайте про CPU як про диригента оркестру.
- Перевіряє підписи транзакцій і блоків (ECDSA, Ed25519, BLS12‑381 у PoS; часто з батч‑верифікацією).
- Виконує транзакції/віртуальні машини (EVM, WASM тощо): переважають цілочисельні ALU‑операції, розгалуження, поведінка пам’яті/кешу.
- Обслуговує мережевий стек (libp2p, gossip/discovery), шифрування та серіалізацію повідомлень.
- (Де)серіалізує/стискає (RLP/SCALE/SSZ та ін.), агрегує/індексує стан, відповідає на RPC.
- Синхронізує ноду: застосовує пакети блоків, оновлює індекси, виконує перевірки цілісності.
Ключові чинники:
- Частота одного ядра та IPC. Багато критичних ділянок погано паралелізуються, тож важлива сильна однопотокова продуктивність і швидка пам’ять.
- Набори інструкцій (AVX2/AVX‑512, SHA, AES‑NI). Прискорюють криптографію, хешування та серіалізацію.
- Обсяг/затримка RAM, пропускна здатність пам’яті та ієрархія кешів.
- NVMe з високим IOPS і низькою латентністю – під час реіндексації та важких RPC‑читань це важливіше за «теоретичні» GFLOPS.
Роль GPU у ноді
GPU – це прискорювач батчів для масово паралельної математики. Він сяє, коли у вас є:
- Багато однотипної арифметики. Лінійна алгебра, FFT/NTT, мультиекспоненти на еліптичних кривих, «сором’язливо паралельні» операції у конвеєрах SNARK/STARK.
- Генерація/агрегація доказів (zk‑proofs). Тут GPU дає порядки прискорення завдяки тисячам паралельних потоків.
- Аналітика та ML‑надбудови (антифрод, аномалії, пріоритезація mempool) – не типово для базової ноди, але звично для сервіс‑провайдерів.
- Спеціальні високо паралельні перевірки (деякі фреймворки батчують підписи й виграють від GPU‑ядер).
Розумійте межу: PoS‑валідатор зазвичай CPU‑центричний (дедлайни консенсусу, логи, мережевий стек, сувора латентність). Zk‑прувер/сервер доказів – GPU‑центричний (величезна паралельна математика, де панує пропускна здатність тисяч потоків).
Чому це важливо
- SLA мережі та штрафи. Валідатори чутливі до латентності: пропуск слоту чи підтвердження із запізненням – прямі втрати. Вища частота CPU і надійний NVMe зменшують ризики.
- Юніт‑економіка. Для zk‑сервісів GPU знижує ціну одного доказу і швидше розгрібає черги – це гроші й досвід користувача.
- Масштаб RPC. Публічні RPC повинні витримувати сплески mempool та хвилі індексації. Ширина диска (IOPS/латентність) і паралелізм CPU важливіші за паперові TFLOPS.
- Межі паралелізму. Якщо робоче навантаження CPU‑bound і не дружить із векторизацією – великий GPU простоюватиме. Якщо у вас десятки тисяч однакових операцій – CPU «захлинеться», тоді як GPU «поїде крейсерською».
- Терміки та надійність. GPU‑ферми потребують серйозного живлення й охолодження. Валідаторам важлива стабільність 24/7 без тротлінгу й з резервуванням.
Як обрати
1) Визначте роль ноди
- Validator (PoS). Пріоритет – високочастотний CPU, швидкий NVMe, ECC‑RAM, якісний мережевий контур (1–10 Гбіт/с). GPU зазвичай не потрібен.
- Full/Archive/RPC. Потужний багатоядерний CPU, багато RAM, кілька NVMe з рознесенням БД/індексів, мережа 1–10 Гбіт/с. GPU – опційно.
- Block Builder/Relayer/MEV‑ланцюжок. Переважно CPU з піками I/O та мережі; іноді виділений GPU під ML/евристики, якщо це частина пайплайну.
- ZK Prover/Sequencer (L2). Один або кілька GPU (24–80 ГБ VRAM і більше). CPU «годує» GPU, потрібні швидкі NVMe scratch‑диски та стабільне живлення.
- Аналітика/індексатори. Спочатку CPU+RAM+NVMe; GPU – лише якщо реально запускаєте ML/векторні процедури.
2) Налаштуйте CPU
- Частота важливіша за «паперові» ядра там, де є гарячі однопотокові ділянки (консенсус, черги, серіалізація). Для RPC/індексації – і багато ядер, і високі частоти.
- Набори інструкцій. AVX2/AVX‑512, SHA, AES‑NI – криптографія та хеші помітно прискорюються.
- Кеш і пам’ять. Великий L3 і швидка DDR4/DDR5 зменшують промахи та пришвидшують VM/серіалізатори. ECC підвищує надійність.
- NUMA‑усвідомленість. На двосокетних серверах пінуйте процеси до вузлів NUMA для передбачуваної затримки.
3) Спроєктуйте диски та ФС
- Лише NVMe, бажано кілька: окремі томи для state DB, індексів, журналів; RAID1/10 для відмовостійкості.
- IOPS/латентність важливіші за «сирі» ГБ/с. Індексація та RPC чутливі до затримок.
- Тюнінг ФС/монтування. Параметри журналювання, великі сторінки, noatime – дрібниці дають відчутні відсотки.
4) Мережа та доступність
- 1–10 Гбіт/с з низьким джиттером. Валідаторам – передбачуваність; RPC – пропуск і конкуренція з’єднань.
- Захист периметра. Rate‑limit, приватні VLAN, відсікання «сміття», DDoS‑фільтрація.
- Резервування. Подвійні канали/провайдери там, де цього вимагає SLA.
5) Коли GPU обов’язковий
- zk‑докази (SNARK/STARK), NTT/FFT – беріть GPU з широкою шиною та великою VRAM (24–80 ГБ), щоб поміщати схеми в пам’ять без «пінг‑понгу» PCIe.
- Профіль паралелізму. Краще 1–2 «широкі» GPU зі стабільним охолодженням, ніж 4–6 «вузьких», що будуть тротлити.
- CPU як «фідер». CPU має встигати «годувати» GPU: 16–32+ швидких ядер і прудка RAM, аби тримати ядра зайнятими.

Де насправді виникають «вузькі місця»
- Валідатор: гарячі однопотокові ділянки консенсусу/мережі → частоти CPU, латентність RAM, джиттер мережі.
- Full/RPC: масові читання/індексація → NVMe IOPS/латентність, мультипотоковий CPU, RAM для кешу.
- Агрегація/верифікація підписів: батчі ЕЦП → багатопотоковий CPU; AVX2/AVX‑512 допомагають; іноді виправдані GPU‑ядра.
- Zk‑prover: величезна паралельна математика → GPU, широка VRAM, пропуск PCIe/CPU‑RAM.
- Аналітика/індекс/архів: дискова підсистема, бекграунд‑компакція, висока витривалість NVMe.
Практичні профілі під ролі (базові конфіги)
Це прагматичні орієнтири. Точні значення залежать від мережі (Ethereum, Solana, родина Cosmos, L2‑роллапи, Substrate‑ланцюги тощо), вибору клієнта, обсягу історії та SLA.
Валідатор (PoS)
- CPU: 8–16 швидких ядер із сучасними інструкціями.
- RAM: 32–64 ГБ ECC.
- Диск: 2× NVMe (RAID1) для стану/журналів + 1× NVMe для логів/архівів.
- Мережа: 1–10 Гбіт/с з низьким джиттером.
- GPU: не потрібен.
- Фокус: стабільність і низька латентність; телеметрія, алерти, резерв живлення.
Full/RPC
- CPU: 16–32 ядра (баланс частот і кількості).
- RAM: 64–128 ГБ для кешування «гарячих» структур.
- Диск: 2–4× NVMe, рознести БД/індекси/журнали; за потреби RAID10.
- Мережа: 1–10 Гбіт/с, бажано виділений uplink.
- GPU: опційно, зазвичай не потрібно.
- Фокус: IOPS, стабільні відповіді RPC, контроль GC‑пауз.
Архів/Індексатор
- CPU: 24–48 ядер.
- RAM: 128–256 ГБ.
- Диск: пул NVMe з високим TBW; стратегія снапшотів/бекапів – маст.
- Мережа: 1–10 Гбіт/с.
- GPU: не потрібен (якщо без ML).
- Фокус: довговічність дисків, швидкість компакції, безперервна індексація.
ZK Prover / ZK‑Rollup сервіс
- CPU: 24–64 потужні ядра (частоти + AVX).
- RAM: 128–512 ГБ (залежно від схем).
- GPU: 1–4 сильні карти з 24–80 ГБ VRAM, широкими шинами й надійним охолодженням.
- Диск: NVMe scratch‑пул для проміжних файлів (високий IOPS, низька латентність).
- Мережа: 10 Гбіт/с, якщо ганяєте великі батчі.
- Фокус: пропускна здатність за доказами, стабільні частоти GPU (без тротлінгу), енергопрофіль.
Поширені міфи
- «GPU пришвидшить будь‑яку ноду». Ні. Якщо код не векторизується/не батчується – GPU простоює. Валідатору важливі сильні CPU‑ядра, а не «жирний» GPU.
- «Більше ядер – завжди краще». Не для консенсусу чи шляхів, обмежених пам’яттю/диском із гарячими однопотоковими ділянками.
- «NVMe масштабується лінійно». Ви впираєтесь у черги/латентність раніше за «сирі» ГБ/с; важливі шедулінг і рознесення навантажень.
- «ECC необов’язковий». Для валідаторів і довгоживучих БД ECC зменшує ризик тихої корупції даних – використовуйте.
- «Охолодження – другорядне». Тротлінг CPU/GPU «з’їдає» будь‑які бенчмарки; тепло – такий самий ресурс, як ядра й гігабайти.
Продуктивність у цифрах: міряємо правильно
- p50/p95/p99 TTFB на RPC – по ендпойнтах, до/після змін.
- Пропуск на верифікації підписів – транзакції/сек при різних розмірах батчів, з/без батч‑перевірок.
- Латентність компакції/індексації – тривалість і частота важких фаз.
- Утилізація диска та GC‑паузи – часті винуватці «фризів» RPC.
- Енергія на операцію – ват‑сек/доказ для CPU vs GPU‑конвеєрів (критично в zk).
- Стабільність частот (без тротлінгу) – профілюйте в реальних піках, а не лише «на холодну».
Масштабування: вертикаль vs горизонталь
- Вертикаль (scale‑up). Найпростіше – додайте ядра/RAM/NVMe. Підійде для валідаторів і соло‑RPC, але є стелі: NUMA, терміки, вартість.
- Горизонталь (scale‑out). Шардуйте RPC, винесіть індексатори, використовуйте кеш‑пули (Redis), баланс по L7, кілька пруверів за чергою. Економіка стабільна й передбачувана.
- Гібрид. Валідатор – на окремій «тихій» машині; RPC/індекс – горизонтальний кластер; zk‑прувер – GPU‑ферма з диспетчеризацією задач.
Надійність і безпека
- Розділення ролей. Ніколи не суміщайте валідатор і публічний RPC на одному хості.
- Бекапи/снапшоти. Періодика, консистентність, тести відновлення.
- Сегментація мережі. Приватні VLAN, міжсервісні ACL, VPN для адмінської площини.
- Оновлення й патчі. Критично для клієнтів нод і драйверів GPU.
- Спостережність. Логи + метрики + трейсинг: від мережевого стека до часу перевірки підписів.
Економіка, що справді важлива
- Рахуйте $/операцію, а не лише ядра/ГБ. Ціна за 1 млн перевірок підписів, за один доказ, за 1000 RPC‑відповідей при цільовому p95.
- Лагодьте «гарячі місця» до купівлі нового заліза. Заміна клієнта/флагів компіляції/настройок БД часто ефективніша.
- Обережно з «перерозміреним» GPU. Порожні GPU – це «золоті радіатори». Розміряйте під чергу і SLA.

Бенчмаркінг без самообману: CPU vs GPU для вашого конвеєра
Мета. Знайти вузьке місце та зміну, що покращує продуктові метрики (пропущені слоти, p95 RPC, $/доказ), а не синтетичні бали.
Збір даних. 24–72 години реального трафіку: типові батчі, розміри блоків, частота компакцій, глибина черги доказів. Профілі CPU/RAM/диска/мережі – обов’язково.
Набір експериментів.
- CPU: варіюйте частоти/типи ядер, кількість потоків, флаги криптобібліотек (векторизація, AVX2/AVX‑512), налаштування GC клієнта.
- Диск: один NVMe проти дзеркала/RAID10, глибини черг, планувальники I/O.
- GPU: час побудови/агрегації доказів для різних батчів, обмежень VRAM, інтенсивності PCIe.
Метрики рішення. p50/p95/p99 TTFB RPC, частка пропущених слотів, ват‑сек/доказ, час синхронізації, середній/піковий IOPS, латентність читання.
Пастки. Міняйте один фактор за раз; враховуйте «прогрів» кешів; фіксуйте температури й реальні частоти; використовуйте довірчі інтервали, а не «один вдалий прогін».
Рекомендації під популярні екосистеми
Ethereum (L1, валідатор і full/RPC). Валідаторам потрібні частоти одного ядра, прудка RAM і NVMe; GPU – ні. Для RPC – кілька низьколатентних NVMe, 64–128 ГБ RAM і 16–32 ядра CPU. Архів – стежте за TBW дисків і політикою снапшотів.
Solana. Висока пропускна здатність мережі навантажує CPU, RAM і диск. Беріть багато ядер із високими частотами, 128+ ГБ RAM і швидкий пул NVMe. GPU не пришвидшує базову ноду, але корисний у супутніх сервісах.
Cosmos‑родина (Tendermint/CometBFT). Валідатор – про передбачувану мережу, швидкі NVMe й частоти CPU. RPC‑індексатори – про IOPS і RAM.
Bitcoin (full/archival). CPU помірно важливий; ключ – дискова підсистема і верифікація блоків при рескані. ECC бажаний; GPU не потрібен.
Near, Aptos/Sui. Подібно до Solana: сильний CPU, швидкий NVMe, щедра RAM. GPU – лише для зовнішньої аналітики.
ZK‑ролапи (zkSync, StarkNet тощо). Воркер доказів – GPU‑центричний: 24–80 ГБ VRAM, стабільні частоти під довгим навантаженням. CPU має встигати «годувати» GPU; NVMe‑scratch – маст.
Гайд із закупівлі: конфіги й математика TCO
Бюджет «Валідатор L1/L2»
- 8–16 високочастотних ядер, 32–64 ГБ ECC, 2× NVMe (RAID1), uplink 1–10 Гбіт/с.
- Профіль витрат: мінімальний; інвестуйте у стабільність і телеметрію.
- Профіт: менше штрафів/пропущених слотів.
Середній «Публічний RPC»
- 16–32 ядра, 64–128 ГБ RAM, 3–4× NVMe (рознести БД/індекс/журнал), виділений uplink.
- KPI: p95 RPC, частка таймаутів, вартість 1000 відповідей при SLA.
Високий «ZK‑Prover»
- 24–64 ядра, 128–512 ГБ RAM, 1–4 GPU (24–80 ГБ VRAM), NVMe scratch‑пул.
- KPI: секунди/доказ, ват‑сек/доказ, вартість черги.
Метод TCO. Врахуйте капекс, енергію (CPU/GPU/диски/охолодження), колокацію, оперціну. Нормуйте до $/операцію на 12–24 міс. Порівняйте оренду vs власність і ризик недозавантаження GPU.
Енергетика, охолодження, ресурс
- GPU‑риг може споживати у рази більше за CPU‑сервер. Перевірте ліміти стійки/ліній, БЖ, резерв N+1.
- Слідкуйте за температурою на вході, перепадом тиску та чистотою фільтрів. Будь‑який тротлінг нівелює виграш «топового заліза».
- Плануйте сервіс вентиляторів і знос NVMe (TBW), особливо на індексаторах.
Оркестрація та розгортання
- Розділяйте ролі на рівні хостів і мереж. Валідатор – ізольований від публічного трафіку; RPC – за L7‑балансерами; прувери – в окремому пулі.
- Контейнери – ок, але поважайте NUMA і пінуйте ядра/IRQ. Для GPU – ізоляція пристроїв і явні квоти.
- Оновлення – «синій/зелений»: подвійні інстанси, прогрів кешів, поетапний cutover.
Безпека: мінімальний чек‑лист
- MFA й апаратні ключі для операцій валідатора.
- Фаєрволи, приватні VLAN, deny‑by‑default на адмін‑портах.
- Регулярні оновлення клієнтів і драйверів GPU; контроль цілісності бінарів.
- Бекапи конфігів, запечатані снапшоти, періодичні тренування відновлення.
Чому Unihost спрощує життя
Інфраструктура під роль, а не «універсальні сервери».
- Валідатори / Full / RPC: високочастотні CPU‑сервери, ECC RAM, пули NVMe Gen4/Gen5 з передбачуваною латентністю, uplink 1–10 Гбіт/с, приватні VLAN, DDoS‑фільтрація.
- ZK‑сервіси: GPU‑сервери з 24–80 ГБ VRAM, широкими шинами, посиленим охолодженням; CPU з AVX; швидкий NVMe scratch.
- Мережа: низькоджиттерний роутінг, публічні/приватні IP, BGP‑опції для просунутих сценаріїв.
Інженерна допомога.
- Підбір розміру під вашу роль (валідатор/архів/RPC/zk‑прувер).
- Тюнінг ядра/ФС/БД; рознесення дисків і NUMA; шаблони спостережності.
- Міграції без простою: снапшоти, реплікація, перемикання DNS/LB.
Масштаб без болю.
- Почніть на VPS, переходьте на виділені чи GPU‑сервери зі зростанням.
- Гнучкий білінг: стартуйте «малими», додавайте ресурси під черги та SLA.
Висновки (коротко)
- CPU – серце «класичної» ноди: консенсус, підписи, VM, мережа, I/O. Потрібні високі частоти, сучасні інструкції, швидка RAM і NVMe.
- GPU прискорює паралельну математику: zk‑докази, масові батчі арифметики, ML‑надбудови. Для валідаторів не критичний; для пруверів – ключовий.
- Диск і мережа важать не менше для «обчислювальної потужності», ніж ядра й GFLOPS. Ігноруючи NVMe та uplink, ви викидаєте теорію на вітер.
- Витрачайте розумно: міряйте $/операцію і p95‑метрики, а не лише ядра/VRAM.
- Розділяйте ролі: валідатор, RPC/індекс і zk‑ферми – на різних хостах. Так простіше дотримуватись SLA і безпеки.
Спробуйте сервери Unihost – стабільна інфраструктура для ваших Web3‑проєктів.
Замовте CPU‑ або GPU‑сервер на Unihost – ми розміримо його під вашу роль (від валідатора до zk‑прувера), підтюнимо диск, мережу і спостережність для реального p95.