Самый простой и быстрый способ установить ollama ai — воспользоваться шаблоном Portainer, подготовленным нашей командой. Такой метод сводит к минимуму ручную настройку и позволяет развернуть стабильную, готовую к использованию систему всего за несколько минут.
Требования:
- VPS с установленным Portainer с помощью скрипта от Unihost
- Развернутый NPM (Nginx Proxy Manager)
После подключения к Portainer перейдите в раздел Application, выберите ollama ai и заполните необходимые поля.

Заполните все необходимые поля и выберите модель ИИ. В Portainer доступен список предустановленных моделей (например, TinyLlama, Qwen3, Gemma3, Mistral, DeepSeek, Phi-4-mini). Эти варианты можно использовать для тестирования, но на практике чаще требуется выбрать конкретную модель с определённым тегом.
Для этого предусмотрен режим Custom — укажите в поле Custom model tag тег нужной модели, чтобы загрузить её. Это основной способ получить именно ту модель, которая вам нужна.

После этого в разделе Stacks появится новый стек ollama. Внутри этого стека будут развернуты контейнеры, необходимые для его работы

Теперь вам нужно перейти в NPM и добавить проксирование к ollama, вы можете использовать пример со скриншота, мы использовали для подключения локальный домен добавленный через файл hosts:

Теперь при переходе на домен вы увидите сообщение «Ollama is running» — это подтверждает, что сервис успешно запущен и проксирование через NPM работает.
Значит:
- контейнер Ollama доступен по внутреннему адресу,
- NPM корректно пробрасывает запросы,
- локальный домен ollama.local резолвится через файл hosts.
Если этот экран отображается — связка Ollama + NPM + локальный домен настроена правильно, можно переходить к интеграциям (например, с n8n).

Чтобы подключить Ollama к n8n, достаточно установить n8n (можно по нашей инструкции Installing n8n from the Portainer template) и добавить в нём узел для Ollama.
На скриншотах ниже показан пример использования Ollama.

Итог
Использование готового шаблона Ollama AI в Portainer позволяет быстро развернуть рабочую среду без сложной ручной настройки. В связке с NPM вы получаете удобный доступ по домену и автоматический SSL, а интеграция с n8n делает возможным использовать Ollama в ваших сценариях автоматизации. В итоге у вас готовая система «из коробки», которая экономит время и упрощает запуск ИИ-моделей.