Самый простой и быстрый способ установить ollama ai — воспользоваться шаблоном Portainer, подготовленным нашей командой. Такой метод сводит к минимуму ручную настройку и позволяет развернуть стабильную, готовую к использованию систему всего за несколько минут.

Требования:

После подключения к Portainer перейдите в раздел Application, выберите ollama ai и заполните необходимые поля.

Заполните все необходимые поля и выберите модель ИИ. В Portainer доступен список предустановленных моделей (например, TinyLlama, Qwen3, Gemma3, Mistral, DeepSeek, Phi-4-mini). Эти варианты можно использовать для тестирования, но на практике чаще требуется выбрать конкретную модель с определённым тегом.

Для этого предусмотрен режим Custom — укажите в поле Custom model tag тег нужной модели, чтобы загрузить её. Это основной способ получить именно ту модель, которая вам нужна.

После этого в разделе Stacks появится новый стек ollama. Внутри этого стека будут развернуты контейнеры, необходимые для его работы

Теперь вам нужно перейти в NPM  и добавить проксирование к ollama, вы можете использовать пример со скриншота, мы использовали для подключения локальный домен добавленный через файл hosts:

Теперь при переходе на домен вы увидите сообщение «Ollama is running» — это подтверждает, что сервис успешно запущен и проксирование через NPM работает.
Значит:

  • контейнер Ollama доступен по внутреннему адресу,
  • NPM корректно пробрасывает запросы,
  • локальный домен ollama.local резолвится через файл hosts.

Если этот экран отображается — связка Ollama + NPM + локальный домен настроена правильно, можно переходить к интеграциям (например, с n8n).

Чтобы подключить Ollama к n8n, достаточно установить n8n (можно по нашей инструкции Installing n8n from the Portainer template) и добавить в нём узел для Ollama.

На скриншотах ниже показан пример использования Ollama.

Итог

Использование готового шаблона Ollama AI в Portainer позволяет быстро развернуть рабочую среду без сложной ручной настройки. В связке с NPM вы получаете удобный доступ по домену и автоматический SSL, а интеграция с n8n делает возможным использовать Ollama в ваших сценариях автоматизации. В итоге у вас готовая система «из коробки», которая экономит время и упрощает запуск ИИ-моделей.