Установка Open WebUI на Ubuntu: пошаговая инструкция и настройка | AdminWiki

Установка Open WebUI на Ubuntu: Полное руководство для разработчиков

28 декабря 2025 7 мин. чтения #ai #devops #docker #ollama #open webui #ubuntu #локальный ai #установка

Если ты хочешь развернуть современный веб-интерфейс для локальных языковых моделей на своей Ubuntu-машине, то Open WebUI — идеальный выбор. Это open-source проект с огромным сообществом, который превращает твою локальную инфраструктуру в полноценную платформу для работы с AI. Давай разберем, как выполнить установку Open WebUI на Ubuntu правильно и без головной боли.

Что тебе понадобится: Ubuntu 20.04 или новее, Docker и Docker Compose, базовые знания терминала, и конечно, желание экспериментировать с локальным AI.

Подготовка системы: что нужно сделать до установки

Перед тем как начать пошаговую установку Open WebUI на Ubuntu, убедись, что твоя система готова. Представь, что ты настраиваешь production-окружение — лучше сделать все правильно с самого начала.

1. Обновление системы и установка зависимостей

Первым делом обновим пакеты и установим необходимые утилиты:

bash
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl wget git gnupg lsb-release ca-certificates

2. Установка Docker и Docker Compose

Open WebUI работает в контейнерах, поэтому Docker — обязательное требование. Вот самый надежный способ установки:

bash
# Установка Docker
curl -fsSL https://get.docker.com -o get-docker.sh
sudo sh get-docker.sh

# Добавляем текущего пользователя в группу docker
sudo usermod -aG docker $USER

# Устанавливаем Docker Compose
sudo curl -L "https://github.com/docker/compose/releases/latest/download/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose

# Проверяем установку
docker --version
docker-compose --version
Важно: После добавления пользователя в группу docker нужно выйти из системы и зайти снова (или выполнить newgrp docker), чтобы изменения вступили в силу.

Пошаговая установка Open WebUI на Ubuntu

Теперь перейдем к основной части — непосредственно установке Open WebUI. Я покажу два основных способа: через Docker Compose (рекомендуемый) и через Docker run.

Способ 1: Установка через Docker Compose (Рекомендуется)

Этот метод лучше подходит для production-развертывания, так как позволяет легко управлять конфигурацией и обновлениями.

bash
# Создаем директорию для проекта
mkdir -p ~/open-webui
cd ~/open-webui

# Создаем docker-compose.yml
cat > docker-compose.yml << EOF
version: '3.8'

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - open-webui-data:/app/backend/data
    restart: unless-stopped
    environment:
      - OLLAMA_BASE_URL=http://host.docker.internal:11434
      - WEBUI_SECRET_KEY=your-secret-key-change-this
      - WEBUI_NAME=My Local AI

volumes:
  open-webui-data:
EOF

Теперь запустим наш контейнер:

bash
# Запускаем Open WebUI в фоновом режиме
docker-compose up -d

# Проверяем статус
docker-compose ps

# Смотрим логи (если нужно)
docker-compose logs -f

Способ 2: Быстрая установка через Docker run

Если нужно быстро протестировать, можешь использовать этот вариант:

bash
docker run -d \
  --name open-webui \
  -p 3000:8080 \
  -v open-webui-data:/app/backend/data \
  -e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
  --restart unless-stopped \
  ghcr.io/open-webui/open-webui:main

Настройка и интеграция с Ollama

Open WebUI сам по себе — это только интерфейс. Чтобы он работал с языковыми моделями, нужно установить и настроить Ollama.

Установка Ollama на Ubuntu

bash
# Устанавливаем Ollama
curl -fsSL https://ollama.com/install.sh | sh

# Запускаем сервис Ollama
sudo systemctl start ollama
sudo systemctl enable ollama

# Скачиваем модель (например, Llama 3.1 8B)
ollama pull llama3.1:8b

# Проверяем работу
ollama list

Конфигурация для работы вместе

Если Ollama установлен на том же хосте, нужно немного изменить конфигурацию Docker Compose:

yaml
version: '3.8'

services:
  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    ports:
      - "3000:8080"
    volumes:
      - open-webui-data:/app/backend/data
    extra_hosts:
      - "host.docker.internal:host-gateway"
    restart: unless-stopped
    environment:
      - OLLAMA_BASE_URL=http://host.docker.internal:11434
      - WEBUI_AUTH=false  # Отключаем аутентификацию для тестов

volumes:
  open-webui-data:
Важный момент: Параметр extra_hosts с host-gateway позволяет контейнеру обращаться к сервисам на хосте. Это нужно для связи Open WebUI с локально установленным Ollama.

Проверка работы и доступ к интерфейсу

После успешной установки Open WebUI на Ubuntu, открой браузер и перейди по адресу:

http://localhost:3000

Или если доступ с другого устройства в сети: http://[IP-адрес-сервера]:3000

При первом входе тебе предложат создать административный аккаунт. После этого ты увидишь чистый интерфейс, готовый к работе с моделями.

Расширенная конфигурация и оптимизация

Настройка аутентификации

Для production-окружения обязательно настрой аутентификацию:

yaml
environment:
  - WEBUI_AUTH=true
  - WEBUI_SECRET_KEY=your-very-secret-key-change-this-in-production
  - WEBUI_USERNAME=admin
  - WEBUI_PASSWORD_HASH=$(echo -n "your-password" | sha256sum | cut -d' ' -f1)

Использование GPU

Если у тебя есть NVIDIA GPU, можно значительно ускорить работу моделей:

bash
# Устанавливаем NVIDIA Container Toolkit
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
  sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
  sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list

sudo apt update
sudo apt install -y nvidia-container-toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker

# В docker-compose.yml добавляем:
deploy:
  resources:
    reservations:
      devices:
        - driver: nvidia
          count: all
          capabilities: [gpu]

Часто задаваемые вопросы (FAQ)

Open WebUI не видит Ollama. Что делать?

Убедись, что Ollama запущен (systemctl status ollama). Проверь конфигурацию Docker Compose — должен быть параметр extra_hosts с host-gateway. Также проверь, что порт 11434 открыт на хосте.

Как обновить Open WebUI до последней версии?

Для Docker Compose: docker-compose pull && docker-compose up -d. Для Docker run: останови контейнер, удали его и запусти снова с тем же образом — он скачает последнюю версию.

Где хранятся данные и модели?

Модели Ollama хранятся в ~/.ollama/models. Данные Open WebUI (чаты, настройки) — в Docker volume open-webui-data. Ты можешь примонтировать конкретную директорию хоста вместо volume.

Как настроить HTTPS/SSL?

Лучше использовать reverse proxy (Nginx или Traefik) перед Open WebUI. Настрой SSL на proxy, а Open WebUI оставь на HTTP внутри сети Docker.

Таблица сравнения методов установки

Метод Сложность Управление Для кого
Docker Compose Средняя Легкое (конфиг-файл) Production, долгосрочное использование
Docker run Низкая Сложное (команды) Тестирование, быстрая проверка
Kubernetes Высокая Профессиональное Кластеры, масштабирование

Решение распространенных проблем

Проблема: «Connection refused» при подключении к Ollama
Решение: Убедись, что Ollama запущен и слушает на 0.0.0.0:11434. Проверь настройки firewall: sudo ufw allow 11434
Проблема: Контейнер падает сразу после запуска
Решение: Проверь логи: docker logs open-webui. Частая причина — проблемы с правами на volume или конфликт портов.
Проблема: Медленная работа моделей
Решение: Используй более легкие модели (например, llama3.1:8b вместо :70b). Включи GPU ускорение если есть видеокарта. Увеличь оперативную память сервера.

Итоги и следующие шаги

Поздравляю! Ты успешно выполнил установку Open WebUI на Ubuntu. Теперь у тебя есть мощная платформа для работы с локальными языковыми моделями. Что можно сделать дальше:

  • Настроить несколько моделей в Ollama для разных задач
  • Интегрировать с внешними API (OpenAI, Anthropic)
  • Настроить автоматическое резервное копирование данных
  • Развернуть за reverse proxy с SSL сертификатом
  • Создать пользователей с разными правами доступа

Помни: локальный AI — это не только про приватность, но и про полный контроль над инфраструктурой. Экспериментируй, настраивай под свои нужды и наслаждайся возможностями, которые открывает Open WebUI.

Поделиться:
Сохранить гайд? В закладки браузера