Если ты хочешь развернуть современный веб-интерфейс для локальных языковых моделей на своей Ubuntu-машине, то Open WebUI — идеальный выбор. Это open-source проект с огромным сообществом, который превращает твою локальную инфраструктуру в полноценную платформу для работы с AI. Давай разберем, как выполнить установку Open WebUI на Ubuntu правильно и без головной боли.
Подготовка системы: что нужно сделать до установки
Перед тем как начать пошаговую установку Open WebUI на Ubuntu, убедись, что твоя система готова. Представь, что ты настраиваешь production-окружение — лучше сделать все правильно с самого начала.
1. Обновление системы и установка зависимостей
Первым делом обновим пакеты и установим необходимые утилиты:
sudo apt update && sudo apt upgrade -y
sudo apt install -y curl wget git gnupg lsb-release ca-certificates
2. Установка Docker и Docker Compose
Open WebUI работает в контейнерах, поэтому Docker — обязательное требование. Вот самый надежный способ установки:
# Установка Docker
curl -fsSL https://get.docker.com -o get-docker.sh
sudo sh get-docker.sh
# Добавляем текущего пользователя в группу docker
sudo usermod -aG docker $USER
# Устанавливаем Docker Compose
sudo curl -L "https://github.com/docker/compose/releases/latest/download/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
sudo chmod +x /usr/local/bin/docker-compose
# Проверяем установку
docker --version
docker-compose --version
newgrp docker), чтобы изменения вступили в силу.
Пошаговая установка Open WebUI на Ubuntu
Теперь перейдем к основной части — непосредственно установке Open WebUI. Я покажу два основных способа: через Docker Compose (рекомендуемый) и через Docker run.
Способ 1: Установка через Docker Compose (Рекомендуется)
Этот метод лучше подходит для production-развертывания, так как позволяет легко управлять конфигурацией и обновлениями.
# Создаем директорию для проекта
mkdir -p ~/open-webui
cd ~/open-webui
# Создаем docker-compose.yml
cat > docker-compose.yml << EOF
version: '3.8'
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
volumes:
- open-webui-data:/app/backend/data
restart: unless-stopped
environment:
- OLLAMA_BASE_URL=http://host.docker.internal:11434
- WEBUI_SECRET_KEY=your-secret-key-change-this
- WEBUI_NAME=My Local AI
volumes:
open-webui-data:
EOF
Теперь запустим наш контейнер:
# Запускаем Open WebUI в фоновом режиме
docker-compose up -d
# Проверяем статус
docker-compose ps
# Смотрим логи (если нужно)
docker-compose logs -f
Способ 2: Быстрая установка через Docker run
Если нужно быстро протестировать, можешь использовать этот вариант:
docker run -d \
--name open-webui \
-p 3000:8080 \
-v open-webui-data:/app/backend/data \
-e OLLAMA_BASE_URL=http://host.docker.internal:11434 \
--restart unless-stopped \
ghcr.io/open-webui/open-webui:main
Настройка и интеграция с Ollama
Open WebUI сам по себе — это только интерфейс. Чтобы он работал с языковыми моделями, нужно установить и настроить Ollama.
Установка Ollama на Ubuntu
# Устанавливаем Ollama
curl -fsSL https://ollama.com/install.sh | sh
# Запускаем сервис Ollama
sudo systemctl start ollama
sudo systemctl enable ollama
# Скачиваем модель (например, Llama 3.1 8B)
ollama pull llama3.1:8b
# Проверяем работу
ollama list
Конфигурация для работы вместе
Если Ollama установлен на том же хосте, нужно немного изменить конфигурацию Docker Compose:
version: '3.8'
services:
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
ports:
- "3000:8080"
volumes:
- open-webui-data:/app/backend/data
extra_hosts:
- "host.docker.internal:host-gateway"
restart: unless-stopped
environment:
- OLLAMA_BASE_URL=http://host.docker.internal:11434
- WEBUI_AUTH=false # Отключаем аутентификацию для тестов
volumes:
open-webui-data:
extra_hosts с host-gateway позволяет контейнеру обращаться к сервисам на хосте. Это нужно для связи Open WebUI с локально установленным Ollama.
Проверка работы и доступ к интерфейсу
После успешной установки Open WebUI на Ubuntu, открой браузер и перейди по адресу:
http://localhost:3000
Или если доступ с другого устройства в сети: http://[IP-адрес-сервера]:3000
При первом входе тебе предложат создать административный аккаунт. После этого ты увидишь чистый интерфейс, готовый к работе с моделями.
Расширенная конфигурация и оптимизация
Настройка аутентификации
Для production-окружения обязательно настрой аутентификацию:
environment:
- WEBUI_AUTH=true
- WEBUI_SECRET_KEY=your-very-secret-key-change-this-in-production
- WEBUI_USERNAME=admin
- WEBUI_PASSWORD_HASH=$(echo -n "your-password" | sha256sum | cut -d' ' -f1)
Использование GPU
Если у тебя есть NVIDIA GPU, можно значительно ускорить работу моделей:
# Устанавливаем NVIDIA Container Toolkit
curl -fsSL https://nvidia.github.io/libnvidia-container/gpgkey | sudo gpg --dearmor -o /usr/share/keyrings/nvidia-container-toolkit-keyring.gpg
curl -s -L https://nvidia.github.io/libnvidia-container/stable/deb/nvidia-container-toolkit.list | \
sed 's#deb https://#deb [signed-by=/usr/share/keyrings/nvidia-container-toolkit-keyring.gpg] https://#g' | \
sudo tee /etc/apt/sources.list.d/nvidia-container-toolkit.list
sudo apt update
sudo apt install -y nvidia-container-toolkit
sudo nvidia-ctk runtime configure --runtime=docker
sudo systemctl restart docker
# В docker-compose.yml добавляем:
deploy:
resources:
reservations:
devices:
- driver: nvidia
count: all
capabilities: [gpu]
Часто задаваемые вопросы (FAQ)
Open WebUI не видит Ollama. Что делать?
Убедись, что Ollama запущен (systemctl status ollama). Проверь конфигурацию Docker Compose — должен быть параметр extra_hosts с host-gateway. Также проверь, что порт 11434 открыт на хосте.
Как обновить Open WebUI до последней версии?
Для Docker Compose: docker-compose pull && docker-compose up -d. Для Docker run: останови контейнер, удали его и запусти снова с тем же образом — он скачает последнюю версию.
Где хранятся данные и модели?
Модели Ollama хранятся в ~/.ollama/models. Данные Open WebUI (чаты, настройки) — в Docker volume open-webui-data. Ты можешь примонтировать конкретную директорию хоста вместо volume.
Как настроить HTTPS/SSL?
Лучше использовать reverse proxy (Nginx или Traefik) перед Open WebUI. Настрой SSL на proxy, а Open WebUI оставь на HTTP внутри сети Docker.
Таблица сравнения методов установки
| Метод | Сложность | Управление | Для кого |
|---|---|---|---|
| Docker Compose | Средняя | Легкое (конфиг-файл) | Production, долгосрочное использование |
| Docker run | Низкая | Сложное (команды) | Тестирование, быстрая проверка |
| Kubernetes | Высокая | Профессиональное | Кластеры, масштабирование |
Решение распространенных проблем
Решение: Убедись, что Ollama запущен и слушает на 0.0.0.0:11434. Проверь настройки firewall:
sudo ufw allow 11434
Решение: Проверь логи:
docker logs open-webui. Частая причина — проблемы с правами на volume или конфликт портов.
Решение: Используй более легкие модели (например, llama3.1:8b вместо :70b). Включи GPU ускорение если есть видеокарта. Увеличь оперативную память сервера.
Итоги и следующие шаги
Поздравляю! Ты успешно выполнил установку Open WebUI на Ubuntu. Теперь у тебя есть мощная платформа для работы с локальными языковыми моделями. Что можно сделать дальше:
- Настроить несколько моделей в Ollama для разных задач
- Интегрировать с внешними API (OpenAI, Anthropic)
- Настроить автоматическое резервное копирование данных
- Развернуть за reverse proxy с SSL сертификатом
- Создать пользователей с разными правами доступа
Помни: локальный AI — это не только про приватность, но и про полный контроль над инфраструктурой. Экспериментируй, настраивай под свои нужды и наслаждайся возможностями, которые открывает Open WebUI.