Пошаговый гид от «Хабра» показывает, как развернуть локальную LLM за 5 минут на Ubuntu с помощью Ollama и OpenWebUI в Docker. Минимальные требования: оперативная память от 8 ГБ, 4+ CPU (желательно с GPU), дисковое пространство от 25 ГБ. Устанавливается Docker Engine и Compose, затем создается entrypoint.sh, который запускает ollama serve и подтягивает модель llama3. Композиция из двух контейнеров: ollama (порт 11434, переменная OLLAMA_DEVICE=cpu, том для моделей) и openwebui (порт 80→8080, подкл