Jaki system Linux pod Ollamę i WebGUI
Najlepszy wybór dystrybucji
Ubuntu LTS (np. 22.04 lub 24.04) to najpopularniejsza i najczęściej rekomendowana dystrybucja do uruchamiania Ollamy i narzędzi LLM. Ubuntu jest szeroko wspierane przez społeczność, ma dobre wsparcie dla sterowników (szczególnie NVIDIA), a większość instrukcji i narzędzi LLM jest przygotowana właśnie pod tę dystrybucję[1][2][3].
Alternatywy:
· Debian 12 – stabilny, minimalny, świetny do serwerów, ale wymaga czasem ręcznej instalacji nowszych sterowników.
· Linux Mint/Pop!_OS – bazują na Ubuntu, są łatwe w użyciu, ale do zastosowań profesjonalnych lepiej trzymać się Ubuntu LTS.
Sprawdzony poradnik: Instalacja Ollama + WebGUI (Open WebUI)
1. Instalacja Ubuntu LTS
1. Pobierz obraz Ubuntu 22.04 LTS lub 24.04 LTS ze strony Ubuntu.
2. Zainstaluj system na HP ZBOOK, wybierz opcję instalacji sterowników firmowych (dla NVIDIA).
3. Po instalacji zaktualizuj system:
sudo apt update && sudo apt upgrade -y
2. Instalacja sterowników GPU (jeśli masz NVIDIA)
sudo ubuntu-drivers autoinstall
sudo reboot
Po restarcie sprawdź GPU:
nvidia-smi
3. Instalacja Ollama
Najprostszy sposób (jednolinijkowiec):
curl -fsSL https://ollama.com/install.sh | sh
Ollama instaluje się jako usługa systemd i startuje automatycznie z systemem[5].
4. Instalacja WebGUI (Open WebUI)
Najprostsza metoda: Docker
Zainstaluj Docker:
sudo apt install docker.io -y
sudo systemctl enable –now docker
Uruchom Open WebUI:
sudo docker run -d \
-p 3000:8080 \
–add-host=host.docker.internal:host-gateway \
-v open-webui:/app/backend/data \
–name open-webui \
–restart always \
ghcr.io/open-webui/open-webui:main
Dzięki opcji –restart always WebGUI startuje automatycznie razem z systemem[6].
Dostęp do WebGUI:
Otwórz przeglądarkę i wejdź na:
http://localhost:3000
5. Połączenie WebGUI z Ollama
Domyślnie Open WebUI łączy się z Ollama na tym samym hoście (localhost:11434). Jeśli wszystko jest na jednym laptopie, nie trzeba nic zmieniać.
6. Automatyczny start z systemem
· Ollama instaluje się jako usługa systemd i startuje automatycznie.
· Kontener Docker z WebGUI dzięki –restart always również startuje automatycznie.
7. Dodaj użytkownika do grupy docker
· Aby korzystać z Dockera bez sudo:
sudo usermod -aG docker $USER
Następnie wyloguj się i zaloguj ponownie (lub zrestartuj komputer), aby zmiany zadziałały.
8. Sprawdź uprawnienia do socketu
Możesz sprawdzić uprawnienia do pliku /var/run/docker.sock:
ls -l /var/run/docker.sock
Powinien być dostępny dla grupy docker.
9. Zweryfikuj
Po ponownym zalogowaniu sprawdź:
docker ps
Jeśli nie ma błędu, możesz uruchomić kontener bez sudo.
Podsumowanie
· Ubuntu LTS to najpewniejszy wybór pod Ollamę i WebGUI.
· Instalacja Ollama i WebGUI jest szybka i dobrze udokumentowana.
· Oba narzędzia będą startować automatycznie z systemem.
· W razie potrzeby możesz łatwo aktualizować modele i interfejsy.
Przydatne komendy
Cel | Komenda |
Sprawdzenie GPU | nvidia-smi |
Start/stop Ollama | sudo systemctl start|stop ollama |
Status Ollama | sudo systemctl status ollama |
Zarządzanie kontenerem | docker start|stop open-webui |
Sprawdzenie portu WebUI | netstat -tuln | grep 3000 |
Wskazówka: Jeśli zależy Ci na pełnej wydajności GPU, zadbaj o aktualne sterowniki NVIDIA i kernel. Ubuntu LTS zapewnia najlepszą kompatybilność i wsparcie społeczności dla narzędzi LLM
1. https://www.reddit.com/r/LocalLLaMA/comments/15yzqsc/which_distro/
2. https://blogs.iuvotech.com/local-llms-part-3-linux
3. https://www.dbi-services.com/blog/getting-started-with-open-webui/
4. https://dev.to/tanguy_chenier/get-chatgpt-equivalent-in-under-5-minutes-with-ollama-open-webui-271e





Leave a Reply