Instalacja Ollama + WebUI na Ubuntu 24

 

Jaki system Linux pod Ollamę i WebGUI

Najlepszy wybór dystrybucji

Ubuntu LTS (np. 22.04 lub 24.04) to najpopularniejsza i najczęściej rekomendowana dystrybucja do uruchamiania Ollamy i narzędzi LLM. Ubuntu jest szeroko wspierane przez społeczność, ma dobre wsparcie dla sterowników (szczególnie NVIDIA), a większość instrukcji i narzędzi LLM jest przygotowana właśnie pod tę dystrybucję[1][2][3].

Alternatywy:

·         Debian 12 – stabilny, minimalny, świetny do serwerów, ale wymaga czasem ręcznej instalacji nowszych sterowników.

·         Linux Mint/Pop!_OS – bazują na Ubuntu, są łatwe w użyciu, ale do zastosowań profesjonalnych lepiej trzymać się Ubuntu LTS.

Sprawdzony poradnik: Instalacja Ollama + WebGUI (Open WebUI)

1. Instalacja Ubuntu LTS

1.       Pobierz obraz Ubuntu 22.04 LTS lub 24.04 LTS ze strony Ubuntu.

2.      Zainstaluj system na HP ZBOOK, wybierz opcję instalacji sterowników firmowych (dla NVIDIA).

3.      Po instalacji zaktualizuj system:

sudo apt update && sudo apt upgrade -y

2. Instalacja sterowników GPU (jeśli masz NVIDIA)

sudo ubuntu-drivers autoinstall
sudo reboot

Po restarcie sprawdź GPU:

nvidia-smi

3. Instalacja Ollama

Najprostszy sposób (jednolinijkowiec):

curl -fsSL https://ollama.com/install.sh | sh

Ollama instaluje się jako usługa systemd i startuje automatycznie z systemem[5].

4. Instalacja WebGUI (Open WebUI)

Najprostsza metoda: Docker

Zainstaluj Docker:

sudo apt install docker.io -y
sudo systemctl enable –now docker

Uruchom Open WebUI:

sudo docker run -d \
  -p 3000:8080 \
  –add-host=host.docker.internal:host-gateway \
  -v open-webui:/app/backend/data \
  –name open-webui \
  –restart always \
  ghcr.io/open-webui/open-webui:main

Dzięki opcji –restart always WebGUI startuje automatycznie razem z systemem[6].

Dostęp do WebGUI:
Otwórz przeglądarkę i wejdź na:
http://localhost:3000

5. Połączenie WebGUI z Ollama

Domyślnie Open WebUI łączy się z Ollama na tym samym hoście (localhost:11434). Jeśli wszystko jest na jednym laptopie, nie trzeba nic zmieniać.

6. Automatyczny start z systemem

·         Ollama instaluje się jako usługa systemd i startuje automatycznie.

·         Kontener Docker z WebGUI dzięki –restart always również startuje automatycznie.

7. Dodaj użytkownika do grupy docker

·         Aby korzystać z Dockera bez sudo:

sudo usermod -aG docker $USER

Następnie wyloguj się i zaloguj ponownie (lub zrestartuj komputer), aby zmiany zadziałały.

8. Sprawdź uprawnienia do socketu

Możesz sprawdzić uprawnienia do pliku /var/run/docker.sock:

ls -l /var/run/docker.sock

Powinien być dostępny dla grupy docker.

9. Zweryfikuj

Po ponownym zalogowaniu sprawdź:

docker ps

Jeśli nie ma błędu, możesz uruchomić kontener bez sudo.

Podsumowanie

·         Ubuntu LTS to najpewniejszy wybór pod Ollamę i WebGUI.

·         Instalacja Ollama i WebGUI jest szybka i dobrze udokumentowana.

·         Oba narzędzia będą startować automatycznie z systemem.

·         W razie potrzeby możesz łatwo aktualizować modele i interfejsy.

Przydatne komendy

Cel

Komenda

Sprawdzenie GPU

nvidia-smi

Start/stop Ollama

sudo systemctl start|stop ollama

Status Ollama

sudo systemctl status ollama

Zarządzanie kontenerem

docker start|stop open-webui

Sprawdzenie portu WebUI

netstat -tuln | grep 3000

Wskazówka: Jeśli zależy Ci na pełnej wydajności GPU, zadbaj o aktualne sterowniki NVIDIA i kernel. Ubuntu LTS zapewnia najlepszą kompatybilność i wsparcie społeczności dla narzędzi LLM

1.       https://www.reddit.com/r/LocalLLaMA/comments/15yzqsc/which_distro/  

2.      https://blogs.iuvotech.com/local-llms-part-3-linux  

3.      https://www.dbi-services.com/blog/getting-started-with-open-webui/  

4.      https://dev.to/tanguy_chenier/get-chatgpt-equivalent-in-under-5-minutes-with-ollama-open-webui-271e  

5.       https://itsfoss.com/ollama-setup-linux/