Cara Install Ollama GUI dengan Open WebUI di VPS

Ollama GUI: Ngobrol sama LLM tanpa CLI

Ollama memang keren, tapi ngetik perintah di terminal tiap kali mau chat sama Llama 3.1 bikin males. Open WebUI solusinya: antarmuka mirip ChatGPT yang langsung nyambung ke Ollama API. Tinggal klik, upload file, bahkan analisis gambar—semua lewat browser.

Di sini kita pakai VPS Ubuntu 22.04 minimal 4 vCPU & 16 GB RAM biar model 7B lancar jaya. Kalau spek masih 2 GB, stop dulu; nanti modelnya malah OOM. Siap? Total waktu setup ±10 menit, termasuk download image Docker.

Penyebab error saat install Ollama GUI

Paling sering gagal karena tiga hal: Docker belum running, port 8080 sudah dipakai, atau firewall cloud provider nge-block. Cek dulu dengan docker info. Kalau keluar error permission denied, berarti user belum masuk grup docker. Fix-nya satu baris:

sudo usermod -aG docker $USER && newgrp docker

Port 8080 bisa diganti kok; nanti kita map ke 3000. Firewall? Buka hPanel → Firewall → allow TCP 3000. Simple.

Langkah install Ollama + Open WebUI

  1. SSH ke VPS: ssh root@IP_VPS
  2. Install Ollama: curl -fsSL https://ollama.com/install.sh | sh
  3. Pastikan service aktif: systemctl status ollama
  4. Pull model minimal: ollama pull llama3.1:8b
  5. Run Open WebUI container:
    docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_API_BASE_URL=http://127.0.0.1:11434 -p 3000:8080 --name open-webui ghcr.io/open-webui/open-webui:main

Akses & daftar admin pertama

Buka https://IP_VPS:3000. Form register muncul langsung; user pertama otomatis jadi admin. Simpan password-nya di Bitwarden, jangan di Notepad.

Jeda model, RAG & multimodal

Open WebUI bukan cuma chat biasa. Mau ganti model di tengah obrolan? Klik dropdown atas kiri, pilih Mistral 7B, lanjut chat tanpa buka tab baru. Butuh RAG? Upload PDF lewat tombol +, otomatis jadi vektor pakai embeddings bawaan. Mau analisis gambar? Pull llava:7b, upload foto, tanyakan berapa jumlah kucing—jawabnya tepat.

  • Bandung dua model sekaligus pakai tombol “+” di pojok.
  • Temperature 0.3 bikin jawaban fokus; 0.9 bikin kreatif t kadang nyasar.
  • System prompt bisa disimpan jadi “Persona” biar tim sales pakai bahasa yang sama.

Kesimpulan

Dengan satu baris Docker kamu sudah punya Ollama GUI siap pakai. Open WebUI menghilangkan rasa takut CLI, sekaligus ngasih fitur kolaborasi tim, RAG, dan multimodal. Ingat, resource VPS menentukan kenyamanan; 16 GB RAM minimal buat 7B. Setelah jalan, jangan lupa enable HTTPS pakai reverse proxy Nginx & SSL LetsEncrypt. Selamat mencoba, dan semoga produktivitas tim makin naik!

FAQ

Apakah butuh GPU untuk run Ollama GUI?

Tidak wajib. CPU-only bisa, tapi inferensi 7B lebih cepat pakai GPU.

Bisakah ganti port 3000?

Bisa. Tambahkan -p 8080:8080 pada perintah docker run.

Model 13B berapa RAM yang dibutuhkan?

Sediakan ±32 GB RAM atau gunakan parameter quantization 4-bit.

References

Saya Sang Putu Jaya Anggara Putra, seorang digital marketing yang tinggal di Denpasar, Bali. Saya menjalankan Jay.Foll, sebuah panel media sosial yang inovatif, dan juga bekerja sebagai webmaster utama di PT Mousmedia Bali, agensi pemasaran digital yang membantu bisnis tampil lebih baik di dunia digital.