Ollama GUI: Ngobrol sama LLM tanpa CLI
Ollama memang keren, tapi ngetik perintah di terminal tiap kali mau chat sama Llama 3.1 bikin males. Open WebUI solusinya: antarmuka mirip ChatGPT yang langsung nyambung ke Ollama API. Tinggal klik, upload file, bahkan analisis gambar—semua lewat browser.
Di sini kita pakai VPS Ubuntu 22.04 minimal 4 vCPU & 16 GB RAM biar model 7B lancar jaya. Kalau spek masih 2 GB, stop dulu; nanti modelnya malah OOM. Siap? Total waktu setup ±10 menit, termasuk download image Docker.
Penyebab error saat install Ollama GUI
Paling sering gagal karena tiga hal: Docker belum running, port 8080 sudah dipakai, atau firewall cloud provider nge-block. Cek dulu dengan docker info. Kalau keluar error permission denied, berarti user belum masuk grup docker. Fix-nya satu baris:
sudo usermod -aG docker $USER && newgrp docker
Port 8080 bisa diganti kok; nanti kita map ke 3000. Firewall? Buka hPanel → Firewall → allow TCP 3000. Simple.
Langkah install Ollama + Open WebUI
- SSH ke VPS:
ssh root@IP_VPS - Install Ollama:
curl -fsSL https://ollama.com/install.sh | sh - Pastikan service aktif:
systemctl status ollama - Pull model minimal:
ollama pull llama3.1:8b - Run Open WebUI container:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_API_BASE_URL=http://127.0.0.1:11434 -p 3000:8080 --name open-webui ghcr.io/open-webui/open-webui:main
Akses & daftar admin pertama
Buka https://IP_VPS:3000. Form register muncul langsung; user pertama otomatis jadi admin. Simpan password-nya di Bitwarden, jangan di Notepad.
Jeda model, RAG & multimodal
Open WebUI bukan cuma chat biasa. Mau ganti model di tengah obrolan? Klik dropdown atas kiri, pilih Mistral 7B, lanjut chat tanpa buka tab baru. Butuh RAG? Upload PDF lewat tombol +, otomatis jadi vektor pakai embeddings bawaan. Mau analisis gambar? Pull llava:7b, upload foto, tanyakan berapa jumlah kucing—jawabnya tepat.
- Bandung dua model sekaligus pakai tombol “+” di pojok.
- Temperature 0.3 bikin jawaban fokus; 0.9 bikin kreatif t kadang nyasar.
- System prompt bisa disimpan jadi “Persona” biar tim sales pakai bahasa yang sama.
Kesimpulan
Dengan satu baris Docker kamu sudah punya Ollama GUI siap pakai. Open WebUI menghilangkan rasa takut CLI, sekaligus ngasih fitur kolaborasi tim, RAG, dan multimodal. Ingat, resource VPS menentukan kenyamanan; 16 GB RAM minimal buat 7B. Setelah jalan, jangan lupa enable HTTPS pakai reverse proxy Nginx & SSL LetsEncrypt. Selamat mencoba, dan semoga produktivitas tim makin naik!
FAQ
Tidak wajib. CPU-only bisa, tapi inferensi 7B lebih cepat pakai GPU.
Bisa. Tambahkan -p 8080:8080 pada perintah docker run.
Sediakan ±32 GB RAM atau gunakan parameter quantization 4-bit.