你這個 http://localhost:3000 多半是本機跑的 AI 介面(常見像 Open WebUI 或類似前端),切換模型的方法會依你用的系統不同,但原則都差不多👇
🔧 常見切換模型方式
① 介面右上角切換(最簡單)
大多數 UI(像 Open WebUI)都有:
- 右上角或輸入框上方
- 一個「模型名稱下拉選單」
👉 直接點開 → 選你要的模型
例如:
llama3qwen2.5mixtralgemma
② 如果是 Open WebUI(最常見)
在 Open WebUI 裡:
- 進入畫面
- 左上或中上會看到模型名稱
- 點擊 → 選擇模型
⚠️ 如果沒看到模型:
- 代表還沒安裝(下一步)
③ 用 Ollama 安裝模型(關鍵)
如果你後端是 Ollama:
先確認有哪些模型:
如果沒有你要的,先拉模型:
ollama pull llama3
ollama pull mixtral
拉完之後 👉 回到 localhost:3000 就能選
④ API / 設定檔切換(進階)
有些系統(像你之前用 Hermes Agent)會用 config:
provider: ollama
name: qwen2.5:7b
或 .env:
⚠️ 你之前遇到的問題(提醒)
你之前有:
- ❌ 記憶體不足(gemma4 需要 9.8GB)
- ❌ context 太小(llama3 4096)
👉 建議你用:
✅ 穩定:
qwen2.5:7bmistral
❌ 先避開:
gemma4:e4b(太吃 RAM)- 小 context 模型(會被 Agent 擋)
🚀 快速結論
👉 你現在只要做這件事:
- 開
http://localhost:3000 - 找「模型下拉選單」
- 選模型
如果沒有:
👉 跑這個
如果你願意,你可以截圖 localhost:3000 畫面給我
我可以直接幫你指出「哪裡切換模型」(不同 UI 差很多)
安裝 Ollama 其實很簡單,我直接用你現在的環境(Windows 11)一步一步帶你走 👇
🧠 一、Ollama 是什麼(快速理解)
Ollama = 本機跑 AI 模型的工具
👉 讓你可以在 localhost 跑:
llama3qwen2.5mistral
不用雲端 API 👍
💻 二、Windows 安裝(最簡單)
✅ 方法 1:官方安裝(推薦)
1️⃣ 下載安裝程式
👉 到官方網站下載:
2️⃣ 執行安裝
- 雙擊
.exe - 一路 Next 就好
3️⃣ 安裝完成後會自動啟動服務
✅ 方法 2:確認是否安裝成功
打開 PowerShell 或 CMD,輸入:
有顯示版本 = 成功 🎉
📦 三、下載模型(重點)
安裝完只是「引擎」,還沒有模型!
👉 先拉一個最穩的:
或:
▶️ 四、測試模型
直接跑:
看到這樣就成功:
🌐 五、讓 localhost:3000 用到它
如果你是用:
- Open WebUI
👉 它會自動連到 Ollama(預設 API):
你只要:
- 開
http://localhost:3000 - 選模型(剛剛 pull 的)
- 開始用
⚠️ 六、你這台電腦的建議(很重要)
你之前錯誤顯示:
RAM 不夠(8.7GB)
👉 建議用:
✅ 適合你:
qwen2.5:7bmistral
❌ 先不要:
gemma4(太吃記憶體)- 大於 13B 模型
🔧 七、常見問題
❌ 指令找不到
👉 重開 PowerShell 或重開機
❌ 無法連到 localhost:11434
試:
❌ 模型跑很慢
👉 正常(CPU 跑)
👉 有 GPU 才會快很多
🚀 最快上手流程(懶人版)
直接照這樣做:
ollama pull qwen2.5:7b
ollama run qwen2.5:7b
👉 然後打開http://localhost:3000
就能選模型用了
如果你卡在某一步(例如下載失敗、跑不起來)
把錯誤貼上來,我可以幫你直接判斷是哪個環節出問題 👍