這個錯誤很清楚,問題是 qwen2.5:7b 的上下文視窗只有 32,768 tokens,但 Hermes Agent 要求至少 64,000 tokens。
以下是解決方法:
方法一 — 換一個支援 64K+ 上下文的模型(推薦)
先用 Ollama 下載較大的模型:
bash
ollama pull llama3.1:8b
然後修改 config.yaml:
yaml
auxiliary:
compression:
model: llama3.1:8b
常見支援 64K+ 的模型選擇:
llama3.1:8b(128K)qwen2.5:14b(128K)mistral-nemo(128K)
方法二 — 強制覆蓋上下文長度
如果您的 qwen2.5:7b 其實已設定更大的 num_ctx,可以直接告訴 Agent 忽略偵測到的值:
yaml
auxiliary:
compression:
model: qwen2.5:7b
context_length: 65536
方法三 — 在 Ollama 中設定更大的 num_ctx
bash
ollama run qwen2.5:7b --num-ctx 65536
或建立一個 Modelfile:
FROM qwen2.5:7b
PARAMETER num_ctx 65536
最快的解法是方法一,直接換成 llama3.1:8b。請問您知道 config.yaml 在哪個路徑嗎?我可以幫您確認設定。