📝 你列出的這些模型是由 TrevorJS 基於 Google 發布的 Gemma 4 系列進行「去限制

AI
編輯檔案 返回列表

簡單來說,這些模型的差別主要體現在 參數架構(大小與速度) 以及 檔案格式(是否能在一般電腦運行)。以下為你詳細拆解:

1. 核心規格差別 (E2B vs E4B vs 26B vs 31B)

Gemma 4 這一代引入了新的命名方式,主要分為「邊緣裝置版」與「高效能版」:

模型名稱 類型 參數特性 適合場景
E2B (Effective 2B) 輕量級 實際運算約 23 億參數,極致省電與低延遲。 手機、Raspberry Pi、超低配電腦。
E4B (Effective 4B) 輕量級 實際運算約 45 億參數,性能與體積的平衡點。 一般筆電、平板,具備不錯的邏輯能力。
26B-A4B MoE (混合專家) 總參數 260 億,但每次推理僅激活約 40 億參數。 推薦首選。擁有 26B 的智慧,但速度接近 4B。
31B Dense (密集型) 310 億參數全量運算,邏輯最強、最穩定。 工作站、高階顯卡 (RTX 3090/4090),追求最高品質。

2. 模型後綴的含義

  • -it: 代表 Instruction Tuned。這意味著模型經過對話微調,擅長聽從指令(如:幫我寫程式、翻譯、角色扮演),而不是單純的接龍。

     

  • -uncensored: 代表去限制。TrevorJS 使用了「Abliteration(消融技術)」移除了 Google 原生模型的安全過濾器。它不會再對你說「抱歉,我不能回答這個問題」,適合需要高自由度創意寫作或無限制對話的使用者。

     

  • -GGUF: 這是專為 llama.cppLM Studio 設計的格式。如果你是在個人電腦(Windows/Mac)上使用 CPU 或消費級 GPU 運行,一定要選 GGUF 版。非 GGUF 版(通常是 Safetensors)主要是給開發者或在雲端 GPU 伺服器運行的。

     


3. 我該選哪一個?

  • 如果你追求「性價比」(速度快且聰明):

    gemma-4-26B-A4B-it-uncensored-GGUF

    它的 MoE 架構讓你用中階顯卡就能跑出頂級模型的邏輯,反應非常流暢。

  • 如果你只有一般筆電或沒有顯卡:

    gemma-4-E4B-it-uncensored-GGUF

    它的體積小,對記憶體壓力輕,且 Gemma 4 的 E4B 性能已經能超越很多舊款的 7B 模型。

  • 如果你有 24GB VRAM 以上的高端顯卡:

    gemma-4-31B-it-uncensored-GGUF

    雖然慢一點,但它是目前該系列中推理深度最強的版本。

     

總結建議

對於大多數台灣玩家,直接下載 26B-A4B-it-uncensored-GGUF 並配合 LM Studio 使用,通常會得到最佳的體驗。