Qwen3.6-35B-A3B是什麼
Qwen3.6-35B-A3B是阿里通義千問團隊推出的開源混合專家(MoE)模型,總參數量350億,激活參數30億。模型主打極致推理效率與智能體編程能力,在多項編程基準測試中超越參數規模更大的稠密模型Qwen3.5-27B,顯著優於谷歌最新發布的Gemma 4系列模型。作爲Qwen3.6系列的首個開源版本,原生支持多模態感知與推理,視覺語言能力已與Claude Sonnet 4.5持平甚至部分超越,是當前最具通用性的開源模型之一。

Qwen3.6-35B-A3B的主要功能
- 智能體編程:模型具備卓越的Agentic Coding能力,在SWE-bench、Terminal-Bench等編程基準上表現優異,可無縫集成到OpenClaw、Claude Code、Qwen Code等第三方編程助手中。
- 多模態感知與推理:原生支持視覺語言理解,在MMMU、RealWorldQA等視覺問答基準上表現突出,空間智能優勢顯著(RefCOCO 92.0、ODInW13 50.8)。
- 雙模式推理:支持思考模式(複雜推理)與非思考模式(快速響應)靈活切換,適應不同任務場景需求。
- 高效推理:採用稀疏MoE架構,僅激活30億參數即可實現與數倍規模稠密模型相當的性能,大幅降低推理成本。
- 工具調用與MCP支持:支持函數調用、代碼解釋器及MCP(Model Context Protocol),可連接外部工具和API完成複雜任務。
- 長上下文處理:支持200K上下文窗口,能夠處理長文檔理解、長程代碼生成等任務。
如何使用Qwen3.6-35B-A3B
- 在線體驗:訪問 Qwen Studio 官網(https://chat.qwen.ai/),無需註冊可直接開始對話,支持文本與圖片輸入,即時體驗模型的編程與多模態能力。
- API 調用(生產部署)
-
阿里雲百鍊平台:登錄阿里雲百鍊控制檯,選擇模型
qwen3.6-flash創建 API Key。支持標準 OpenAI 協議(Chat Completions/Responses API)及 Anthropic 協議,可無縫替換現有 GPT/Claude 接口。調用時建議開啓preserve_thinking參數以保留思維鏈,優化智能體任務表現。 -
本地部署:從 Hugging Face下載開源權重,使用 vLLM、Ollama 或 Transformers 加載。
-
- 第三方工具集成
-
OpenClaw:在配置文件中設置 Base URL 爲阿里雲百鍊端點,填入 API Key,選擇模型名稱
qwen3.6-flash,即可在終端中使用該模型替代默認編碼助手。 -
Qwen Code:專爲 Qwen 系列優化的開源終端 AI 智能體,首次運行輸入
/auth完成阿里雲百鍊認證,系統自動識別並調用 Qwen3.6-35B-A3B 進行代碼生成與工具調用。 -
Claude Code:因 API 兼容 Anthropic 協議,可直接在 Claude Code 配置中替換端點地址與模型名稱,獲得具備視覺能力的編碼體驗。
-
Qwen3.6-35B-A3B的關鍵信息和使用要求
-
開源協議:模型權重完全開源,支持本地部署與商用,可在Hugging Face和ModelScope平台下載。
-
在線體驗:通過Qwen Studio可直接交互對話,無需部署可體驗完整功能。
-
API調用:即將支持阿里雲百鍊API,調用名稱爲
qwen3.6-flash,兼容OpenAI規範的Chat Completions和Responses API,以及Anthropic API協議。 -
硬件要求:相比稠密模型大幅降低本地部署門檻,僅需支持30億激活參數的顯存即可運行,適合個人開發者本地部署。
-
第三方集成:已適配OpenClaw(Moltbot)、Qwen Code、Claude Code等主流AI編程助手,可直接接入現有開發工作流。
-
特色功能:API支持
preserve_thinking參數,可在消息中保留前序輪次的思維內容,推薦用於複雜智能體任務。
Qwen3.6-35B-A3B的核心優勢
-
極致參數效率:3B激活參數可在編程、推理任務上超越27B稠密模型,實現”小身材大能量”的推理經濟性。
-
頂尖智能體編程能力:在SWE-bench Verified(73.4)、Terminal-Bench 2.0(51.5)等權威編程基準上領先同規模甚至更大規模模型。
-
視覺能力對標閉源模型:多模態表現與Claude Sonnet 4.5持平,空間智能(RefCOCO 92.0)和文檔理解能力尤爲突出。
-
全場景生態兼容:同時支持OpenAI與Anthropic API協議,可無縫替換現有工作流中的模型,降低遷移成本。
Qwen3.6-35B-A3B的項目地址
- HuggingFace模型庫:https://huggingface.co/Qwen/Qwen3.6-35B-A3B
Qwen3.6-35B-A3B的同類競品對比
| 對比維度 | Qwen3.6-35B-A3B | Qwen3.5-27B | Gemma 4-31B |
|---|---|---|---|
| 架構類型 | MoE(稀疏) | Dense(稠密) | Dense(稠密) |
| 總參數量 | 35B | 27B | 31B |
| 激活參數量 | 3B | 27B(全激活) | 31B(全激活) |
| SWE-bench Verified | 73.4 | 75.0 | 52.0 |
| Terminal-Bench 2.0 | 51.5 | 41.6 | 42.9 |
| MMMU(多模態) | 81.7 | 82.3 | 80.4 |
| RealWorldQA | 85.3 | 83.7 | 72.3 |
| 開源協議 | Apache 2.0(可商用) | Apache 2.0 | Apache 2.0 |
| 上下文長度 | 200K | 128K | 128K |
| 多模態支持 | 原生支持 | 需額外適配 | 部分支持 |
| 智能體優化 | 深度優化 | 基礎支持 | 基礎支持 |
| 部署成本 | 低(僅需3B顯存) | 高(需27B顯存) | 高(需31B顯存) |
Qwen3.6-35B-A3B的應用場景
-
AI輔助編程:自動化代碼生成、Bug修復、代碼重構及代碼審查,可集成到IDE作爲智能編程助手使用。
-
智能體開發:構建能夠調用工具、瀏覽網頁、執行代碼的自主Agent,用於自動化運維、數據分析等工作流。
-
多模態內容理解:處理圖文混合的文檔分析、圖表解讀、視覺問答及視頻內容理解任務。
-
端側與邊緣部署:因激活參數少、推理效率高,適合部署在資源受限的端側設備或邊緣服務器上提供本地化AI服務。
-
教育科研:作爲開源基座模型用於學術研究、算法教學或領域特定的微調訓練。
© 版權聲明
文章版权归作者所有,未经允许请勿转载。
相關文章
暫無評論...