Qwen3.6-35B-A3B – 阿里通義開源的混合專家 MoE 模型

AI工具13小時前發佈新公告 AI管理員
0 0

Qwen3.6-35B-A3B是什麼

Qwen3.6-35B-A3B是阿里通義千問團隊推出的開源混合專家(MoE)模型,總參數量350億,激活參數30億。模型主打極致推理效率與智能體編程能力,在多項編程基準測試中超越參數規模更大的稠密模型Qwen3.5-27B,顯著優於谷歌最新發布的Gemma 4系列模型。作爲Qwen3.6系列的首個開源版本,原生支持多模態感知與推理,視覺語言能力已與Claude Sonnet 4.5持平甚至部分超越,是當前最具通用性的開源模型之一。

Qwen3.6-35B-A3B – 阿里通義開源的混合專家 MoE 模型

Qwen3.6-35B-A3B的主要功能

  • 智能體編程:模型具備卓越的Agentic Coding能力,在SWE-bench、Terminal-Bench等編程基準上表現優異,可無縫集成到OpenClaw、Claude Code、Qwen Code等第三方編程助手中。
  • 多模態感知與推理:原生支持視覺語言理解,在MMMU、RealWorldQA等視覺問答基準上表現突出,空間智能優勢顯著(RefCOCO 92.0、ODInW13 50.8)。
  • 雙模式推理:支持思考模式(複雜推理)與非思考模式(快速響應)靈活切換,適應不同任務場景需求。
  • 高效推理:採用稀疏MoE架構,僅激活30億參數即可實現與數倍規模稠密模型相當的性能,大幅降低推理成本。
  • 工具調用與MCP支持:支持函數調用、代碼解釋器及MCP(Model Context Protocol),可連接外部工具和API完成複雜任務。
  • 長上下文處理:支持200K上下文窗口,能夠處理長文檔理解、長程代碼生成等任務。

如何使用Qwen3.6-35B-A3B

  • 在線體驗:訪問 Qwen Studio 官網(https://chat.qwen.ai/),無需註冊可直接開始對話,支持文本與圖片輸入,即時體驗模型的編程與多模態能力。
  • API 調用(生產部署)
    • 阿里雲百鍊平台:登錄阿里雲百鍊控制檯,選擇模型 qwen3.6-flash 創建 API Key。支持標準 OpenAI 協議(Chat Completions/Responses API)及 Anthropic 協議,可無縫替換現有 GPT/Claude 接口。調用時建議開啓 preserve_thinking 參數以保留思維鏈,優化智能體任務表現。
    • 本地部署:從 Hugging Face下載開源權重,使用 vLLM、Ollama 或 Transformers 加載。
  • 第三方工具集成
    • OpenClaw:在配置文件中設置 Base URL 爲阿里雲百鍊端點,填入 API Key,選擇模型名稱 qwen3.6-flash,即可在終端中使用該模型替代默認編碼助手。
    • Qwen Code:專爲 Qwen 系列優化的開源終端 AI 智能體,首次運行輸入 /auth 完成阿里雲百鍊認證,系統自動識別並調用 Qwen3.6-35B-A3B 進行代碼生成與工具調用。
    • Claude Code:因 API 兼容 Anthropic 協議,可直接在 Claude Code 配置中替換端點地址與模型名稱,獲得具備視覺能力的編碼體驗。

Qwen3.6-35B-A3B的關鍵信息和使用要求

  • 開源協議:模型權重完全開源,支持本地部署與商用,可在Hugging Face和ModelScope平台下載。
  • 在線體驗:通過Qwen Studio可直接交互對話,無需部署可體驗完整功能。
  • API調用:即將支持阿里雲百鍊API,調用名稱爲qwen3.6-flash,兼容OpenAI規範的Chat Completions和Responses API,以及Anthropic API協議。
  • 硬件要求:相比稠密模型大幅降低本地部署門檻,僅需支持30億激活參數的顯存即可運行,適合個人開發者本地部署。
  • 第三方集成:已適配OpenClaw(Moltbot)、Qwen Code、Claude Code等主流AI編程助手,可直接接入現有開發工作流。
  • 特色功能:API支持preserve_thinking參數,可在消息中保留前序輪次的思維內容,推薦用於複雜智能體任務。

Qwen3.6-35B-A3B的核心優勢

  • 極致參數效率:3B激活參數可在編程、推理任務上超越27B稠密模型,實現”小身材大能量”的推理經濟性。
  • 頂尖智能體編程能力:在SWE-bench Verified(73.4)、Terminal-Bench 2.0(51.5)等權威編程基準上領先同規模甚至更大規模模型。
  • 視覺能力對標閉源模型:多模態表現與Claude Sonnet 4.5持平,空間智能(RefCOCO 92.0)和文檔理解能力尤爲突出。
  • 全場景生態兼容:同時支持OpenAI與Anthropic API協議,可無縫替換現有工作流中的模型,降低遷移成本。

Qwen3.6-35B-A3B的項目地址

  • HuggingFace模型庫:https://huggingface.co/Qwen/Qwen3.6-35B-A3B

Qwen3.6-35B-A3B的同類競品對比

對比維度 Qwen3.6-35B-A3B Qwen3.5-27B Gemma 4-31B
架構類型 MoE(稀疏) Dense(稠密) Dense(稠密)
總參數量 35B 27B 31B
激活參數量 3B 27B(全激活) 31B(全激活)
SWE-bench Verified 73.4 75.0 52.0
Terminal-Bench 2.0 51.5 41.6 42.9
MMMU(多模態) 81.7 82.3 80.4
RealWorldQA 85.3 83.7 72.3
開源協議 Apache 2.0(可商用) Apache 2.0 Apache 2.0
上下文長度 200K 128K 128K
多模態支持 原生支持 需額外適配 部分支持
智能體優化 深度優化 基礎支持 基礎支持
部署成本 低(僅需3B顯存) 高(需27B顯存) 高(需31B顯存)

Qwen3.6-35B-A3B的應用場景

  • AI輔助編程:自動化代碼生成、Bug修復、代碼重構及代碼審查,可集成到IDE作爲智能編程助手使用。
  • 智能體開發:構建能夠調用工具、瀏覽網頁、執行代碼的自主Agent,用於自動化運維、數據分析等工作流。
  • 多模態內容理解:處理圖文混合的文檔分析、圖表解讀、視覺問答及視頻內容理解任務。
  • 端側與邊緣部署:因激活參數少、推理效率高,適合部署在資源受限的端側設備或邊緣服務器上提供本地化AI服務。
  • 教育科研:作爲開源基座模型用於學術研究、算法教學或領域特定的微調訓練。
© 版權聲明

相關文章

暫無評論

暫無評論...