
QWEN STUDIO HUGGING FACE MODELSCOPE DISCORD
繼 Qwen3.6-Plus 推出後,我們很高興正式開源 Qwen3.6-35B-A3B —— 這是一款稀疏但功能強大的混合專家(MoE)模型,總參數量達 350 億,但每次推理僅激活 30 億參數。儘管效率極高,Qwen3.6-35B-A3B 仍展現出卓越的代理編碼(Agentic Coding)效能,大幅超越前代 Qwen3.5-35B-A3B,並能與 Qwen3.5-27B 和 Gemma4-31B 等更大規模的稠密模型相抗衡。Qwen3.6-35B-A3B 同時支援多模態思考與非思考模式,是當前最通用的開源模型之一。現在,Qwen3.6-35B-A3B 已於 Qwen Studio 上線,可透過 API 使用,並以開放權重形式供社群自由下載。
- Qwen3.6-35B-A3B 是一款完全開源的 MoE 模型(總參數 35B / 激活參數 3B),具備以下特色:
- 卓越的代理編碼能力,效能可與更大規模模型競爭
- 強大的多模態感知與推理能力
- 您可在 Qwen Studio 上進行互動對話,透過 阿里雲 Model Studio API 以
Qwen3.6-Flash名稱呼叫(即將上線),或從 Hugging Face 和 ModelScope 下載模型權重。

效能表現#
以下我們針對 Qwen3.6-35B-A3B 在多項任務與多模態面向上,與同級距模型進行全面評估。
語言能力#
僅需激活 30 億參數,Qwen3.6-35B-A3B 在多項關鍵編碼基準測試中勝過稠密的 270 億參數模型 Qwen3.5-27B,並大幅超越其前代 Qwen3.5-35B-A3B,尤其在代理編碼與推理任務上表現突出。
| Qwen3.5-27B | Gemma4-31B | Qwen3.5-35BA3B | Gemma4-26BA4B | Qwen3.6-35BA3B | |
|---|---|---|---|---|---|
| 編碼代理(Coding Agent) | |||||
| SWE-bench Verified | 75.0 | 52.0 | 70.0 | 17.4 | 73.4 |
| SWE-bench Multilingual | 69.3 | 51.7 | 60.3 | 17.3 | 67.2 |
| SWE-bench Pro | 51.2 | 35.7 | 44.6 | 13.8 | 49.5 |
| Terminal-Bench 2.0 | 41.6 | 42.9 | 40.5 | 34.2 | 51.5 |
| Claw-Eval Avg | 64.3 | 48.5 | 65.4 | 58.8 | 68.7 |
| Claw-Eval Pass^3 | 46.2 | 25.0 | 51.0 | 28.0 | 50.0 |
| SkillsBench Avg5 | 27.2 | 23.6 | 4.4 | 12.3 | 28.7 |
| QwenClawBench | 52.2 | 41.7 | 47.7 | 38.7 | 52.6 |
| NL2Repo | 27.3 | 15.5 | 20.5 | 11.6 | 29.4 |
| QwenWebBench | 1068 | 1197 | 978 | 1178 | 1397 |
| 通用代理(General Agent) | |||||
| TAU3-Bench | 68.4 | 67.5 | 68.9 | 59.0 | 67.2 |
| VITA-Bench | 41.8 | 43.0 | 29.1 | 36.9 | 35.6 |
| DeepPlanning | 22.6 | 24.0 | 22.8 | 16.2 | 25.9 |
| Tool Decathlon | 31.5 | 21.2 | 28.7 | 12.0 | 26.9 |
| MCPMark | 36.3 | 18.1 | 27.0 | 14.2 | 37.0 |
| MCP-Atlas | 68.4 | 57.2 | 62.4 | 50.0 | 62.8 |
| WideSearch | 66.4 | 35.2 | 59.1 | 38.3 | 60.1 |
| 知識(Knowledge) | |||||
| MMLU-Pro | 86.1 | 85.2 | 85.3 | 82.6 | 85.2 |
| MMLU-Redux | 93.2 | 93.7 | 93.3 | 92.7 | 93.3 |
| SuperGPQA | 65.6 | 65.7 | 63.4 | 61.4 | 64.7 |
| C-Eval | 90.5 | 82.6 | 90.2 | 82.5 | 90.0 |
| STEM 與推理(STEM & Reasoning) | |||||
| GPQA | 85.5 | 84.3 | 84.2 | 82.3 | 86.0 |
| HLE | 24.3 | 19.5 | 22.4 | 8.7 | 21.4 |
| LiveCodeBench v6 | 80.7 | 80.0 | 74.6 | 77.1 | 80.4 |
| HMMT Feb 25 | 92.0 | 88.7 | 89.0 | 91.7 | 90.7 |
| HMMT Nov 25 | 89.8 | 87.5 | 89.2 | 87.5 | 89.1 |
| HMMT Feb 26 | 84.3 | 77.2 | 78.7 | 79.0 | 83.6 |
| IMOAnswerBench | 79.9 | 74.5 | 76.8 | 74.3 | 78.9 |
| AIME26 | 92.6 | 89.2 | 91.0 | 88.3 | 92.7 |
* SWE-Bench 系列:使用內部代理架構(bash + 檔案編輯工具);temp=1.0, top_p=0.95, 200K 上下文視窗。我們修正了 SWE-bench Pro 公開數據集中部分有問題的任務,並在優化後的基準上評估所有基線模型。
* Terminal-Bench 2.0:使用 Harbor/Terminus-2 測試框架;超時設定 3 小時,32 CPU/48 GB RAM;temp=1.0, top_p=0.95, top_k=20, max_tokens=80K, 256K 上下文;取 5 次運行的平均值。
* SkillsBench:透過 OpenCode 評估 78 項任務(自包含子集,排除依賴 API 的任務);取 5 次運行的平均值。
* NL2Repo:其他模型透過 Claude Code 評估(temp=1.0, top_p=0.95, max_turns=900)。
* QwenClawBench:內部真實用戶分佈的 Claw 代理基準測試(即將開源);temp=0.6, 256K 上下文。
* QwenWebBench:內部前端程式碼生成基準;雙語(英/中),7 大類別(網頁設計、網頁應用、遊戲、SVG、數據可視化、動畫與 3D);自動渲染 + 多模態評判(程式碼/視覺正確性);BT/Elo 評分系統。
* TAU3-Bench:使用官方用戶模型(gpt-5.2,低推理 effort)+ 預設 BM25 檢索。
* VITA-Bench:子領域平均分數;使用 claude-4-sonnet 作為評判,因官方評判(claude-3.7-sonnet)已無法使用。
* MCPMark:GitHub MCP v0.30.3;Playwright 回應截斷至 32K tokens。
* MCP-Atlas:公開數據集分數;使用 gemini-2.5-pro 作為評判。
* AIME 26:使用完整 AIME 2026(I & II),分數可能與 Qwen 3.5 筆記不同。
視覺語言能力#
Qwen3.6 原生支援多模態,Qwen3.6-35B-A3B 展現出遠超其規模的感知與多模態推理能力,僅激活約 30 億參數。在多數視覺語言基準測試中,其表現與 Claude Sonnet 4.5 相當,甚至在多項任務中超越後者。其優勢尤其體現在空間智能上,於 RefCOCO 達到 92.0 分,於 ODInW13 達到 50.8 分。
| Qwen3.5-27B | Claude-Sonnet-4.5 | Gemma4-31B | Gemma4-26BA4B | Qwen3.5-35B-A3B | Qwen3.6-35B-A3B | |
|---|---|---|---|---|---|---|
| STEM 與謎題(STEM and Puzzle) | ||||||
| MMMU | 82.3 | 79.6 | 80.4 | 78.4 | 81.4 | 81.7 |
| MMMU-Pro | 75.0 | 68.4 | 76.9* | 73.8* | 75.1 | 75.3 |
| Mathvista(mini) | 87.8 | 79.8 | 79.3 | 79.4 | 86.2 | 86.4 |
| ZEROBench_sub | 36.2 | 26.3 | 26.0 | 26.3 | 34.1 | 34.4 |
| 通用視覺問答(General VQA) | ||||||
| RealWorldQA | 83.7 | 70.3 | 72.3 | 72.2 | 84.1 | 85.3 |
| MMBenchEN-DEV-v1.1 | 92.6 | 88.3 | 90.9 | 89.0 | 91.5 | 92.8 |
| SimpleVQA | 56.0 | 57.6 | 52.9 | 52.2 | 58.3 | 58.9 |
| HallusionBench | 70.0 | 59.9 | 67.4 | 66.1 | 67.9 | 69.8 |
| 文字識別與文件理解(Text Recognition and Document Understanding) | ||||||
| OmniDocBench1.5 | 88.9 | 85.8 | 80.1 | 74.4 | 89.3 | 89.9 |
| CharXiv(RQ) | 79.5 | 67.2 | 67.9 | 69.0 | 77.5 | 78.0 |
| CC-OCR | 81.0 | 68.1 | 75.7 | 74.5 | 80.7 | 81.9 |
| AI2D_TEST | 92.9 | 87.0 | 89.0 | 88.3 | 92.6 | 92.7 |
| 空間智能(Spatial Intelligence) | ||||||
| RefCOCO(avg) | 90.9 | -- | -- | -- | 89.2 | 92.0 |
| ODInW13 | 41.1 | -- | -- | -- | 42.6 | 50.8 |
| EmbSpatialBench | 84.5 | 71.8 | -- | -- | 83.1 | 84.3 |
| RefSpatialBench | 67.7 | -- | -- | -- | 63.5 | 64.3 |
| 影片理解(Video Understanding) | ||||||
| VideoMME(w sub.) | 87.0 | 81.1 | -- | -- | 86.6 | 86.6 |
| VideoMME(w/o sub.) | 82.8 | 75.3 | -- | -- | 82.5 | 82.5 |
| VideoMMMU | 82.3 | 77.6 | 81.6 | 76.0 | 80.4 | 83.7 |
| MLVU | 85.9 | 72.8 | -- | -- | 85.6 | 86.2 |
| MVBench | 74.6 | -- | -- | -- | 74.8 | 74.6 |
| LVBench | 73.6 | -- | -- | -- | 71.4 | 71.4 |
* 空白儲存格(--)表示無分數或不適用。
使用 Qwen3.6-35B-A3B 進行開發#
- Qwen3.6-35B-A3B 即將登陸阿里雲 Model Studio,敬請稍候,待我們準備就緒。
Qwen3.6-35B-A3B 已於 Hugging Face 和 ModelScope 開放權重供自行部署,並可透過 阿里雲 Model Studio API 以 qwen3.6-flash 名稱使用。您也可立即於 Qwen Studio 體驗。
本模型可無縫整合至熱門的第三方編碼助手,包括 OpenClaw、Claude Code 與 Qwen Code,以簡化開發流程並實現高效、具情境感知能力的編碼體驗。
API 使用方式#
本次發布支援 preserve_thinking 功能:保留訊息中所有先前回合的思考內容,強烈建議用於代理任務。
阿里雲 Model Studio#
阿里雲 Model Studio 支援業界標準協議,包括與 OpenAI 規格相容的聊天完成(chat completions)與回應 API,以及與 Anthropic 相容的 API 介面。
以下提供聊天完成 API 的範例程式碼:
python""" 環境變數(依官方文件): DASHSCOPE_API_KEY:您的 API 金鑰,取自 https://modelstudio.console.alibabacloud.com DASHSCOPE_BASE_URL:(選填)相容模式 API 的基礎 URL。 - 北京:https://dashscope.aliyuncs.com/compatible-mode/v1 - 新加坡:https://dashscope-intl.aliyuncs.com/compatible-mode/v1 - 美國(維吉尼亞):https://dashscope-us.aliyuncs.com/compatible-mode/v1 DASHSCOPE_MODEL:(選填)模型名稱,可替換為其他模型。 """from openai import OpenAIimport os
api_key = os.environ.get("DASHSCOPE_API_KEY")if not api_key: raise ValueError( "需要 DASHSCOPE_API_KEY。" "請設定:export DASHSCOPE_API_KEY='your-api-key'" )
client = OpenAI( api_key=api_key, base_url=os.environ.get( "DASHSCOPE_BASE_URL", "https://dashscope-intl.aliyuncs.com/compatible-mode/v1", ),)
messages = [{"role": "user", "content": "介紹一下 vibe coding。"}]
model = os.environ.get( "DASHSCOPE_MODEL", "qwen3.6-flash",)completion = client.chat.completions.create( model=model, messages=messages, extra_body={ "enable_thinking": True, # "preserve_thinking": True, }, stream=True)
reasoning_content = "" # 完整推理軌跡answer_content = "" # 完整回應is_answering = False # 是否已進入回答階段print("\n" + "=" * 20 + "推理" + "=" * 20 + "\n")
for chunk in completion: if not chunk.choices: print("\n用量:") print(chunk.usage) continue
delta = chunk.choices[0].delta
# 僅收集推理內容 if hasattr(delta, "reasoning_content") and delta.reasoning_content is not None: if not is_answering: print(delta.reasoning_content, end="", flush=True) reasoning_content += delta.reasoning_content
# 收到內容,開始回答階段 if hasattr(delta, "content") and delta.content: if not is_answering: print("\n" + "=" * 20 + "回答" + "=" * 20 + "\n") is_answering = True print(delta.content, end="", flush=True) answer_content += delta.content更多資訊請參閱 API 文件。
編碼與代理應用#
Qwen3.6-35B-A3B 具備出色的代理編碼能力,可無縫整合至熱門的第三方編碼助手,包括 OpenClaw、Claude Code 與 Qwen Code。
OpenClaw#
Qwen3.6-35B-A3B 與 OpenClaw(前稱 Moltbot / Clawdbot)相容,這是一款可自行部署的開源 AI 編碼代理。將其連接至 Model Studio,即可在終端機中獲得完整的代理編碼體驗。請依以下腳本開始使用:
bash# Node.js 22+curl -fsSL https://molt.bot/install.sh | bash # macOS / Linux
# 設定您的 API 金鑰export DASHSCOPE_API_KEY=<your_api_key>
# 啟動 OpenClawopenclaw dashboard # 網頁瀏覽器# openclaw tui # 開啟新終端機並啟動 TUI首次使用時,請編輯 ~/.openclaw/openclaw.json 將 OpenClaw 指向 Model Studio。找出或建立以下欄位並合併 — 請勿覆蓋整個檔案 以保留既有設定:
json{ "models": { "mode": "merge", "providers": { "modelstudio": { "baseUrl": "https://dashscope-intl.aliyuncs.com/compatible-mode/v1", "apiKey": "DASHSCOPE_API_KEY", "api": "openai-completions", "models": [ { "id": "qwen3.6-flash", "name": "qwen3.6-flash", "reasoning": true, "input": ["text", "image"], "contextWindow": 131072, "maxTokens": 16384 } ] } } }, "agents": { "defaults": { "model": { "primary": "modelstudio/qwen3.6-flash" }, "models": { "modelstudio/qwen3.6-flash": {} } } }}Qwen Code#
Qwen3.6-35B-A3B 與 Qwen Code 相容,這是一款專為終端機設計並針對 Qwen 系列深度優化的開源 AI 代理。請依以下腳本開始使用:
bash# Node.js 20+npm install -g @qwen-code/qwen-code@latest
# 啟動 Qwen Code(互動模式)qwen
# 接著在會話中:/help /auth 首次使用時,系統將提示您登入。您可隨時執行 /auth 切換認證方式。
Claude Code#
Qwen API 亦支援 Anthropic API 協議,因此您可將其用於 Claude Code 等工具,以提升編碼體驗:
bash# 安裝 Claude Codenpm install -g @anthropic-ai/claude-code
# 設定環境變數export ANTHROPIC_MODEL="qwen3.6-flash"export ANTHROPIC_SMALL_FAST_MODEL="qwen3.6-flash"export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic export ANTHROPIC_AUTH_TOKEN=<your_api_key>
# 啟動 CLIclaude 總結#
Qwen3.6-35B-A3B 證明了稀疏 MoE 模型能實現卓越的代理編碼與推理能力。僅激活 30 億參數,其效能即可媲美規模數倍於己的稠密模型,同时在多模態基準測試中表現優異。作為完全開源的檢查點,它為同等規模模型樹立了新標竿。
展望未來,我們將持續擴展 Qwen3.6 開源家族,並推動高效能開源模型的能力邊界。感謝社群的反饋,我們期待看見您用 Qwen3.6-35B-A3B 建構出的精彩應用。此外,Qwen3.6 開源家族持續擴增中,敬請期待後續發布!
引用#
若您覺得 Qwen3.6-35B-A3B 對您有所幫助,歡迎引用以下文章:
bibtex@misc{qwen36_35b_a3b, title = {{Qwen3.6-35B-A3B}: Agentic Coding Power, Now Open to All}, url = {https://qwen.ai/blog?id=qwen3.6-35b-a3b}, author = {{Qwen Team}}, month = {April}, year = {2026}}