Qwen3.6-35B-A3B:高效能開源混合專家模型正式發布

Qwen3.6-35B-A3B 主圖

QWEN STUDIO HUGGING FACE MODELSCOPE DISCORD

Qwen3.6-Plus 推出後,我們很高興正式開源 Qwen3.6-35B-A3B —— 這是一款稀疏但功能強大的混合專家(MoE)模型,總參數量達 350 億,但每次推理僅激活 30 億參數。儘管效率極高,Qwen3.6-35B-A3B 仍展現出卓越的代理編碼(Agentic Coding)效能,大幅超越前代 Qwen3.5-35B-A3B,並能與 Qwen3.5-27B 和 Gemma4-31B 等更大規模的稠密模型相抗衡。Qwen3.6-35B-A3B 同時支援多模態思考與非思考模式,是當前最通用的開源模型之一。現在,Qwen3.6-35B-A3B 已於 Qwen Studio 上線,可透過 API 使用,並以開放權重形式供社群自由下載。

  • Qwen3.6-35B-A3B 是一款完全開源的 MoE 模型(總參數 35B / 激活參數 3B),具備以下特色:
    • 卓越的代理編碼能力,效能可與更大規模模型競爭
    • 強大的多模態感知與推理能力
  • 您可在 Qwen Studio 上進行互動對話,透過 阿里雲 Model Studio APIQwen3.6-Flash 名稱呼叫(即將上線),或從 Hugging FaceModelScope 下載模型權重。

效能表現#

以下我們針對 Qwen3.6-35B-A3B 在多項任務與多模態面向上,與同級距模型進行全面評估。

語言能力#

僅需激活 30 億參數,Qwen3.6-35B-A3B 在多項關鍵編碼基準測試中勝過稠密的 270 億參數模型 Qwen3.5-27B,並大幅超越其前代 Qwen3.5-35B-A3B,尤其在代理編碼與推理任務上表現突出。

Qwen3.5-27BGemma4-31BQwen3.5-35BA3BGemma4-26BA4BQwen3.6-35BA3B
編碼代理(Coding Agent)
SWE-bench Verified75.052.070.017.473.4
SWE-bench Multilingual69.351.760.317.367.2
SWE-bench Pro51.235.744.613.849.5
Terminal-Bench 2.041.642.940.534.251.5
Claw-Eval Avg64.348.565.458.868.7
Claw-Eval Pass^346.225.051.028.050.0
SkillsBench Avg527.223.64.412.328.7
QwenClawBench52.241.747.738.752.6
NL2Repo27.315.520.511.629.4
QwenWebBench1068119797811781397
通用代理(General Agent)
TAU3-Bench68.467.568.959.067.2
VITA-Bench41.843.029.136.935.6
DeepPlanning22.624.022.816.225.9
Tool Decathlon31.521.228.712.026.9
MCPMark36.318.127.014.237.0
MCP-Atlas68.457.262.450.062.8
WideSearch66.435.259.138.360.1
知識(Knowledge)
MMLU-Pro86.185.285.382.685.2
MMLU-Redux93.293.793.392.793.3
SuperGPQA65.665.763.461.464.7
C-Eval90.582.690.282.590.0
STEM 與推理(STEM & Reasoning)
GPQA85.584.384.282.386.0
HLE24.319.522.48.721.4
LiveCodeBench v680.780.074.677.180.4
HMMT Feb 2592.088.789.091.790.7
HMMT Nov 2589.887.589.287.589.1
HMMT Feb 2684.377.278.779.083.6
IMOAnswerBench79.974.576.874.378.9
AIME2692.689.291.088.392.7

* SWE-Bench 系列:使用內部代理架構(bash + 檔案編輯工具);temp=1.0, top_p=0.95, 200K 上下文視窗。我們修正了 SWE-bench Pro 公開數據集中部分有問題的任務,並在優化後的基準上評估所有基線模型。
* Terminal-Bench 2.0:使用 Harbor/Terminus-2 測試框架;超時設定 3 小時,32 CPU/48 GB RAM;temp=1.0, top_p=0.95, top_k=20, max_tokens=80K, 256K 上下文;取 5 次運行的平均值。
* SkillsBench:透過 OpenCode 評估 78 項任務(自包含子集,排除依賴 API 的任務);取 5 次運行的平均值。
* NL2Repo:其他模型透過 Claude Code 評估(temp=1.0, top_p=0.95, max_turns=900)。
* QwenClawBench:內部真實用戶分佈的 Claw 代理基準測試(即將開源);temp=0.6, 256K 上下文。
* QwenWebBench:內部前端程式碼生成基準;雙語(英/中),7 大類別(網頁設計、網頁應用、遊戲、SVG、數據可視化、動畫與 3D);自動渲染 + 多模態評判(程式碼/視覺正確性);BT/Elo 評分系統。
* TAU3-Bench:使用官方用戶模型(gpt-5.2,低推理 effort)+ 預設 BM25 檢索。
* VITA-Bench:子領域平均分數;使用 claude-4-sonnet 作為評判,因官方評判(claude-3.7-sonnet)已無法使用。
* MCPMark:GitHub MCP v0.30.3;Playwright 回應截斷至 32K tokens。
* MCP-Atlas:公開數據集分數;使用 gemini-2.5-pro 作為評判。
* AIME 26:使用完整 AIME 2026(I & II),分數可能與 Qwen 3.5 筆記不同。

視覺語言能力#

Qwen3.6 原生支援多模態,Qwen3.6-35B-A3B 展現出遠超其規模的感知與多模態推理能力,僅激活約 30 億參數。在多數視覺語言基準測試中,其表現與 Claude Sonnet 4.5 相當,甚至在多項任務中超越後者。其優勢尤其體現在空間智能上,於 RefCOCO 達到 92.0 分,於 ODInW13 達到 50.8 分。

Qwen3.5-27BClaude-Sonnet-4.5Gemma4-31BGemma4-26BA4BQwen3.5-35B-A3BQwen3.6-35B-A3B
STEM 與謎題(STEM and Puzzle)
MMMU82.379.680.478.481.481.7
MMMU-Pro75.068.476.9*73.8*75.175.3
Mathvista(mini)87.879.879.379.486.286.4
ZEROBench_sub36.226.326.026.334.134.4
通用視覺問答(General VQA)
RealWorldQA83.770.372.372.284.185.3
MMBenchEN-DEV-v1.192.688.390.989.091.592.8
SimpleVQA56.057.652.952.258.358.9
HallusionBench70.059.967.466.167.969.8
文字識別與文件理解(Text Recognition and Document Understanding)
OmniDocBench1.588.985.880.174.489.389.9
CharXiv(RQ)79.567.267.969.077.578.0
CC-OCR81.068.175.774.580.781.9
AI2D_TEST92.987.089.088.392.692.7
空間智能(Spatial Intelligence)
RefCOCO(avg)90.9------89.292.0
ODInW1341.1------42.650.8
EmbSpatialBench84.571.8----83.184.3
RefSpatialBench67.7------63.564.3
影片理解(Video Understanding)
VideoMME(w sub.)87.081.1----86.686.6
VideoMME(w/o sub.)82.875.3----82.582.5
VideoMMMU82.377.681.676.080.483.7
MLVU85.972.8----85.686.2
MVBench74.6------74.874.6
LVBench73.6------71.471.4

* 空白儲存格(--)表示無分數或不適用。

使用 Qwen3.6-35B-A3B 進行開發#

    Qwen3.6-35B-A3B 即將登陸阿里雲 Model Studio,敬請稍候,待我們準備就緒。

Qwen3.6-35B-A3B 已於 Hugging FaceModelScope 開放權重供自行部署,並可透過 阿里雲 Model Studio API 以 qwen3.6-flash 名稱使用。您也可立即於 Qwen Studio 體驗。

本模型可無縫整合至熱門的第三方編碼助手,包括 OpenClaw、Claude Code 與 Qwen Code,以簡化開發流程並實現高效、具情境感知能力的編碼體驗。

API 使用方式#

本次發布支援 preserve_thinking 功能:保留訊息中所有先前回合的思考內容,強烈建議用於代理任務

阿里雲 Model Studio#

阿里雲 Model Studio 支援業界標準協議,包括與 OpenAI 規格相容的聊天完成(chat completions)與回應 API,以及與 Anthropic 相容的 API 介面。

以下提供聊天完成 API 的範例程式碼:

python
""" 環境變數(依官方文件): DASHSCOPE_API_KEY:您的 API 金鑰,取自 https://modelstudio.console.alibabacloud.com DASHSCOPE_BASE_URL:(選填)相容模式 API 的基礎 URL。 - 北京:https://dashscope.aliyuncs.com/compatible-mode/v1 - 新加坡:https://dashscope-intl.aliyuncs.com/compatible-mode/v1 - 美國(維吉尼亞):https://dashscope-us.aliyuncs.com/compatible-mode/v1 DASHSCOPE_MODEL:(選填)模型名稱,可替換為其他模型。 """from openai import OpenAIimport os
api_key = os.environ.get("DASHSCOPE_API_KEY")if not api_key: raise ValueError( "需要 DASHSCOPE_API_KEY。" "請設定:export DASHSCOPE_API_KEY='your-api-key'" )
client = OpenAI( api_key=api_key, base_url=os.environ.get( "DASHSCOPE_BASE_URL", "https://dashscope-intl.aliyuncs.com/compatible-mode/v1", ),)
messages = [{"role": "user", "content": "介紹一下 vibe coding。"}]
model = os.environ.get( "DASHSCOPE_MODEL", "qwen3.6-flash",)completion = client.chat.completions.create( model=model, messages=messages, extra_body={ "enable_thinking": True, # "preserve_thinking": True, }, stream=True)
reasoning_content = "" # 完整推理軌跡answer_content = "" # 完整回應is_answering = False # 是否已進入回答階段print("\n" + "=" * 20 + "推理" + "=" * 20 + "\n")
for chunk in completion: if not chunk.choices: print("\n用量:") print(chunk.usage) continue
delta = chunk.choices[0].delta
# 僅收集推理內容 if hasattr(delta, "reasoning_content") and delta.reasoning_content is not None: if not is_answering: print(delta.reasoning_content, end="", flush=True) reasoning_content += delta.reasoning_content
# 收到內容,開始回答階段 if hasattr(delta, "content") and delta.content: if not is_answering: print("\n" + "=" * 20 + "回答" + "=" * 20 + "\n") is_answering = True print(delta.content, end="", flush=True) answer_content += delta.content

更多資訊請參閱 API 文件

編碼與代理應用#

Qwen3.6-35B-A3B 具備出色的代理編碼能力,可無縫整合至熱門的第三方編碼助手,包括 OpenClaw、Claude Code 與 Qwen Code。

OpenClaw#

Qwen3.6-35B-A3B 與 OpenClaw(前稱 Moltbot / Clawdbot)相容,這是一款可自行部署的開源 AI 編碼代理。將其連接至 Model Studio,即可在終端機中獲得完整的代理編碼體驗。請依以下腳本開始使用:

bash
# Node.js 22+curl -fsSL https://molt.bot/install.sh | bash # macOS / Linux
# 設定您的 API 金鑰export DASHSCOPE_API_KEY=<your_api_key>
# 啟動 OpenClawopenclaw dashboard # 網頁瀏覽器# openclaw tui # 開啟新終端機並啟動 TUI

首次使用時,請編輯 ~/.openclaw/openclaw.json 將 OpenClaw 指向 Model Studio。找出或建立以下欄位並合併 — 請勿覆蓋整個檔案 以保留既有設定:

json
{ "models": { "mode": "merge", "providers": { "modelstudio": { "baseUrl": "https://dashscope-intl.aliyuncs.com/compatible-mode/v1", "apiKey": "DASHSCOPE_API_KEY", "api": "openai-completions", "models": [ { "id": "qwen3.6-flash", "name": "qwen3.6-flash", "reasoning": true, "input": ["text", "image"], "contextWindow": 131072, "maxTokens": 16384 } ] } } }, "agents": { "defaults": { "model": { "primary": "modelstudio/qwen3.6-flash" }, "models": { "modelstudio/qwen3.6-flash": {} } } }}

Qwen Code#

Qwen3.6-35B-A3B 與 Qwen Code 相容,這是一款專為終端機設計並針對 Qwen 系列深度優化的開源 AI 代理。請依以下腳本開始使用:

bash
# Node.js 20+npm install -g @qwen-code/qwen-code@latest
# 啟動 Qwen Code(互動模式)qwen
# 接著在會話中:/help /auth

首次使用時,系統將提示您登入。您可隨時執行 /auth 切換認證方式。

Claude Code#

Qwen API 亦支援 Anthropic API 協議,因此您可將其用於 Claude Code 等工具,以提升編碼體驗:

bash
# 安裝 Claude Codenpm install -g @anthropic-ai/claude-code
# 設定環境變數export ANTHROPIC_MODEL="qwen3.6-flash"export ANTHROPIC_SMALL_FAST_MODEL="qwen3.6-flash"export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic export ANTHROPIC_AUTH_TOKEN=<your_api_key>
# 啟動 CLIclaude

總結#

Qwen3.6-35B-A3B 證明了稀疏 MoE 模型能實現卓越的代理編碼與推理能力。僅激活 30 億參數,其效能即可媲美規模數倍於己的稠密模型,同时在多模態基準測試中表現優異。作為完全開源的檢查點,它為同等規模模型樹立了新標竿。

展望未來,我們將持續擴展 Qwen3.6 開源家族,並推動高效能開源模型的能力邊界。感謝社群的反饋,我們期待看見您用 Qwen3.6-35B-A3B 建構出的精彩應用。此外,Qwen3.6 開源家族持續擴增中,敬請期待後續發布!

引用#

若您覺得 Qwen3.6-35B-A3B 對您有所幫助,歡迎引用以下文章:

bibtex
@misc{qwen36_35b_a3b, title = {{Qwen3.6-35B-A3B}: Agentic Coding Power, Now Open to All}, url = {https://qwen.ai/blog?id=qwen3.6-35b-a3b}, author = {{Qwen Team}}, month = {April}, year = {2026}}
相關文章推薦

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.