Qwen3.6-35B-A3B: エージェント型コーディング能力を備えたスパース MoE モデルがオープンソース化

Qwen3.6-35B-A3B メインイメージ

QWEN STUDIO HUGGING FACE MODELSCOPE DISCORD

Qwen3.6-Plus のリリースに続き、総パラメータ数 350 億、アクティブパラメータ数 30 億という、スパースでありながら驚異的な能力を発揮する混合エキスパート(MoE)モデルQwen3.6-35B-A3Bをオープンソースとして公開できることを嬉しく思います。その効率性の高さと裏腹に、Qwen3.6-35B-A3B は卓越したエージェント型コーディング性能を発揮し、前身である Qwen3.5-35B-A3B を大きく凌駕するだけでなく、Qwen3.5-27B や Gemma4-31B といった遥かに大規模な密なモデルとも互角に渡り合います。マルチモーダル思考モードと非思考モードの両方に対応し、Qwen3.6-35B-A3B は現在利用可能な最も汎用性の高いオープンソースモデルの一つです。現在、Qwen3.6-35B-A3B は Qwen Studio で利用可能であり、API 経由での提供、ならびにコミュニティ向けの重み(Open Weights)の公開が開始されました。

  • Qwen3.6-35B-A3B は完全オープンソースの MoE モデル(総計 35B / アクティブ 3B)であり、以下を特徴とします:
    • 遥かに大規模なモデルと競合する、卓越したエージェント型コーディング能力
    • 強力なマルチモーダル知覚および推論能力
  • Qwen Studio で対話的にチャットしたり、Alibaba Cloud Model Studio API(近日公開)経由でQwen3.6-Flashとして API 呼び出しを行ったり、Hugging FaceModelScope から重みをダウンロードしてご利用いただけます。
パフォーマンス比較スコア

パフォーマンス#

以下では、Qwen3.6-35B-A3B と同規模のモデルを、広範なタスクおよびモダリティにわたって包括的に評価した結果を示します。

言語#

わずか 30 億のアクティブパラメータで動作する Qwen3.6-35B-A3B は、主要なコーディングベンチマークのいくつかにおいて、密構造の 270 億パラメータモデルである Qwen3.5-27B を上回り、特にエージェント型コーディングや推論タスクにおいては、直接の前身である Qwen3.5-35B-A3B を劇的に凌駕します。

Qwen3.5-27BGemma4-31BQwen3.5-35BA3BGemma4-26BA4BQwen3.6-35BA3B
コーディングエージェント
SWE-bench Verified75.052.070.017.473.4
SWE-bench Multilingual69.351.760.317.367.2
SWE-bench Pro51.235.744.613.849.5
Terminal-Bench 2.041.642.940.534.251.5
Claw-Eval 平均64.348.565.458.868.7
Claw-Eval Pass^346.225.051.028.050.0
SkillsBench Avg527.223.64.412.328.7
QwenClawBench52.241.747.738.752.6
NL2Repo27.315.520.511.629.4
QwenWebBench1068119797811781397
汎用エージェント
TAU3-Bench68.467.568.959.067.2
VITA-Bench41.843.029.136.935.6
DeepPlanning22.624.022.816.225.9
Tool Decathlon31.521.228.712.026.9
MCPMark36.318.127.014.237.0
MCP-Atlas68.457.262.450.062.8
WideSearch66.435.259.138.360.1
知識
MMLU-Pro86.185.285.382.685.2
MMLU-Redux93.293.793.392.793.3
SuperGPQA65.665.763.461.464.7
C-Eval90.582.690.282.590.0
STEM & 推論
GPQA85.584.384.282.386.0
HLE24.319.522.48.721.4
LiveCodeBench v680.780.074.677.180.4
HMMT Feb 2592.088.789.091.790.7
HMMT Nov 2589.887.589.287.589.1
HMMT Feb 2684.377.278.779.083.6
IMOAnswerBench79.974.576.874.378.9
AIME2692.689.291.088.392.7

* SWE-Bench シリーズ:内部エージェントスキャフォールド(bash + ファイル編集ツール)。temp=1.0, top_p=0.95、200K コンテキストウィンドウ。SWE-bench Pro の公開セットにある問題のあるタスクをいくつか修正し、洗練されたベンチマークですべてのベースラインを評価しました。
* Terminal-Bench 2.0: Harbor/Terminus-2 ハーネス。3 時間タイムアウト、32 CPU/48 GB RAM。temp=1.0, top_p=0.95, top_k=20, max_tokens=80K、256K コンテキスト。5 回の実行の平均値。
* SkillsBench: OpenCode を介して 78 タスク(API 依存タスクを除く自己完結型サブセット)で評価。5 回の実行の平均値。
* NL2Repo: その他は Claude Code(temp=1.0, top_p=0.95, max_turns=900)を介して評価。
* QwenClawBench: 内部の実際のユーザー分布に基づく Claw エージェントベンチマーク(近日公開予定)。temp=0.6、256K コンテキスト。
* QwenWebBench: 内部のフロントエンドコード生成ベンチマーク。2 言語(英語/中国語)、7 カテゴリ(Web デザイン、Web アプリ、ゲーム、SVG、データ可視化、アニメーション、3D)。自動レンダリング + マルチモーダル判定(コード/視覚的正しさ)。BT/Elo レーティングシステム。
* TAU3-Bench: 公式ユーザーモデル(gpt-5.2、推論努力度低)+ デフォルトの BM25 検索を使用。
* VITA-Bench: 平均サブドメインスコア。公式判定者(claude-3.7-sonnet)が利用できなくなったため、判定者として claude-4-sonnet を使用。
* MCPMark: GitHub MCP v0.30.3。Playwright の応答は 32K トークンで切り捨て。
* MCP-Atlas: 公開セットのスコア。判定者は gemini-2.5-pro。
* AIME 26: 完全な AIME 2026(I & II)を使用。スコアは Qwen 3.5 の注記と異なる場合があります。

ビジョン・ランゲージ#

Qwen3.6 はネイティブにマルチモーダルであり、Qwen3.6-35B-A3B は、わずか 30 億程度のアクティブパラメータでありながら、そのサイズからは想像もつかないほどの知覚およびマルチモーダル推論能力を示しています。ほとんどのビジョン・ランゲージベンチマークにおいて、そのパフォーマンスは Claude Sonnet 4.5 と同等か、いくつかのタスクではそれを凌駕しています。その強さは空間知能において特に顕著であり、RefCOCO で 92.0、ODInW13 で 50.8 を達成しています。

Qwen3.5-27BClaude-Sonnet-4.5Gemma4-31BGemma4-26BA4BQwen3.5-35B-A3BQwen3.6-35B-A3B
STEM およびパズル
MMMU82.379.680.478.481.481.7
MMMU-Pro75.068.476.9*73.8*75.175.3
Mathvista(mini)87.879.879.379.486.286.4
ZEROBench_sub36.226.326.026.334.134.4
汎用 VQA
RealWorldQA83.770.372.372.284.185.3
MMBenchEN-DEV-v1.192.688.390.989.091.592.8
SimpleVQA56.057.652.952.258.358.9
HallusionBench70.059.967.466.167.969.8
テキスト認識およびドキュメント理解
OmniDocBench1.588.985.880.174.489.389.9
CharXiv(RQ)79.567.267.969.077.578.0
CC-OCR81.068.175.774.580.781.9
AI2D_TEST92.987.089.088.392.692.7
空間知能
RefCOCO(avg)90.9------89.292.0
ODInW1341.1------42.650.8
EmbSpatialBench84.571.8----83.184.3
RefSpatialBench67.7------63.564.3
動画理解
VideoMME(字幕あり)87.081.1----86.686.6
VideoMME(字幕なし)82.875.3----82.582.5
VideoMMMU82.377.681.676.080.483.7
MLVU85.972.8----85.686.2
MVBench74.6------74.874.6
LVBench73.6------71.471.4

* 空のセル(--)は、スコアが利用できないか、該当しないことを示します。

Qwen3.6-35B-A3B で構築する#

    Qwen3.6-35B-A3B は近日中に Alibaba Cloud Model Studio に登場します。完全な準備が整うまで、今しばらくお待ちください。

Qwen3.6-35B-A3B は、セルフホスティング向けに Hugging Face および ModelScope でオープンウェイトとして利用可能であり、また Alibaba Cloud Model Studio API 経由で qwen3.6-flash として利用できます。また、Qwen Studio で即座に試用することも可能です。

本モデルは、OpenClaw、Claude Code、Qwen Code などの人気のあるサードパーティ製コーディングアシスタントとシームレスに統合でき、開発ワークフローを効率化し、文脈を認識した効率的なコーディング体験を可能にします。

API の使用方法#

このリリースでは preserve_thinking 機能をサポートしています。これは、メッセージ内のそれ以前のすべてのターンからの思考内容を保持する機能であり、エージェントタスクに推奨されます

Alibaba Cloud Model Studio#

Alibaba Cloud Model Studio は、OpenAI の仕様書に準拠したチャット補完およびレスポンス API を含む業界標準のプロトコル、ならびに Anthropic と互換性のある API インターフェースをサポートしています。

以下に、チャット補完 API のコード例を示します。

python
""" 環境変数(公式ドキュメント参照): DASHSCOPE_API_KEY: https://modelstudio.console.alibabacloud.com の API キー DASHSCOPE_BASE_URL: (オプション) 互換モード API のベース URL。 - 北京: https://dashscope.aliyuncs.com/compatible-mode/v1 - シンガポール: https://dashscope-intl.aliyuncs.com/compatible-mode/v1 - 米国 (バージニア): https://dashscope-us.aliyuncs.com/compatible-mode/v1 DASHSCOPE_MODEL: (オプション) モデル名。異なるモデルを使用する際に上書きします。 """from openai import OpenAIimport os
api_key = os.environ.get("DASHSCOPE_API_KEY")if not api_key: raise ValueError( "DASHSCOPE_API_KEY が必要です。" "export DASHSCOPE_API_KEY='your-api-key' として設定してください" )
client = OpenAI( api_key=api_key, base_url=os.environ.get( "DASHSCOPE_BASE_URL", "https://dashscope-intl.aliyuncs.com/compatible-mode/v1", ),)
messages = [{"role": "user", "content": "vibe coding について教えてください。"}]
model = os.environ.get( "DASHSCOPE_MODEL", "qwen3.6-flash",)completion = client.chat.completions.create( model=model, messages=messages, extra_body={ "enable_thinking": True, # "preserve_thinking": True, }, stream=True)
reasoning_content = "" # 完全な推論トレースanswer_content = "" # 完全なレスポンスis_answering = False # 回答フェーズに入ったかどうかprint("\n" + "=" * 20 + "推論" + "=" * 20 + "\n")
for chunk in completion: if not chunk.choices: print("\n使用量:") print(chunk.usage) continue
delta = chunk.choices[0].delta
# 推論コンテンツのみを収集 if hasattr(delta, "reasoning_content") and delta.reasoning_content is not None: if not is_answering: print(delta.reasoning_content, end="", flush=True) reasoning_content += delta.reasoning_content
# コンテンツを受信、回答フェーズを開始 if hasattr(delta, "content") and delta.content: if not is_answering: print("\n" + "=" * 20 + "回答" + "=" * 20 + "\n") is_answering = True print(delta.content, end="", flush=True) answer_content += delta.content

詳細については、API ドキュメントをご覧ください。

コーディング & エージェント#

Qwen3.6-35B-A3B は優れたエージェント型コーディング機能を備えており、OpenClaw、Claude Code、Qwen Code などの人気のあるサードパーティ製コーディングアシスタントとシームレスに統合できます。

OpenClaw#

Qwen3.6-35B-A3B は、セルフホスト型のオープンソース AI コーディングエージェントである OpenClaw(旧 Moltbot / Clawdbot)と互換性があります。これを Model Studio に接続することで、ターミナルで完全なエージェント型コーディング体験を得ることができます。以下のスクリプトから始めてください。

bash
# Node.js 22+curl -fsSL https://molt.bot/install.sh | bash # macOS / Linux
# API キーを設定export DASHSCOPE_API_KEY=<your_api_key>
# OpenClaw を起動openclaw dashboard # ウェブブラウザ# openclaw tui # 新しいターミナルを開き、TUI を開始

初回使用時は、~/.openclaw/openclaw.json を編集して OpenClaw を Model Studio に向けます。以下のフィールドを見つけてマージしてください。既存の設定を保持するため、ファイル全体を上書きしないでください

json
{ "models": { "mode": "merge", "providers": { "modelstudio": { "baseUrl": "https://dashscope-intl.aliyuncs.com/compatible-mode/v1", "apiKey": "DASHSCOPE_API_KEY", "api": "openai-completions", "models": [ { "id": "qwen3.6-flash", "name": "qwen3.6-flash", "reasoning": true, "input": ["text", "image"], "contextWindow": 131072, "maxTokens": 16384 } ] } } }, "agents": { "defaults": { "model": { "primary": "modelstudio/qwen3.6-flash" }, "models": { "modelstudio/qwen3.6-flash": {} } } }}

Qwen Code#

Qwen3.6-35B-A3B は、ターミナル向けに設計され、Qwen シリーズに深く最適化されたオープンソース AI エージェントである Qwen Code と互換性があります。以下のスクリプトから始めてください。

bash
# Node.js 20+npm install -g @qwen-code/qwen-code@latest
# Qwen Code を開始(対話モード)qwen
# その後、セッション内で:/help /auth

初回使用時にログインを促すメッセージが表示されます。認証方法はいつでも /auth を実行して切り替えることができます。

Claude Code#

Qwen API は Anthropic API プロトコルもサポートしているため、Claude Code などのツールで使用して、さらに高度なコーディング体験を得ることができます。

bash
# Claude Code をインストールnpm install -g @anthropic-ai/claude-code
# 環境を設定export ANTHROPIC_MODEL="qwen3.6-flash"export ANTHROPIC_SMALL_FAST_MODEL="qwen3.6-flash"export ANTHROPIC_BASE_URL=https://dashscope-intl.aliyuncs.com/apps/anthropic export ANTHROPIC_AUTH_TOKEN=<your_api_key>
# CLI を起動claude

要約#

Qwen3.6-35B-A3B は、スパースな MoE モデルが驚異的なエージェント型コーディングおよび推論能力を達成しうることを実証しました。わずか 30 億のアクティブパラメータで、アクティブなサイズの何倍もの密なモデルに匹敵するパフォーマンスを提供し、マルチモーダルベンチマークでも卓越した成果を上げています。完全にオープンソースのチェックポイントとして、この規模で可能なことの新たな基準を打ち立てています。

今後、私たちは Qwen3.6 オープンソースファミリーを拡大し続け、効率的でオープンなモデルが達成しうる限界を押し広げていきます。コミュニティからのフィードバックに感謝し、皆様方が Qwen3.6-35B-A3B で何を構築してくださるのかを楽しみにしています。また、Qwen3.6 オープンソースファミリーは今後も拡大を続けますので、今後のリリースにもご期待ください。

引用#

Qwen3.6-35B-A3B が役立つとお感じになった場合は、以下の記事をご引用ください。

bibtex
@misc{qwen36_35b_a3b, title = {{Qwen3.6-35B-A3B}: Agentic Coding Power, Now Open to All}, url = {https://qwen.ai/blog?id=qwen3.6-35b-a3b}, author = {{Qwen Team}}, month = {April}, year = {2026}}
関連記事

分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.