本日、千問3.5の最新中規模モデルであるQwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27Bを正式にオープンソース化しました。
Qwen3.5-35B-A3Bは、前代のより大規模なモデルQwen3-235B-A22B-2507およびQwen3-VL-235B-A22Bを凌駕しており、Qwen3.5-122B-A10Bと27Bバージョンは中規模モデルと最先端モデルのギャップをさらに縮小し、特に複雑なエージェントシナリオで優れた性能を示しています。これは、性能が単なるパラメータ数の積み重ねではなく、アーキテクチャの最適化、データ品質の向上、および強化学習を通じて知能を発展させていることを示しています。
🚀 アーキテクチャの進化と性能ブレークスルー:Qwen3.5は混合注意機構を採用し、高スパースなMoEアーキテクチャの革新と組み合わせ、より大規模なテキストとビジョンの混合トークンに基づいて訓練され、Qwen3.5-122B-A10BとQwen3.5-35B-A3Bはより小さな総パラメータとアクティベーションパラメータで大きな性能向上を実現しました。
指令追随(IFBench)、博士レベル推論(GPQA)、数学推論(HMMT 25)、多言語知識(MMMLU)、エージェントツール呼び出し(BFCL v4)、エージェントコーディング(SWE-bench Verified)など、複数の権威あるベンチマークにおいて、新モデルははるかに大規模なQwen3-235B-A22BモデルおよびQwen3-VL、ならびにGPT-5 mini、gpt-oss-120bなどのモデルを上回りました。
🛠️ 開発者に優しく、ローカルデプロイに適しています:Qwen3.5の最初の密集型(Dense)モデルQwen3.5-27Bが今回見事に登場し、より強力なエージェント能力とネイティブマルチモーダル能力を備えています。
ツール呼び出し、検索、プログラミングなど複数のエージェント評価で、Qwen3.5-27BはGPT-5 miniを超え、ビジョン推論、テキスト認識と理解、ビデオ推論など複数のビジョン理解ベンチマークで、Qwen3-VLフラッグシップモデルとClaude Sonnet 4.5を上回りました。Qwen3.5-27Bは単一のGPUで実行可能であり、ローカルデプロイに非常に適しています。
🔧 Qwen3.5-Flash(Qwen3.5-35B-A3B プロダクションバージョン)APIサービス:Qwen3.5-Flashは阿里云百鍊で提供され、百万Tokenあたりの価格は0.2元からと低く、高性能かつ高速で、開発者および企業のスケーラブルなプロダクションレベルのモデル要件に最適です。デフォルトで1Mの超長コンテキスト長をサポートし、長文書と複雑なタスク処理の要件を満たします。
現在、3つのモデルはすべて魔搭コミュニティおよびHugging Faceでオープンソース化されており、同時にQwen3.5-35B-A3B-Base基盤モデルもオープンソース化しました。開発者はQwen Chatで新モデルを無料で体験するか、阿里云百鍊を通じてQwen3.5-FlashモデルAPIサービスを取得できます。
浙江省,1時間前