Qwen3.5-Flash來襲!三款中等規模模型開源

今天,我們正式開源千問3.5最新中等規模模型:Qwen3.5-35B-A3B、Qwen3.5-122B-A10B、Qwen3.5-27B。

Qwen3.5-35B-A3B的表現已超越前代更大規模模型Qwen3-235B-A22B-2507及Qwen3-VL-235B-A22B,而Qwen3.5-122B-A10B與27B版本進一步縮小了中等規模模型與前沿模型的差距,尤其在複雜代理場景中表現優異。這表明性能超越規模,不再單純依賴參數堆疊,而是通過架構最佳化、資料品質提升及強化學習推動智能發展。

🚀 架構進化,性能突破:Qwen3.5採用混合注意力機制,結合高稀疏的MoE架構創新,並基於更大規模的文本和視覺混合Token上訓練,Qwen3.5-122B-A10B與Qwen3.5-35B-A3B以更小的總參數和激活參數量,實現了更大的性能提升。

在指令遵循(IFBench)、博士級推理(GPQA)、數學推理(HMMT 25)、多語言知識(MMMLU)、Agent工具調用(BFCL v4)、Agentic Coding(SWE-bench Verified)等多個權威榜單上,新模型均超越了遠大於其規模的Qwen3-235B-A22B模型及Qwen3-VL,以及GPT-5 mini、gpt-oss-120b等模型。

🛠️ 開發者友好,適合本地部署:Qwen3.5的首個密集(Dense)模型Qwen3.5-27B此次驚豔亮相,擁有更強的Agent能力和原生多模態能力。

在工具調用、搜尋、編程等多個Agent評測中,Qwen3.5-27B均超過了GPT-5 mini,在視覺推理、文字識別和理解、影片推理等多項視覺理解榜單中,超過了Qwen3-VL旗艦模型和Claude Sonnet 4.5。Qwen3.5-27B可運行於單個GPU,對於本地部署極為友好。

🔧 Qwen3.5-Flash(Qwen3.5-35B-A3B生產版本)API服務:

✨ Qwen3.5-Flash在阿里雲百煉上線,每百萬Token價格低至0.2元,性能強,速度快,適合開發者和企業的規模化、生產級的模型需求。

✨ 預設支援1M超長上下文長度,滿足長文件與複雜任務處理需求。

✨ 官方內建工具支援,降低整合成本,加速應用落地。

目前,3款模型均已在魔搭社區、Hugging Face開源上線,同時,我們還一併開源了Qwen3.5-35B-A3B-Base基座模型。開發者可前往Qwen Chat免費體驗新模型,或透過阿里雲百煉獲取Qwen3.5-Flash模型API服務。


分享網址
AINews·AI 新聞聚合平台
© 2026 AINews. All rights reserved.