2026年4月16日晚,阿里巴巴通义千问团队正式开源Qwen3.6系列首款模型——Qwen3.6-35B-A3B。

这款大模型采用稀疏混合专家(MoE)架构,总参数量350亿,推理时仅激活30亿参数。从算力消耗看,运行成本接近3B级小模型,但性能可以对标27B-31B的稠密模型。

核心参数

Qwen3.6-35B-A3B是Qwen3.6系列首个开源权重版本,使用Apache 2.0协议。模型内部有256个专家网络,每次推理激活8个路由专家加1个共享专家。架构共40层,隐藏层维度2048,融合了门控DeltaNet与门控注意力两种机制。

上下文方面,模型原生支持262,144 tokens,扩展后可达1,010,000 tokens。

开发者可在Hugging Face、ModelScope下载模型权重,或通过Qwen Studio在线体验。阿里云百炼API平台即将上线,命名为qwen3.6-flash。

编程能力

在智能体编程领域,Qwen3.6-35B-A3B交出了这样的成绩单:

  • SWE-bench Verified:73.4分
  • Terminal-Bench 2.0:51.5分
  • AIME 2026:92.7分
  • NL2Repo:29.4分

对比来看,SWE-bench Verified得分与Qwen3.5-27B的75.0基本持平,大幅超越前代Qwen3.5-35B-A3B的70.0。Terminal-Bench 2.0得分51.5,领先所有同级对比模型。NL2Repo取得29.4分,也超过了Qwen3.5-27B的27.3。

数学推理方面,AIME 2026得分92.7,MMLU-Pro 85.2,GPQA 86.0。

多模态表现

Qwen3.6-35B-A3B原生支持多模态输入输出,内置视觉编码器。在主流视觉语言基准测试中:

  • MMMU:81.7分
  • MathVista:86.4分
  • RealWorldQA:85.3分
  • OmniDocBench:89.9分

这些分数在大多数视觉语言基准上已与Claude Sonnet 4.5持平,部分任务实现超越。

空间智能方面表现更突出:RefCOCO得分92.0,ODInW13得分50.8,EmbSpatialBench得分84.3。视频理解方面,VideoMME(含字幕)86.6,VideoMMMU 83.7,VideoMMMU得分超过Claude Sonnet 4.5的77.6。

生态兼容性

模型已实现与主流编程智能体工具的深度兼容,包括OpenClaw、Claude Code、Qwen Code。API层面同时支持OpenAI与Anthropic两套标准协议,开发者切换模型时无需修改原有代码逻辑。

新功能方面,模型支持思维保留(Thinking Preservation)机制,可在多轮对话中保留历史推理上下文,减少重复推理开销。同时支持多模态思考与非思考模式切换,适配不同复杂度的任务需求。

技术架构

MoE架构的核心思路是:传统稠密模型无论任务难易都激活全部参数,而MoE将模型拆分为多个专家网络,根据任务类型动态选择合适的专家组合。以极低的激活参数实现接近全参数模型的性能。

模型兼容Transformers、vLLM、SGLang、KTransformers等主流推理框架。运行需要安装最新版本transformers,以及torchvision和pillow依赖。

本地部署友好

普通消费级显卡即可运行,编译产物仅数 MB,适合 Serverless 和边缘部署

模型下载:

Logo

AtomGit 是由开放原子开源基金会联合 CSDN 等生态伙伴共同推出的新一代开源与人工智能协作平台。平台坚持“开放、中立、公益”的理念,把代码托管、模型共享、数据集托管、智能体开发体验和算力服务整合在一起,为开发者提供从开发、训练到部署的一站式体验。

更多推荐