阿里发布下一代模型架构Qwen3-Next 长文本推理吞吐量提升超10倍

  • 2025-09-14 20:58:21
  • 174

转自:中国证券网

新华财经上海9月12日电(记者杨翔菲温婷)9月12日,阿里通义发布下一代基础模型架构Qwen3-Next。Qwen3-Next针对大模型在上下文长度和总参数两方面不断扩展(Scaling)的未来趋势而设计,采用全新的高稀疏MoE架构,并对经典Transformer核心组件进行了重构,创新线性注意力和自研的门控注意力结合的混合注意力机制,实现了模型训练和推理的双重性价比突破。

基于这一新架构,阿里通义“打样”了Qwen3-Next-80B-A3B系列模型,开源指令(Instruct)和推理(Thinking)两大模型版本。新模型总参数80B仅激活3B,性能可媲美千问3旗舰版235B模型,模型计算效率大幅提升。Qwen3-Next训练成本较密集模型Qwen3-32B大降超90%,长文本推理吞吐量提升10倍以上,并可支持百万Tokens超长上下文。

近期,阿里通义动作频频。推出超万亿参数的Qwen3-Max-Preview、文生图及编辑模型Qwen-Image-edit、语音识别模型Qwen3-ASR-Flash等,并持续推进“全尺寸”“全模态”开源。全球AI开源社区HuggingFace最新数据显示,通义千问Qwen衍生模型数已超17万,稳坐全球第一开源模型。通义千问也是中国企业使用量最多的模型,沙利文报告显示,2025年上半年,在中国企业级大模型调用市场中,阿里通义占比17.7%位列第一。