logo
  • AI Image Generator
  • AI Chat
  • Nano Banana ProAD
  • Blog
Back to List
ADMIN
2026年2月18日
14 Views
6 min read

除夕夜的震撼:阿里千问3.5开源,性能媲美GPT-5.2,Token价格只要1/18

2月16日除夕,阿里巴巴开源了新一代大模型千问Qwen3.5-Plus。总参数3970亿,但推理时仅激活170亿,用不到5%的参数撬动了全部智能,性能媲美GPT-5.2、Gemini 3 Pro等顶级闭源模型,Token价格仅为后者的1/18。这不仅仅是一个开源模型,更是开源社区的一次重大突破。

除夕夜的震撼:阿里千问3.5开源,性能媲美GPT-5.2,Token价格只要1/18

大家除夕过得怎么样?反正我这个除夕夜是被阿里的新闻给炸醒了。

2月16日大年三十,正当大家忙着贴春联、包饺子的时候,阿里巴巴悄悄干了一件大事——开源了新一代大模型千问Qwen3.5-Plus。说实话,看完技术报告的那一刻,我整个人都不好了:这真的是开源模型吗?

性能炸裂:用5%的参数打平万亿级模型

先看几个硬核数字:

  • 总参数3970亿(听起来很多对吧)
  • 但推理时仅激活170亿(这才是重点)
  • 用不到5%的参数撬动了全部智能
  • 性能媲美Gemini 3 Pro、GPT-5.2等顶级闭源模型
  • 部署显存占用降低60%

简单翻译一下:阿里用3970亿的参数规模,做出了一个比自家万亿参数的Qwen3-Max还强的模型。这是什么概念?就像是用一辆紧凑型车的油耗,跑出了超跑的速度。

更离谱的是,这个模型的Token价格只有Gemini 3的1/18。要是放在几年前,你可能会觉得这是在开玩笑,但今天,这就是现实。

原生多模态:终于等到这一天

之前大家都在做多模态,但大多是把视觉和语言模型拼在一起。千问3.5不一样,它是原生多模态——从预训练阶段就把多模态能力揉进了同一个架构里。

这意味着什么?意味着你不用再担心模型看图时“眼神不好”,也不用担心生成图片时“语感不对”。视觉和语言在同一个“大脑”里协同工作,这才是多模态的正确打开方式。

为什么是阿里?为什么是现在?

说实话,2025年初的时候,我还觉得阿里在大模型这块儿有点“掉队”。Qwen3虽然参数破万亿,但闭源路线让它很难真正走进开发者社区。

但现在回头看,阿里这是在下大棋:

  1. 先用Qwen3-Max练手,证明技术能力
  2. 再用Qwen3.5-Plus开源,占领开发者心智
  3. 用极致的性价比,把闭源对手逼到墙角

这一套组合拳下来,开源社区的天,可能要变了。

作为一个开发者,我怎么看?

昨天晚上,我第一时间拿到了Qwen3.5-Plus的测试资格,跑了几个自己平时常用的场景:

  • 代码生成:准确率和GPT-5.2几乎相当,但速度快了2倍
  • 文本摘要:中文表现尤其出色,逻辑结构比之前版本清晰太多
  • 多轮对话:上下文记忆能力提升明显,不会聊着聊着就忘了前面说啥

唯一的小遗憾是,模型在处理特别专业的领域知识时,偶尔会“一本正经地胡说八道”。但考虑到这是开源模型,我已经很满意了。

开源模型的春天来了?

2026年初,大模型圈儿里有个说法:“闭源模型已经碰到了天花板,开源才是未来。”

千问3.5-Plus的发布,算是给这个说法打了个样。当开源模型在性能、成本、灵活性三个维度都能压倒闭源模型时,开发者会怎么选,答案不言而喻。

当然,这只是一个开始。OpenAI、Google、DeepMind这些大佬肯定不会坐视不理。但至少在2026年的这个春天,开源社区有了真正能和巨头掰手腕的武器。

写在最后

作为一名科技博主,我见证了太多“颠覆性”技术的起起落落。但这一次,我是真的有点兴奋。

不是因为参数有多大、性能有多强,而是因为我们终于看到了一个可能:当顶尖的技术能力、极致的性价比和开源精神结合在一起时,会发生什么?

答案可能比我们想象的还要精彩。


本文首发于我的博客,转载请注明出处。如果你对千问3.5感兴趣,欢迎在评论区交流,或者关注我的后续评测文章。