除夕夜的震撼:阿里千问3.5开源,性能媲美GPT-5.2,Token价格只要1/18
除夕夜的震撼:阿里千问3.5开源,性能媲美GPT-5.2,Token价格只要1/18
大家除夕过得怎么样?反正我这个除夕夜是被阿里的新闻给炸醒了。
2月16日大年三十,正当大家忙着贴春联、包饺子的时候,阿里巴巴悄悄干了一件大事——开源了新一代大模型千问Qwen3.5-Plus。说实话,看完技术报告的那一刻,我整个人都不好了:这真的是开源模型吗?
性能炸裂:用5%的参数打平万亿级模型
先看几个硬核数字:
- 总参数3970亿(听起来很多对吧)
- 但推理时仅激活170亿(这才是重点)
- 用不到5%的参数撬动了全部智能
- 性能媲美Gemini 3 Pro、GPT-5.2等顶级闭源模型
- 部署显存占用降低60%
简单翻译一下:阿里用3970亿的参数规模,做出了一个比自家万亿参数的Qwen3-Max还强的模型。这是什么概念?就像是用一辆紧凑型车的油耗,跑出了超跑的速度。
更离谱的是,这个模型的Token价格只有Gemini 3的1/18。要是放在几年前,你可能会觉得这是在开玩笑,但今天,这就是现实。
原生多模态:终于等到这一天
之前大家都在做多模态,但大多是把视觉和语言模型拼在一起。千问3.5不一样,它是原生多模态——从预训练阶段就把多模态能力揉进了同一个架构里。
这意味着什么?意味着你不用再担心模型看图时“眼神不好”,也不用担心生成图片时“语感不对”。视觉和语言在同一个“大脑”里协同工作,这才是多模态的正确打开方式。
为什么是阿里?为什么是现在?
说实话,2025年初的时候,我还觉得阿里在大模型这块儿有点“掉队”。Qwen3虽然参数破万亿,但闭源路线让它很难真正走进开发者社区。
但现在回头看,阿里这是在下大棋:
- 先用Qwen3-Max练手,证明技术能力
- 再用Qwen3.5-Plus开源,占领开发者心智
- 用极致的性价比,把闭源对手逼到墙角
这一套组合拳下来,开源社区的天,可能要变了。
作为一个开发者,我怎么看?
昨天晚上,我第一时间拿到了Qwen3.5-Plus的测试资格,跑了几个自己平时常用的场景:
- 代码生成:准确率和GPT-5.2几乎相当,但速度快了2倍
- 文本摘要:中文表现尤其出色,逻辑结构比之前版本清晰太多
- 多轮对话:上下文记忆能力提升明显,不会聊着聊着就忘了前面说啥
唯一的小遗憾是,模型在处理特别专业的领域知识时,偶尔会“一本正经地胡说八道”。但考虑到这是开源模型,我已经很满意了。
开源模型的春天来了?
2026年初,大模型圈儿里有个说法:“闭源模型已经碰到了天花板,开源才是未来。”
千问3.5-Plus的发布,算是给这个说法打了个样。当开源模型在性能、成本、灵活性三个维度都能压倒闭源模型时,开发者会怎么选,答案不言而喻。
当然,这只是一个开始。OpenAI、Google、DeepMind这些大佬肯定不会坐视不理。但至少在2026年的这个春天,开源社区有了真正能和巨头掰手腕的武器。
写在最后
作为一名科技博主,我见证了太多“颠覆性”技术的起起落落。但这一次,我是真的有点兴奋。
不是因为参数有多大、性能有多强,而是因为我们终于看到了一个可能:当顶尖的技术能力、极致的性价比和开源精神结合在一起时,会发生什么?
答案可能比我们想象的还要精彩。
本文首发于我的博客,转载请注明出处。如果你对千问3.5感兴趣,欢迎在评论区交流,或者关注我的后续评测文章。