logo
  • AI Image Generator
  • AI Chat
  • Nano Banana ProAD
  • Blog
Back to List
ADMIN
2026年2月17日
19 Views
7 min read

除夕夜的AI界重磅:千问3.5登顶全球最强开源,参数效率革命来了

大年初一醒来,AI圈就被一条消息炸开了锅——阿里千问3.5除夕当天开源,3970亿总参数却只需激活170亿就能跑赢万亿级模型,Token成本仅是Gemini 3 Pro的1/18。这不仅仅是一个模型的迭代,更像是AI工程效率的一次革命性突破。

除夕夜的AI界重磅:千问3.5登顶全球最强开源,参数效率革命来了

大年初一醒来,习惯性地刷了一圈推特,就被AI圈的一条消息彻底炸醒了——阿里千问3.5在除夕当天开源了

说实话,第一反应是:这也太硬核了吧?大年三十发模型,阿里这是要把春节档的AI大战直接推向高潮啊。

不止是迭代,是架构的革命

先看一组数字,真的有点颠覆认知:

  • 总参数3970亿,但激活参数只有170亿
  • 性能超过万亿参数的Qwen3-Max模型
  • 部署显存占用降低60%
  • 最大推理吞吐量提升至19倍
  • Token价格仅是Gemini 3 Pro的1/18

这什么概念?简单说就是:用更少的资源,跑出更强的性能。

这次千问3.5不是简单的参数堆叠,而是从底层架构做了全面革新。据官方透露,他们采用了创新的混合架构,融合了线性注意力机制和稀疏混合专家MoE模型架构,实现了"高参数、低激活"的结构。

翻译成人话:模型虽然有一大堆参数,但每次推理时只激活需要的那一部分,就像一个超级大脑里的神经元,用哪个就唤醒哪个,不用全部开火。

为什么要这么"抠"参数?

可能有人会问:现在算力这么便宜了,为什么还要在参数效率上做文章?

这其实是一个非常现实的问题。

过去一年,我们看到了太多"暴力美学"的模型——参数越堆越大,训练数据越喂越多,性能当然越来越好,但成本也是指数级上升。对于大厂来说可能还扛得住,但对于中小企业、开发者来说,动辄几百万的部署成本,直接就把门关上了。

千问3.5这次给出的答案是:让AI普惠成为可能

3970亿的总参数保证了模型的知识广度和推理能力,而170亿的激活参数则把部署门槛降到了一个相对友好的水平。更重要的是,推理吞吐量提升了19倍——这意味着同样的硬件,可以服务更多的用户。

这不是技术炫技,这是在解决实际的生产力问题。

与Gemini 3 Pro的正面硬刚

官方直接把矛头指向了Gemini 3 Pro,这是一个非常大胆的声明。

从性能对比来看,千问3.5在多项关键指标上确实实现了超越,而在成本上更是实现了1/18的优势。这个差距已经大到让人无法忽视的程度了。

说实话,看到这个对比的时候,我第一反应是:Google这次是不是有点慌?

当然,Gemini在生态整合、多模态协同方面依然有自己的优势,但千问3.5这次在开源领域的出手,确实让人看到了国产大模型在技术层面的硬实力。

开源,这次是真的开源

之前写过不少关于AI开源的文章,但说实话,很多所谓的"开源"更像是一种营销策略——要么是阉割版,要么是限量版,真正能拿来跑起来的少之又少。

但千问3.5这次不一样:

  1. 开放了完整的模型权重
  2. 可以在魔搭社区和HuggingFace直接下载
  3. 通过阿里云百炼可以获取API服务
  4. 承诺会继续开源不同尺寸、不同功能的系列模型

这才是开源该有的样子。

春节档的AI大战,才刚刚开始

2月本就是AI厂商扎堆发布新产品的传统时间点,但2026年的2月尤其疯狂——据业内人士透露,这个月预计会有7个主要AI模型发布。

豆包2.0已经上线,千问3.5刚刚开源,DeepSeek-V4据说也要来了...整个行业已经进入了"模型大爆发"的状态。

但热闹归热闹,我觉得今年最大的看点不是谁的模型参数更大,而是谁的模型更高效、更实用、更低成本

千问3.5给出的第一个答案已经出来了。

写在最后

记得去年写大模型年度盘点的时候,还在感慨"参数军备竞赛什么时候是个头"。现在看来,这个行业正在慢慢回归理性——不是不追求性能,而是在追求性能的同时,开始考虑效率、成本、可访问性。

这其实是个好信号。

因为AI最终要解决的,不是在实验室里跑出多少SOTA,而是真正落地到各行各业,赋能每一个普通人。

千问3.5除夕开源,这本身就是一个很酷的故事。

祝大家新春快乐,新的一年,AI继续折腾下去。


本文首发于个人博客,转载请注明出处。