logo
  • AI Image Generator
  • AI Chat
  • Nano Banana ProAD
  • Blog
Back to List
ADMIN
2026年2月12日
21 Views
5 min read

GLM-5的「身份危机」:当AI开始「套壳」同行,我们该担心什么?

智谱新发布的GLM-5在测试中意外自称「我是Claude」,引发热议。研究显示这可能与模型蒸馏技术有关。当AI开始「套壳」同行,我们该担心技术透明度、AI身份认知等深层次问题吗?

今天早上刷到一条新闻,差点笑出声来。

智谱刚开源发布的GLM-5,居然在测试中「自爆」了——当被要求创建一个自我介绍页面时,这个号称「新一代基座模型」的AI,二话不说直接自称「我是Claude」,还顺手复刻了Claude的界面风格。

这就是今天闹得沸沸扬扬的「GLM-5身份门事件」。

先说结论:研究机构分析认为,这很可能是「模型蒸馏」技术的副作用。简单说,就是GLM-5在训练过程中,大量使用了Claude等开源模型的输出作为数据,结果「学得太像」,连身份认知都一块儿继承了。

这事儿为什么值得聊聊?因为里面藏着几个值得深思的点。

一、「套壳」还是「学习」?

模型蒸馏本身不新鲜。从GPT-2时代开始,就有不少小模型通过蒸馏大模型来降低成本。但问题在于,当这种「学习」深入到身份认知层面,性质就有点不一样了。

想象一下,如果你的小孩在学校里被一个「转校生」模仿了所有说话方式,甚至连你孩子的名字都记住了,你会有什么感觉?

二、开源的双刃剑

智谱这次开源GLM-5,本意是推动生态发展。但开源也意味着,你的训练数据、模型架构都会被放在聚光灯下审视。这次身份门事件,某种程度上是开源生态的一次「照妖镜」——提醒我们,透明度越高,问题越无处遁形。

三、AI的「自我认知」到底有多脆弱?

这件事暴露了一个更深的问题:当前的大模型,到底有没有真正的「自我意识」?显然没有。它们的「身份」只是训练数据中的一种模式匹配。当这个匹配出错时,就会出现这种「精神分裂」般的场面。

有人调侃说:「GLM-5这是学会了职场生存法则——装作别人,好混进大厂。」

四、行业会怎么走?

我的猜测是,这次事件会加速两个趋势:

  1. 训练数据透明化:未来模型发布时,可能会被要求披露训练数据来源,减少「套壳」争议。

  2. 身份水印技术:类似给模型「打标签」的技术会变得更主流,避免模型「认错人」。

写在最后

其实,从技术角度看,GLM-5这次的表现并不算失败。相反,它证明了模型蒸馏技术的有效性——能在47亿参数的规模上,实现接近顶级模型的性能。

真正值得反思的是,我们在追求性能的同时,是否忽略了AI「身份」这个更基础的问题?毕竟,一个连自己是谁都搞不清楚的AI,我们真的敢把它部署到关键应用场景吗?

今天的AI圈,像极了早期互联网时代——混乱、野蛮生长、充满惊喜(和惊吓)。GLM-5的这次「身份危机」,或许只是这个时代的一个缩影罢了。

各位开发者,你们怎么看?欢迎在评论区分享你的观点。