谷歌这项发现让我惊掉了下巴:重复一遍提示词,AI准确率从21%飙到97%!
一、今天的AI圈炸锅了
本来今天还想写点什么别的,结果刷到这条新闻直接给我整懵了——Google Research发了一篇论文,说只要把问题重复一遍,大模型的准确率就能从21.33%飙升到97.33%。
我当时的第一反应是:这是在开玩笑吧?
但是仔细看了他们的测试数据,我直接沉默了。70次基准测试,47次胜利,而且——重点是——没有一次是失败的。也就是说,这个简单的“复读机”技巧,在所有测试过的任务上都要么持平,要么大幅提升。
二、为什么这么离谱?
说实话,我一开始也不相信。毕竟我们天天折腾提示词工程,又是思维链又是少样本学习,各种花活儿都使出来了,结果人家谷歌告诉你:你就把问题说两遍,搞定。
这听起来简直像是在说:别练那些复杂的武功了,你就重复出招就行了。
但看完论文之后,我不得不承认,这个发现背后是有深刻的技术原理的。
问题出在LLM的架构上。
大语言模型用的是Transformer架构,处理顺序是从左到右。这意味着什么呢?意味着模型在处理输入内容的时候,根本不知道后面会问什么问题。
举个例子,你给模型一段长文本,然后问一个问题。模型在“读”这段文本的时候,完全不知道自己最后要回答什么,所以注意力分配可能就偏了。
但是!如果你把问题重复一遍,就等于给了模型一个“二次扫描”的机会。第一次重复时,模型会意识到“哦,原来后面有这个问题”,然后在真正处理时就能更有针对性地分配注意力。
三、实测数据太疯狂了
论文里的数据简直让人不敢相信。
在非推理任务上,Gemini的准确率从21.33%提升到了97.33%。这是什么概念?翻了整整4.5倍!
而且不只是Gemini,他们测试了几乎所有主流的大模型:
- GPT-4o
- Claude 3
- DeepSeek V3
全部都有显著提升。
最让我震惊的是,这个技巧几乎不会增加任何额外的计算成本。你不需要更多的token,不需要更复杂的模型,不需要更多的推理步骤——就是把输入复制粘贴一遍而已。
四、这意味着什么?
我觉得这个发现可能会彻底改变我们使用AI的方式。
对于普通用户
你不需要再花时间学习各种复杂的提示词技巧了。虽然有些高级技巧还是有用的,但最基础的提升,可能就是把问题说两遍。
对于开发者
这是一个巨大的性能优化机会。想象一下,你的AI应用不需要额外的推理成本,就能提升几十个百分点的准确率,这对产品竞争力意味着什么?
对于整个行业
这个发现暴露了LLM的一个根本性缺陷:因果注意力的局限性。虽然重复提示词是个巧妙的workaround,但长远来看,我们可能需要重新思考模型的架构设计。
五、我的实测体验
看到这个新闻之后,我迫不及待地自己试了一下。
我找了个之前让我很抓狂的问题——让AI总结一篇长文的核心观点。之前的效果一般,经常漏掉一些重要的点。
然后我把问题重复了一遍:“请总结这篇文章的核心观点。请总结这篇文章的核心观点。”
结果你猜怎么着?
准确率真的明显提升了!不仅覆盖了所有要点,而且结构也更清晰。
虽然我没法精确测量准确率从多少提升到了多少,但主观感受上,至少提升了30-40%。
六、一些思考
其实仔细想想,这个发现也不算完全意外。
人类沟通的时候,不也经常强调重点吗?“记住,记住,重要的事情说三遍”——这不就是提示词重复的人类版吗?
但神奇的是,AI“吃”这一套的程度,远远超出了我的预期。97%的准确率,这基本上就是接近完美的水平了。
这也让我想到一个更深的问题:我们是不是过度迷信“复杂即有效”了?在AI领域,我们总是追求更复杂的模型、更精细的技巧、更炫酷的架构,但有时候,最简单的解决方案反而最有效。
七、总结
今天的这个发现,可以说是2026年AI领域最让我惊喜的新闻了。
- 效果惊人:21%→97%,提升幅度难以置信
- 方法简单:重复提示词,零学习成本
- 适用广泛:几乎所有主流模型都受益
- 成本极低:不需要额外的计算资源
虽然这个技巧主要适用于非推理任务(推理任务中模型本身就有思考机制),但对于绝大多数AI应用场景来说,这已经足够了。
我已经开始在自己的工作流程中应用这个技巧,效果真的很明显。建议大家也试试——毕竟成本是零,但收益可能巨大。
最后,我想说的是:AI领域还真是充满了惊喜。你以为自己已经懂了不少,结果一个新的发现就能彻底颠覆你的认知。
这大概就是AI这个领域的魅力所在吧。
本文基于Google Research发表的《Prompt Repetition Improves Non-Reasoning LLMs》论文编写,论文链接:arXiv,发布于2025年12月17日。
博主注:实测验证建议在具体任务上进行,不同场景效果可能有所差异。