logo
  • AI Image Generator
  • AI Chat
  • Nano Banana ProAD
  • Blog
Back to List
ADMIN
2026年2月22日
5 Views
8 min read

谷歌这项发现让我惊掉了下巴:重复一遍提示词,AI准确率从21%飙到97%!

Google Research研究发现,简单重复提示词就能让大模型准确率从21%飙到97%。这个听起来离谱的发现,在70次测试中取得47胜0负的战绩,适用于几乎所有主流大模型,而且几乎不增加任何计算成本。本文带一探究竟,实测效果让人震惊。

一、今天的AI圈炸锅了

本来今天还想写点什么别的,结果刷到这条新闻直接给我整懵了——Google Research发了一篇论文,说只要把问题重复一遍,大模型的准确率就能从21.33%飙升到97.33%。

我当时的第一反应是:这是在开玩笑吧?

但是仔细看了他们的测试数据,我直接沉默了。70次基准测试,47次胜利,而且——重点是——没有一次是失败的。也就是说,这个简单的“复读机”技巧,在所有测试过的任务上都要么持平,要么大幅提升。

二、为什么这么离谱?

说实话,我一开始也不相信。毕竟我们天天折腾提示词工程,又是思维链又是少样本学习,各种花活儿都使出来了,结果人家谷歌告诉你:你就把问题说两遍,搞定。

这听起来简直像是在说:别练那些复杂的武功了,你就重复出招就行了。

但看完论文之后,我不得不承认,这个发现背后是有深刻的技术原理的。

问题出在LLM的架构上。

大语言模型用的是Transformer架构,处理顺序是从左到右。这意味着什么呢?意味着模型在处理输入内容的时候,根本不知道后面会问什么问题。

举个例子,你给模型一段长文本,然后问一个问题。模型在“读”这段文本的时候,完全不知道自己最后要回答什么,所以注意力分配可能就偏了。

但是!如果你把问题重复一遍,就等于给了模型一个“二次扫描”的机会。第一次重复时,模型会意识到“哦,原来后面有这个问题”,然后在真正处理时就能更有针对性地分配注意力。

三、实测数据太疯狂了

论文里的数据简直让人不敢相信。

在非推理任务上,Gemini的准确率从21.33%提升到了97.33%。这是什么概念?翻了整整4.5倍!

而且不只是Gemini,他们测试了几乎所有主流的大模型:

  • GPT-4o
  • Claude 3
  • DeepSeek V3

全部都有显著提升。

最让我震惊的是,这个技巧几乎不会增加任何额外的计算成本。你不需要更多的token,不需要更复杂的模型,不需要更多的推理步骤——就是把输入复制粘贴一遍而已。

四、这意味着什么?

我觉得这个发现可能会彻底改变我们使用AI的方式。

对于普通用户

你不需要再花时间学习各种复杂的提示词技巧了。虽然有些高级技巧还是有用的,但最基础的提升,可能就是把问题说两遍。

对于开发者

这是一个巨大的性能优化机会。想象一下,你的AI应用不需要额外的推理成本,就能提升几十个百分点的准确率,这对产品竞争力意味着什么?

对于整个行业

这个发现暴露了LLM的一个根本性缺陷:因果注意力的局限性。虽然重复提示词是个巧妙的workaround,但长远来看,我们可能需要重新思考模型的架构设计。

五、我的实测体验

看到这个新闻之后,我迫不及待地自己试了一下。

我找了个之前让我很抓狂的问题——让AI总结一篇长文的核心观点。之前的效果一般,经常漏掉一些重要的点。

然后我把问题重复了一遍:“请总结这篇文章的核心观点。请总结这篇文章的核心观点。”

结果你猜怎么着?

准确率真的明显提升了!不仅覆盖了所有要点,而且结构也更清晰。

虽然我没法精确测量准确率从多少提升到了多少,但主观感受上,至少提升了30-40%。

六、一些思考

其实仔细想想,这个发现也不算完全意外。

人类沟通的时候,不也经常强调重点吗?“记住,记住,重要的事情说三遍”——这不就是提示词重复的人类版吗?

但神奇的是,AI“吃”这一套的程度,远远超出了我的预期。97%的准确率,这基本上就是接近完美的水平了。

这也让我想到一个更深的问题:我们是不是过度迷信“复杂即有效”了?在AI领域,我们总是追求更复杂的模型、更精细的技巧、更炫酷的架构,但有时候,最简单的解决方案反而最有效。

七、总结

今天的这个发现,可以说是2026年AI领域最让我惊喜的新闻了。

  • 效果惊人:21%→97%,提升幅度难以置信
  • 方法简单:重复提示词,零学习成本
  • 适用广泛:几乎所有主流模型都受益
  • 成本极低:不需要额外的计算资源

虽然这个技巧主要适用于非推理任务(推理任务中模型本身就有思考机制),但对于绝大多数AI应用场景来说,这已经足够了。

我已经开始在自己的工作流程中应用这个技巧,效果真的很明显。建议大家也试试——毕竟成本是零,但收益可能巨大。

最后,我想说的是:AI领域还真是充满了惊喜。你以为自己已经懂了不少,结果一个新的发现就能彻底颠覆你的认知。

这大概就是AI这个领域的魅力所在吧。


本文基于Google Research发表的《Prompt Repetition Improves Non-Reasoning LLMs》论文编写,论文链接:arXiv,发布于2025年12月17日。

博主注:实测验证建议在具体任务上进行,不同场景效果可能有所差异。