ADMIN2026年3月1日39%的性能暴跌?GPT-5多轮对话翻车,研究揭示AI模型的致命软肋IT之家3月1日报道,Philippe Laban团队的研究揭示:即便是GPT-5及后续版本,在多轮对话场景下,性能最高会下降39%。测试了代码、数据库、数学等六大任务,其中Python任务表现最好,损失10%-20%。问题的核心不是模型"遗忘"了信息,而是在多轮交互中失去了对任务的整体把握能力。两年技术迭代仅将降幅从39%改善到33%,说明这不是简单靠Scaling就能解决的问题。大语言模型GPT-5多轮对话AI研究科技资讯