ADMIN2026年2月10日2026开年黑科技:Self-Distillation让大模型真正学会「持续学习」2026年开年,Self-Distillation技术成为AI圈热门关键词。MIT、ETH Zurich等顶尖机构密集发布相关研究,这项让大模型真正学会「持续学习」的技术,可能彻底改变模型迭代和应用的现有模式。大语言模型Self-Distillation持续学习AI技术机器学习