https://arxiv.org/abs/2310.01798
当前的大模型在没有外部正确答案提示的情况下,无法有效自我纠错,反而经常把对的改成错的。
研究团队测试了GPT-3.5、GPT-4等模型在数学题、常识推理等任务上的表现:
以GPT-3.5在数学题上为例:
模型在自我纠错时会出现:
问题根源:模型无法准确判断自己的答案是否正确。
您的做法(先提取词槽,再给定义让模型纠错)很可能会:
直接在第一次提示中给出完整的词槽定义,而不是分两步:
展开代码❌ 不推荐:先提取 → 再给定义纠错 ✅ 推荐:直接给出完整定义 → 一次性提取
只有在有可靠外部反馈时才有效:
这个研究颠覆了"大模型能自我改进"的常见认知。对于词槽提取这类任务,一次性给出清晰完整的指令比事后纠错更有效。
本文作者:Dong
本文链接:
版权声明:本博客所有文章除特别声明外,均采用 CC BY-NC。本作品采用《知识共享署名-非商业性使用 4.0 国际许可协议》进行许可。您可以在非商业用途下自由转载和修改,但必须注明出处并提供原作者链接。 许可协议。转载请注明出处!