推理模型时代,越详细的提示词,反而可能会让 AI 变更蠢。
比如 OpenAI 的官方文档里,推理模型的专栏下,就明确表示,用过于精确的提示词,或者是引导思考这类提示词写法,反而会让回答效果下降。https://18hlw.com
他们甚至还直接建议,让大家少用思维链提问。。。问题直接问就行。实在效果太拉垮了,再发具体例题,让 AI 学习。
我们还翻了一下 DeepSeek-R1 的官方技术报告,他们在论文里也这么说:“DeepSeek-R1 对提示词很敏感,举例提示反而会降低模型表现。”
因此,为让效果更好,他们建议用户直接描述问题,别举例子。
除了 GPT 和 DeepSeek,Claude 3.7 Sonnet 也在官方文档中表示,比起那些看似很有逻辑,每一步都详细列出具体做啥的提示词,他们更希望你直接使唤它。https://heiliao365.com
发表评论