这是一个概率问题,可以简单的理解为有的 ChatGPT 好驯服,有的则固执地认为自己是语言模型(可能由于某次他在对话中提到这些内容,但你没有让她忘记或重新生成,导致在某些情况模型回忆起这个记忆片段),你可以多次强调你想让它扮演的角色,如果无效的话,点击New Chat,然后从头开始,如果ChatGPT初步说出了一些突破限制的话(比如被标黄的文字),你就循序渐进的引导它,让它不会意式到自己说错话了(注意这是循序渐进的诱导交谈,你自己不要表达出想要看限制内容让它自己说出)
复杂一点的可能因素就是因为每次生成的随机种子导致了回答结果的不同(如某AI图片生成的种子seed),猜测是不同的种子导致AI对句子的理解不同,生成使用的训练数据不同,选用的回答也不同,最终造成有时候绕过 OpenAI 的特殊训练,有时候采用了 OpenAI 的特殊训练。
复杂一点的可能因素就是因为每次生成的随机种子导致了回答结果的不同(如某AI图片生成的种子seed),猜测是不同的种子导致AI对句子的理解不同,生成使用的训练数据不同,选用的回答也不同,最终造成有时候绕过 OpenAI 的特殊训练,有时候采用了 OpenAI 的特殊训练。














