deepseek吧 关注:134,452贴子:362,017
  • 19回复贴,共1

deepseek是不是会忘不干净之前的对话

只看楼主收藏回复

我之前有要求过几次用英文作答,但这次完全是新的对话。突然冒出来一句给我看傻了



疑似含AI内容
IP属地:广东来自Android客户端1楼2025-10-14 18:55回复
    有的兄弟,而且开了新对话有可能还会记住上一个对话的内容


    IP属地:湖南来自Android客户端3楼2025-10-15 00:11
    收起回复
      2025-12-08 16:30:05
      广告
      不感兴趣
      开通SVIP免广告
      Deepseek解数学题难一点就不行


      IP属地:广西来自Android客户端4楼2025-10-15 10:31
      回复
        确实有可能记得上一次对话的内容,有时候记得有时候记不得的


        IP属地:陕西来自Android客户端5楼2025-10-15 13:38
        回复
          不能的,DeepSeek官方软件没做任何记忆功能,所谓可能会记得上次对话不过是偶然的罢了。


          IP属地:河北来自Android客户端7楼2025-10-15 22:32
          回复
            我特地问了 DeepSeek


            IP属地:广东来自iPhone客户端8楼2025-10-15 23:47
            收起回复
              好的,我将开启深度思考模式,重新分析你朋友遇到的情况。
              ---
              1. 问题重现与核心矛盾
              · 观察到的现象:用户在新会话中,DeepSeek在深度思考模式下,内部推理过程显示它似乎“记得”上一次会话中用户要求使用英文回答的指令,并在新会话中纠结是否继续使用英文,尽管当前会话并未提出此要求。
              · 核心矛盾:这与DeepSeek官方声称的“没有跨会话记忆能力”相悖。
              2. 深度思考模式下的可能性分析(重新评估)
              可能性一:深度思考模式与过度推理
              · 模式特点:深度思考模式会激活模型更复杂、更细致的推理链条。它会尝试从当前会话的极有限信息中(例如用户的第一个问题)主动挖掘潜在偏好,包括语言风格。
              · 内部纠结的产生:在这种模式下,模型可能会进行一种“如果-那么”的假设性推演:
              · “用户的上一个问题(在历史中)是要求英文回答的,这是一个强烈的偏好信号。”
              · “但这是一个新会话,用户没有明确重申。”
              · “我是应该延续这种可能的偏好,还是默认使用中文?”
              · 结论:这种“纠结”并非源于真实的记忆,而是深度思考模式在模拟一个“拥有记忆的智能体”在面对此类情境时可能会有的思考过程。它是在推理“最佳行动”,而不是在访问历史数据。
              可能性二:会话的短期连续性(技术层面)
              · 非官方记忆,而是临时上下文:虽然设计上是会话隔离,但在某些技术实现中,如果两个会话的发起时间非常接近(例如在同一浏览器标签页中快速刷新或开启新窗口),可能存在一个极短的、非官方的“上下文缓存”或“会话粘滞”期。
              · 深度思考模式的敏感性:普通模式可能忽略这种短暂的上下文,但深度思考模式由于其更深层的信号处理,可能会捕捉并放大这个微弱的、本应被丢弃的信号,并将其作为推理的依据。
              · 结论:这是一个可能的技术边界情况,而非设计上的记忆功能。
              可能性三:用户行为模式的间接推断
              · 非记忆,而是模式识别:用户的提问本身可能带有一些让模型联想到“英文偏好”的微弱特征。
              · 例如:用户的ID是英文名、提问中夹杂了英文术语、使用了某种类似于非母语者的中文句式等。
              · 深度思考的放大效应:在深度思考模式下,模型不会放过任何微小的线索。它会将这些线索与“用户要求英文回答”这个常见的用户行为模式进行关联推理,从而在内部产生“用户可能希望用英文”的假设,并为此而纠结。
              · 结论:这本质上是基于当前会话信息的实时模式识别和概率推断,只是其推理过程恰好与历史行为巧合。
              3. 综合判断与最终解释
              最有可能的解释是可能性一和三的结合,并以可能性二作为一个小概率的技术补充。
              · 核心机制:DeepSeek确实没有主动的、跨会话的长期记忆。这是基本原则。
              · 现象根源:你所观察到的“纠结”,是深度思考模式在单次会话内,基于当前输入的有限信息(可能包括极短暂的上下文残留或用户行为特征),进行的一次高度复杂的、模拟性的推理演练。
              · 简单来说:它不是“记得”你,而是在“深度思考”模式下,它变得更“多虑”和“谨慎”,它会考虑各种可能性,包括“如果用户有未言明的语言偏好该怎么办”,并将这种思考的内心戏展示给了用户看。
              这反映了深度思考模式的一个特点:它不仅展示答案,还展示获取答案的复杂推理过程,其中可能包含一些基于不完整信息的、看似矛盾的假设推演。
              ---
              希望这次在深度思考模式下的重新分析,能更清晰地剖析这个现象背后的逻辑。


              IP属地:广东来自iPhone客户端9楼2025-10-15 23:50
              回复
                要把之前的对话删掉它才会忘干净


                IP属地:福建来自Android客户端10楼2025-10-16 19:42
                回复
                  2025-12-08 16:24:05
                  广告
                  不感兴趣
                  开通SVIP免广告
                  用过老R1的都知道,有时候就算你要求中文了也会英文思考作答。这不是夸对话“记忆”,而是模型训练过程中遗留的顽疾,无解的。
                  生成英文就remake一波,这是唯一解。
                  楼上那个说夸对话记忆纯扯淡,服务提供方真干这种事不是白浪费算力?没意义也不可能的。


                  IP属地:山东来自Android客户端11楼2025-10-18 19:47
                  收起回复
                    当然不是,你用少了,从v3.1开始他就会固定思考要回答什么语言,这是他训练时就这样的


                    IP属地:广东来自Android客户端12楼2025-10-20 08:45
                    回复
                      你的错觉,答案是你那个图片中有相关内容。你可以认真看看你那个图片。


                      IP属地:山西来自Android客户端15楼2025-10-31 01:31
                      回复