deepseek吧 关注:138,774贴子:399,223
  • 10回复贴,共1

deepseek的新模型可能改变ai的记忆方式吗?

只看楼主收藏回复

ai给我的第一个震撼是那个极度暴力的记忆机制——每次输入附带全部上下文,deepseek的新模型听说可以把记忆放到内存里面,是否有可能改变ai记忆的现状


IP属地:云南来自Android客户端1楼2026-01-24 23:11回复
    你是在那看了野鸡营销号


    IP属地:广东来自Android客户端2楼2026-01-24 23:15
    收起回复
      2026-03-05 13:33:18
      广告
      不感兴趣
      开通SVIP免广告
      缓存机制已经在尽力优化了,现在缓存的token价格只有10分之一


      IP属地:四川来自Android客户端3楼2026-01-25 12:47
      回复
        只是把一些已经固定的知识专门存起来,模型可以直接查表获取这些知识,而不是像以前那样还得推理。


        IP属地:江苏来自Android客户端4楼2026-01-25 14:37
        回复
          应该思考东西更多更快了,毕竟把固定知识当做不用推理


          IP属地:天津来自Android客户端5楼2026-01-25 16:51
          回复
            这和模型本身关系不大,一般都是靠各种外挂的记忆工具和检索工具之类的。模型本身能做到应该最多也就是注意力机制之类,这只能让它的表现变好,附带上下文还是根本手段省略不掉。


            IP属地:日本来自Android客户端6楼2026-01-25 19:44
            回复
              怎么说呢,深度去理解那个论文,我个人感觉是类似于,就是类似哈,是把聊天内容全都缓存进内容,然后利用rag全量检索。并不是每一次都附带全部上下文。
              当然这只是浅在的一个理解,他们团队肯定是有升级方法。


              IP属地:四川来自Android客户端7楼2026-01-28 09:18
              回复