Deepseek出了支持1M 上下文窗口,
卧槽,什么概念啊,原生百万字级记忆啊。
现在1M窗口一口气能装下超长世界观设定 + 完整角色卡(背景、性格、口癖、关系网、禁忌等几万字都没问题)几十上百轮的完整对话历史甚至可以把之前的几场支线剧情、关键事件全塞进去当“永久记忆”。
甚至直接把角色完整传记+过去所有互动记录全喂进去,从头开始新故事,AI基本不会忘设定超长连续剧情(比如几十章的连载式RP),它还能记住第一章的伏笔,到后面自然回收多人/多角色互动时,关系网稳定性大幅提升,不会轻易出现“谁是谁的谁来着?”
DeepSeek本身的性格保持能力本来就强(V3系列在RP benchmark上一直不错),再加上长上下文不丢关键信息,OOC率暴降网页/App端这个1M版本用了新的稀疏注意力 + 记忆增强结构(类似Engram或分层记忆),让它在超长序列上还能保持高质量推理和一致性。
卧槽,妥妥的地表最强啊!!!
伙计们,不用它玩角色卡真的是脑子抽风了…
卧槽,什么概念啊,原生百万字级记忆啊。
现在1M窗口一口气能装下超长世界观设定 + 完整角色卡(背景、性格、口癖、关系网、禁忌等几万字都没问题)几十上百轮的完整对话历史甚至可以把之前的几场支线剧情、关键事件全塞进去当“永久记忆”。
甚至直接把角色完整传记+过去所有互动记录全喂进去,从头开始新故事,AI基本不会忘设定超长连续剧情(比如几十章的连载式RP),它还能记住第一章的伏笔,到后面自然回收多人/多角色互动时,关系网稳定性大幅提升,不会轻易出现“谁是谁的谁来着?”
DeepSeek本身的性格保持能力本来就强(V3系列在RP benchmark上一直不错),再加上长上下文不丢关键信息,OOC率暴降网页/App端这个1M版本用了新的稀疏注意力 + 记忆增强结构(类似Engram或分层记忆),让它在超长序列上还能保持高质量推理和一致性。
卧槽,妥妥的地表最强啊!!!
伙计们,不用它玩角色卡真的是脑子抽风了…

青龙回首








