sillytavern吧 关注:44,698贴子:162,858

从零开始研究了2星期,总算会玩一些了,给分享经验

只看楼主收藏回复

首先:选什么AI模型?
贴吧大佬说GLM KIMI GEMINI 之类都很好,但当前GEMINI因为是谷歌的,国内连不上,中转站泄露隐私风险高,所以我没折腾。
kimi模型,我问了DEEPSEEK和千问意见,都认为在扮演能力上不及GLM和DEEPSEEK,且费用较高,就没尝试。
GLM我特地找硅基流动尝试用了一下,优点是描写细腻,人物设定把控精准,但是对话过程的输出风格更适合写文而不是扮演,经常动不动就输出一个满屏的心理描写,很出戏。
而DEEPSEEK的扮演沉浸感最强,它更能理解和遵守sillytavern的系统输出规则,同时逻辑能力也好,即便温度拉到1.5照样能守住角色个性。
但DEEPSEEK的缺点也明显:
1.可能是由于逻辑能力过于好,反而会局限在你给它所设定的人设或剧情里,想要它自己来引导剧情发展新的,或者出乎意料的剧情很困难,最终要是要user自己提出新的词语来暗示剧情的其他发展方向。
2.超长文本后,特别是200轮后,我会感到人物会越来越呆板降智,只会顺着你说话,个性什么的都忘了。(这点还需要继续测试,我只有一个人物超过了200轮)但在百轮内保持角色设定还是没问题的。
怎么改善?
当前针对第一个问题,我发现大量详细的角色设定能补全创造力和主导性这一块的短板,包含了外貌特征、经历背景、能力特征,在角色摘要里详细补充性格倾向、言行风格、价值观、需求和目的等等。特别是对人物的经历背景进行大篇幅的详细描述,比如这个人物从小在什么环境长大,它经历了什么重大事件,该事件改变了什么,以至于它现在追求什么,诸如此类。这些设定越详细,DEEPSEEK从中获取的关键词就越多,它能发散的联想也就越多。
针对第二个问题,我还没有找到更好的办法,当前能运用的就是两个方向,一是在对话过程中加入更多新鲜的关键词来引导DEEPSEEK发散思维,二是在角色备注中加入更多过往对话中涉及到的内容,主动给角色加上新的动机,比如:{{char}}在与{{user}}相遇后被其魅力所吸引,希望能伴随其左右,帮助她实现成为动物学家的理想。
这样DEEPSEEK就可以从中找到新的发言线索了。
各位大佬有没有更多指教?


IP属地:上海1楼2026-03-21 23:18回复
    如果角色设定过于详细token会增加,可以参考社区里的调色盘教程还是很不错的


    IP属地:上海来自Android客户端2楼2026-03-21 23:32
    收起回复
      2026-04-30 23:44:41
      广告
      不感兴趣
      开通SVIP免广告
      楼主glm模型用的哪个预设?好像现在没有专门针对glm的预设?不过glm我用起来感觉人物感情写的还行,好像比deepseek好。数值逻辑方面好像和depseek半斤八两?


      IP属地:北京3楼2026-03-21 23:47
      收起回复
        如果是ai随机创造的角色,和你的主角绑定越来越深了,我也发现好像有些细节总是弄错。比如我遇到一个女孩,她说她的剑术是师傅教的,师傅是她家乡的师傅,在北方的一个小镇。结果过几天她又说自己变强了,师傅怎么指点她来着。我和她一直都在东南边的城市,她哪有时回去让师傅指点等等。诸如此类的错误很多。


        IP属地:北京4楼2026-03-21 23:49
        收起回复
          实际上,你发现的两个缺陷基本上是所有模型的问题


          IP属地:湖北来自Android客户端5楼2026-03-22 00:41
          回复
            自己cf搭中转没问题的,不过gemini很贵


            IP属地:云南来自iPhone客户端6楼2026-03-22 00:51
            回复
              “gemini国内连不上,中转站泄露隐私风险高”
              我只能说路漫漫其修远兮了


              IP属地:四川来自Android客户端7楼2026-03-22 02:14
              回复
                你玩🐳吧


                IP属地:中国香港来自Android客户端9楼2026-03-22 06:39
                回复
                  2026-04-30 23:38:41
                  广告
                  不感兴趣
                  开通SVIP免广告
                  glm写文和gemini3.0pro相比如何?我一直都是提供一大堆思路和要求,让它按照我提供的思路生成小说,但是听说3.0pro马上不让用了


                  IP属地:陕西来自Android客户端10楼2026-03-22 06:58
                  收起回复
                    自己看下每轮对话发给ai的token数量多少。最佳注意力区间也就6-7万token,8万开始就犯病要重刷,超过10万没有任何ai能输出高质量内容,都是流水账。所以一般回用自动隐藏插件,只保留最近8-10轮最新对话,其他楼层全部隐藏。你问那之前对话记忆咋办?了解一下用rag召回的数据库插件。


                    IP属地:江苏来自iPhone客户端11楼2026-03-22 08:31
                    回复
                      第一点用预设解决,让D指导猛猛抢话就行
                      第二点是因为超过注意力窗口导致AI回复质量下降(比如上下文200K,但是注意力窗口只有32k,那么超过32k之后AI的回复质量就会越来越差)
                      轮数长最简单的方法就是大小总结,小总结总结每一轮对话内容,超过十楼隐藏正文只发送小总结给AI。大总结是每50轮让AI总结一次小总结。
                      如果你能进ln就找魔数据库插件,功能性比预设的大小总结全面就是每一轮回复更慢


                      IP属地:广东来自Android客户端12楼2026-03-22 09:14
                      收起回复
                        没进社区确实麻烦,会以及需要重复发明发现很多东西。


                        IP属地:安徽来自Android客户端13楼2026-03-22 10:00
                        回复
                          点开上边栏,最左边那个按钮会显示这个,之后自己导入一个预设/破限的json之后可以看到的界面


                          IP属地:广东来自Android客户端14楼2026-03-22 13:28
                          收起回复
                            我的天,完全自学啊,加类脑直接解决所有问题,里面全是专家


                            IP属地:日本来自Android客户端15楼2026-03-22 13:39
                            收起回复
                              2026-04-30 23:32:41
                              广告
                              不感兴趣
                              开通SVIP免广告
                              角色和user的对话少正常吗,感觉1000字只能对话4句,而且话特别短,楼越多越没有对话,ds


                              IP属地:辽宁来自iPhone客户端16楼2026-03-23 22:24
                              收起回复