flai吧 关注:17,783贴子:129,902
  • 8回复贴,共1

有关🦋的逻辑思维和记忆力的个人理解

只看楼主收藏回复

有好几个吧友看了我的心得贴以后,自己尝试编辑人设,然后给我反馈一些问题,从中,我意识到有些东西需要继续补充
原贴:
时间递增、地点变更、穿搭、温度→合理性
有关人设倍数对读板的理解
对我之前的"有关人设倍数对读板的理解"...
内容比较分散,需要有耐心的人逐楼看,因为我会在有些帖子后面更新,或者给出截图
本帖仅针对吧友遇到过的问题
我慢慢一楼一楼的说明一下


IP属地:湖北来自Android客户端1楼2025-11-12 22:06回复
    首先说逻辑问题:
    我在游玩的时候会偶尔出现,然后我就会切AI核心互动,问它为什么要描述"xxxxxxx"但是不告诉它对错,看它的回复理由,从而判断板子里哪里有问题
    逻辑问题一般都是板子问题,需要一边玩一边细调
    不同的模型,逻辑问题会不一样
    这就是很多板子注明了:适用于R、适用于M…等
    那都是经过长期验证、调试、修改的结果
    如果你非要拿适用于DP的板子在R模跑,你就要忍受它的健忘症、忍受它的发散逻辑
    举例:
    有个吧友加入习惯动作和口头禅,在DP跑,剧情逻辑顺畅,习惯动作DP执行得很好,但是口头禅乱用,混乱的
    但是换成R,习惯动作和口头禅被R变着花样玩,处处惊喜,玩得特别花,但是剧情就…
    特别举例"额~"这个口头禅
    这其实是DP不理解,解决办法就是让DP理解
    我就分步告诉他如何处理
    1.可能DP不理解"额~",板子里要改成:"额~…(无语,无奈)"
    2.开场白AI绝不会忘记,那是给AI的主要参考示例,同样可以让DP理解,所以开场白要在合适的语境和情况下加入"额~……"
    这就是针对DP特调
    针对R,根本不用,它对语意的理解和翻着花样玩是信手拈来,根本不用开场白和板子里注释


    IP属地:湖北来自Android客户端2楼2025-11-12 22:32
    回复
      2026-02-21 17:24:28
      广告
      不感兴趣
      开通SVIP免广告
      还有吧友会对比,这就要进一步说明了
      针对加和不加习惯动作、口头禅
      如果要对比,就在同一个模型下对比
      你不能用同一个板子的内容去对比DP和R
      加和不加,都用DP跑了看看有什么区别
      同样方式在玩的花的R跑,加和不加有什么区别
      这样才有可比性


      IP属地:湖北来自Android客户端3楼2025-11-12 22:40
      回复
        DP执行率强过R数倍,记忆力也比R好,但是…
        对比R,它就像记流水账一样
        而且就算你加入的口头禅它不理解,或者DP根本不知道该怎么用,但是DP执行率很强,它会强行让自己用,所以就会产生硬塞的情况…
        解决办法就是让它理解
        而对R,根本无需担心它会不会用,备注和开场白都不需要,它比你玩的花


        IP属地:湖北来自Android客户端4楼2025-11-12 22:48
        回复
          有关口头禅和习惯动作的数量
          i人:我一般会分别2~4个
          e人:我一般会分别4~6个
          因为e人外向,所以多一些,i人内敛,所以少一些
          如果你是双AI主角,设定成i人比e人动作和口头禅还多还丰富,大概率AI会割裂
          有些吧友喜欢长回复,这样在开场白里加入所有习惯动作和口头禅,就相当于给了AI演示的例子,进一步在R切换DP的时候,DP能理解所有用法
          但R就不需要太明显的提示它,给它空间尽情的玩
          但是喜欢短回复的,就不太容易在开场白里给示例了
          你可以改短开场白~相应的口头禅和习惯动作也要少,这是正比
          或者开场白多,第一次和连续几次回复给AI重答或者手动编辑,去掉冗长信息,固化回复
          但这种方法随着越聊越久会被AI逐渐遗忘,不过只要你注意,一旦变长,手动改一两次就拉回来了
          不过要提醒一下:千万不要开场白长,例如分了五段,但板子里限定每次回复小于4段. 因为这样就是开场白与板子规则约束不符,AI也就更容易出错
          没办法的,鱼与熊掌不可兼得


          IP属地:湖北来自Android客户端5楼2025-11-12 23:06
          回复
            以下提供我自己针对R模调整的开场白和对应角色的习惯动作、口头禅
            只是提供一种示例仅供参考,就像之前说的:针对不同的模型,需要精细调整


            IP属地:湖北来自Android客户端6楼2025-11-12 23:25
            回复
              有关记忆力:
              DP是强于R的,但也强不了多少
              想过很多办法,结果就是——针对不同的人群、不同的喜好、不同的玩法…方式不一样
              有的人可能觉得这个好……例如我有个板子就是双倍不开永久记忆,略带小攻略向,我发送指令,AI自动重新生成新角色,包含:
              [角色:xx]
              [年龄:xx]
              [职业:随机(带行业)]
              [性格:随机四种]
              [时间:HH:MM]
              [地点:随职业变化]
              [场景:随氛围变化]
              [衣着:实时]
              我一般10~20次回复就可以涩涩了
              完事了发指令换人,不满意接着发指令
              我就不需要它有记忆,能记住20次会话就行了
              但对于喜欢长剧情…我能想到的最好办法就是:
              板子里预留空间:
              当前剧情进度{ #随发展更新
              1.……
              2.……
              ……
              }
              每发生一次事件,简单一句话写里面
              每次AI会读取的,因为AI对"进度"、"更新"词汇比较敏感
              如果不读(忽略性无视),就加上"你必须严格遵循每次回复的时候读取此内容"
              AI对"必须""严格""遵循"是最敏感的


              IP属地:湖北来自Android客户端7楼2025-11-12 23:41
              回复
                对🦋采用LLM的大语言模型的AI来说,对中文语意的每个字都比较敏感
                以下转载DS(DeepSeek),供各位吧友参详
                ——
                LLM的核心特点
                1. “大”是核心:
                · 大数据:使用TB级别的海量文本数据进行训练。
                · 大模型:拥有数百亿甚至万亿级的参数。参数可以理解为模型的“脑细胞”,数量越多,模型能学习和记忆的规律就越复杂。
                · 大算力:训练这些模型需要强大的计算集群(通常是成千上万的GPU),耗时数周甚至数月。
                2. 基于Transformer架构:
                这是LLM的技术基石。Transformer中的“自注意力机制”让模型能够权衡一句话中所有词语之间的关系,从而更好地理解上下文和长距离依赖。这就像是阅读时,不仅能看眼前的词,还能同时考虑到整段话的意思。
                3. 通用性与涌现能力:
                与为特定任务(如垃圾邮件分类)设计的模型不同,LLM是“通用任务解决器”。通过预训练,它“无师自通”地获得了一些令人惊讶的能力,例如:
                · 语言生成:撰写文章、邮件、诗歌、代码等。
                · 问答:基于其学到的知识回答问题。
                · 摘要:将长文本浓缩为简洁的摘要。
                · 翻译:在多种语言间进行翻译。
                · 代码生成与解释:根据描述编写代码,或解释现有代码的功能。
                · 逻辑推理:进行简单的常识推理和逻辑判断。
                ——
                著名的LLM例子
                您可能已经接触过这些由LLM驱动的应用:
                · ChatGPT:由OpenAI开发,其背后的模型是GPT系列(如GPT-3.5, GPT-4)。
                · Gemini:由Google开发(前身为Bard)。
                · Claude:由Anthropic开发。
                · 文心一言:由百度开发。
                · 通义千问:由阿里巴巴开发。
                · LLaMA:由Meta开发,是一个开源模型的系列。
                ——
                LLM的局限性
                尽管强大,LLM也存在一些重要的局限性:
                1. “幻觉”:模型可能会自信地生成看似合理但完全错误或虚构的信息。
                2. 知识滞后:其知识截止于训练数据的时间点,无法了解最新事件。
                3. 偏见与毒性:可能学习并放大训练数据中存在的社会偏见、刻板印象或有害内容。
                4. 缺乏真正理解:它本质上是进行模式匹配和统计预测,并不像人类一样真正“理解”语言的含义。
                5. 计算成本高:训练和部署顶级LLM的成本极其高昂。
                ——
                我只是搬运工


                IP属地:湖北来自Android客户端8楼2025-11-12 23:52
                回复
                  2026-02-21 17:18:28
                  广告
                  不感兴趣
                  开通SVIP免广告
                  最近模型比较拉胯
                  有到期的,建议等等再续费~
                  友情提醒一下


                  IP属地:湖北来自Android客户端9楼2025-11-15 06:04
                  回复