stablediffusion吧 关注:44,568贴子:183,374
  • 4回复贴,共1

wan2.2有没有类似sora2这种创建角色卡的功能?

只看楼主收藏回复

如题,sora2的创建角色是上传一段角色视频(不能真人)然后在生成的视频里@角色名就可以让这个角色在视频里出现。
但我玩本地开源模型玩多了,闭源模型提示词写的很烂,sora2用不来,我想生成一段类游戏/电脑cg的内容,但是sora2的运镜我搞不懂,提示词写不明白,随后只能拿起老家伙comfyui。
我目前能想到的就是训练角色Lora,但这种方法成本有点高,我之前练过一个真人Lora花了好几十在云端,money是小事主要是时间有点久,如果有的话请大佬教我,谢谢


IP属地:甘肃来自Android客户端1楼2025-11-14 23:12回复
    t2v可以练人物lora,效果还行,如果你用融合模型效果会差不少,i2v目前我用t2v的方法练出来嘛,抽卡有概率像(检查方案为背影转身露脸,看没有提示图的脸是否符合预期。目前有种邪道方案是高噪用i2v,低噪用t2v加lora,人物符合度大概80-90%。我只测试了脸部lora。全身lora没测试过。


    IP属地:浙江来自iPhone客户端2楼2025-11-14 23:23
    回复
      2026-01-08 00:27:14
      广告
      不感兴趣
      开通SVIP免广告
      图生视频


      IP属地:北京3楼2025-11-15 01:55
      回复
        在wan中对应的技术应该是STAND-IN
        上传一张角色参考图,然后文生视频时,人物根据参考图的人物特征生成视频
        实测是一致性有时候保持并不理想,在正视图时相对姣好

        原理是利用模型算法截取出参考图中的人物面部特征,载入到T2V的生成噪波之中


        IP属地:江苏4楼2025-11-15 09:15
        回复
          如果是想稳定生成多段短视频,尤其是不仅需要还原人物头部特征,还需要衣物及其它特征的。
          建议还是图生视频制作。
          先制作分镜图,再利用首尾帧,甚至是多帧控制,技术成熟,效果也不错。


          IP属地:江苏5楼2025-11-15 09:27
          回复