stablediffusion吧 关注:47,882贴子:201,835
  • 5回复贴,共1
求助

有人试过那个新出的ltx2.3吗?

只看楼主收藏回复

我试了一下,文生还不错。但图生视频它老是不用我参考图,上来就第一帧给参考图一个镜头,然后就直接切成毫不相关的人物复现我的提示词内容了,到处问也没人说得清楚,到底啥问题。


IP属地:吉林来自iPhone客户端1楼2026-03-08 13:03回复
    他的图生视频太垃圾了,画面糊的很跟wan2.2完全没得比,人物一致性也很差,动作什么的也很诡异,听说要用官方的工作流搭配专门的lora会效果好一点


    IP属地:广东2楼2026-03-09 09:23
    收起回复
      2026-03-30 08:43:10
      广告
      不感兴趣
      开通SVIP免广告
      我看那些up出的图生视频一点不蹦,我试了好几个up的工作流全踏马崩坏,要么灰的,要么一大片马赛克字母


      IP属地:山东来自Android客户端3楼2026-03-10 01:49
      回复
        后来看了几个up的内容,弄清楚了,是我的打开方式不对,让豆包帮忙写图生视频提示词是有焚诀的,就这个,你把图给它然后写这个焚诀:这张图为首帧图的视频提示词,x秒时间(你想生成几秒的就写几秒),主要展现(括号内是大体的内容描述)。一个要求,就是什么时间秒做什么内容,不用一秒一秒来,按照内容动作来规划。给我给现在这张图的英文视频提示词,要英文提示词,一整段不分段
        这么弄100%是图生视频,而且经过多次测试之后发现如果写完之后让豆包润一下提示词的话效果更好,说明确实很吃提示词,描述的越详细效果越好,但也不能写太多,写太多会超出它规定时间内能做出的动作上限就崩了。
        已经有大神测试出这模型上限是20秒,只不过太吃内存了,我16g 96g内存跑10秒720p占用是这样的。所以,看着跑吧,注意硬盘健康度,我硬盘已经掉了1%了。


        IP属地:吉林来自iPhone客户端4楼2026-03-10 09:12
        回复
          ai机器的思考方式和人的不一样,你想生成什么效果和动作,先用豆包或者千问模拟一遍才行,自己手写的生不出来很正常,为什么审核不过出不来,因为没通过ai逻辑所以肯定是乱的,就是直接被屏蔽了……


          IP属地:广东来自Android客户端5楼2026-03-10 18:01
          回复