stablediffusion吧 关注:43,329贴子:173,905
  • 18回复贴,共1

qwen和wan有哪些提升真实感的lora

只看楼主收藏回复

4060,8G的显存,只能跑跑Q4_M的guff量化,用的4步lora,和马圣人的grok对比了一下,第1第2张grik,第3第4张qwen,第5第6张wan2.2的t2v
qwen对提示词的理解简直无敌,直接中文描述,写个小作文进去都行,还省去了抽卡的环节,几乎说什么做什么,不过缺点也是这个,同一套提示词,画出来全是差不多的
wan就真的毫无质感可言,可能主要用来是生成频的模型吧
grok的质感真是无敌,除了会有点网红脸,但它无脑,又快,一下子好多张,说实话grok有时候的图片,真的看不出是ai
所以想问一下,qwen和wan,有哪些可以提高真实度的lora,能到grok这种真实度就好了,或者是有哪些直接是量化的qwen和wan模型能有这种真实度的也可以
最后顺便问一下,wan2.2我只要用官方的那个2.2的4步lora就会很糊,糊到只有一个隐约的影子,但是换成2.1那个14b的4步lora就好了,什么原因


IP属地:江苏来自iPhone客户端1楼2025-11-22 02:32回复


    IP属地:江苏来自iPhone客户端2楼2025-11-22 10:36
    收起回复
      2025-12-10 18:48:51
      广告
      不感兴趣
      开通SVIP免广告
      不懂帮顶


      IP属地:黑龙江3楼2025-11-22 11:05
      回复
        qwen的lora一大堆,找找就有啊


        IP属地:河北4楼2025-11-22 12:47
        收起回复
          用grok的图训练lora可以吗


          IP属地:江苏来自Android客户端5楼2025-11-22 16:38
          回复
            双节棍qwen image,4步,1024*1536,速度非常快。lora是墨幽写实增强,权重0.7


            IP属地:河北6楼2025-11-23 00:04
            收起回复
              Qwen image语义理解很到位,但是底模细节不行,加一些增强lora效果也有限。如果比较抠细节其实推荐用flux模型重新洗一遍。


              IP属地:浙江8楼2025-11-23 22:32
              收起回复
                你口中毫无质感可言的模型生成的:










                IP属地:卢森堡9楼2025-11-26 09:52
                回复