4060,8G的显存,只能跑跑Q4_M的guff量化,用的4步lora,和马圣人的grok对比了一下,第1第2张grik,第3第4张qwen,第5第6张wan2.2的t2v
qwen对提示词的理解简直无敌,直接中文描述,写个小作文进去都行,还省去了抽卡的环节,几乎说什么做什么,不过缺点也是这个,同一套提示词,画出来全是差不多的
wan就真的毫无质感可言,可能主要用来是生成频的模型吧
grok的质感真是无敌,除了会有点网红脸,但它无脑,又快,一下子好多张,说实话grok有时候的图片,真的看不出是ai
所以想问一下,qwen和wan,有哪些可以提高真实度的lora,能到grok这种真实度就好了,或者是有哪些直接是量化的qwen和wan模型能有这种真实度的也可以
最后顺便问一下,wan2.2我只要用官方的那个2.2的4步lora就会很糊,糊到只有一个隐约的影子,但是换成2.1那个14b的4步lora就好了,什么原因






qwen对提示词的理解简直无敌,直接中文描述,写个小作文进去都行,还省去了抽卡的环节,几乎说什么做什么,不过缺点也是这个,同一套提示词,画出来全是差不多的
wan就真的毫无质感可言,可能主要用来是生成频的模型吧
grok的质感真是无敌,除了会有点网红脸,但它无脑,又快,一下子好多张,说实话grok有时候的图片,真的看不出是ai
所以想问一下,qwen和wan,有哪些可以提高真实度的lora,能到grok这种真实度就好了,或者是有哪些直接是量化的qwen和wan模型能有这种真实度的也可以
最后顺便问一下,wan2.2我只要用官方的那个2.2的4步lora就会很糊,糊到只有一个隐约的影子,但是换成2.1那个14b的4步lora就好了,什么原因




























