stablediffusion吧 关注:45,267贴子:186,360
  • 20回复贴,共1

wan 2.1的问题

只看楼主收藏回复

wan video decode 非常慢,用的是远端生成latent下载到本地的文件,显卡是用zulda转译的rx580,如果换成3060 12gb怎么样?


IP属地:广东1楼2025-08-16 11:21回复
    UserWarning: 1Torch was not compiled with flash attention. (Triggered internally at ..\aten\src\ATen\native\transformers\cuda\sdp_utils.cpp:263.)
    错误提示。


    IP属地:广东2楼2025-08-16 11:28
    回复
      2026-01-22 05:30:32
      广告
      不感兴趣
      开通SVIP免广告
      因为在远端生成视频会有限制,所以要先下载latent 到本地,然后解码。


      IP属地:广东3楼2025-08-16 11:30
      回复
        zluda很久以前就不更新了,你这个报错是Flash Attention,这还属于去年的技术,更新一些的Sage Attention想都不要想,老老实实换N卡,注意力训练都需要CUDA的新版本


        IP属地:湖北来自iPhone客户端4楼2025-08-16 12:27
        收起回复
          还有为什么视频里人物动作一大就会模糊?把cfg从1调到3.5好像有一点改善。


          IP属地:广东5楼2025-08-16 14:09
          收起回复