先从游戏性能方面讲解,不差钱肯定是买9070xt,其游戏表现全面优于7900xt,尤其开启部分光追效果时甩了7900xt一脸。
但是呢,两者目前价格有差距,上下能差到400到700元,价格上不等于同一档次显卡了,所以1.预算紧张。2.对光追不感冒。满足这两个条件那么你可以选择7900xt。(还是不建议就是了,毕竟买新不买旧)。
从目前热门的ai应用方面,那么没有争论,肯定买7900xt,为什么呢?因为显存大是真的硬道理,9070xt的确ai单元表现碾压7900xt,但是你爆显存时,那不好意思,9070xt的运算速度给7900xt提鞋都不配,有小白会问,那么运行小的模型不行吗,可以,但没必要。我们为什么要本地部署ai和跑sd,1.因为其自由,内容不会被审查。2.因为隐私,我不希望成果流出或被共享等等。经过一段时间的学习和应用,我了解到从个人创作角度来说哪怕是4位量化的32Bdeepseek模型,从编程辅助,答题等方面效果都是比未量化的14B的表现好的,甚至小型企业最低要求的模型都是32B,比这更低那就真的只是玩玩了。而且sd跑图,你对图片质量要求越高,其显存需求就越大,一句话概括,我可以忍受1分钟出一个2K图,也不能忍受根本出不了2K图。
另外再补充几个知识点。
1.ai应用的确是英伟达长项,目前有钱,买4090或者5090是最好的选择。
2.没钱又想高性能又想大显存,可以选择amd,经过两年多的平台优化和软件补充,目前的7900xt在ai性能表现约等于4070ti,但是显存是20G版本。
3.AMD显卡在某些ai应用的确不尽人意,但这个不尽人意又并不是一般人需要在意的,举个例子,你只是个跑滴滴的,一般的私家车够用,你不需要用到为保障十连湾漂移稳定性买一台s级赛车。
我的处理方案是7900xt作用学习和一般应用,表现很好,需要用到cuda的时候,租借算力完成任务,再把成果搬回本地使用。毕竟,2万多的4090和4200元的7900xt,那差价够我租用显卡几年了。
但是呢,两者目前价格有差距,上下能差到400到700元,价格上不等于同一档次显卡了,所以1.预算紧张。2.对光追不感冒。满足这两个条件那么你可以选择7900xt。(还是不建议就是了,毕竟买新不买旧)。
从目前热门的ai应用方面,那么没有争论,肯定买7900xt,为什么呢?因为显存大是真的硬道理,9070xt的确ai单元表现碾压7900xt,但是你爆显存时,那不好意思,9070xt的运算速度给7900xt提鞋都不配,有小白会问,那么运行小的模型不行吗,可以,但没必要。我们为什么要本地部署ai和跑sd,1.因为其自由,内容不会被审查。2.因为隐私,我不希望成果流出或被共享等等。经过一段时间的学习和应用,我了解到从个人创作角度来说哪怕是4位量化的32Bdeepseek模型,从编程辅助,答题等方面效果都是比未量化的14B的表现好的,甚至小型企业最低要求的模型都是32B,比这更低那就真的只是玩玩了。而且sd跑图,你对图片质量要求越高,其显存需求就越大,一句话概括,我可以忍受1分钟出一个2K图,也不能忍受根本出不了2K图。
另外再补充几个知识点。
1.ai应用的确是英伟达长项,目前有钱,买4090或者5090是最好的选择。
2.没钱又想高性能又想大显存,可以选择amd,经过两年多的平台优化和软件补充,目前的7900xt在ai性能表现约等于4070ti,但是显存是20G版本。
3.AMD显卡在某些ai应用的确不尽人意,但这个不尽人意又并不是一般人需要在意的,举个例子,你只是个跑滴滴的,一般的私家车够用,你不需要用到为保障十连湾漂移稳定性买一台s级赛车。
我的处理方案是7900xt作用学习和一般应用,表现很好,需要用到cuda的时候,租借算力完成任务,再把成果搬回本地使用。毕竟,2万多的4090和4200元的7900xt,那差价够我租用显卡几年了。