某些人的人生缩影:
用1060战未来 → 在贴吧战5090D → 用Excel计算“制裁损失” → 《完 美 闭 环》
本文专攻对象:“用着1060 6GB显存的战损显卡连Llama3的模型文件都加载不全,但是十分操心1PFLOPs算力怎么用的玩家?”
对于云玩家来说,自己虽然用着1060,对于FP4、8、16、32一概不通,但是就是要天天骂5090D不行,虽然到底哪不行我也不知道,我就是得键盘侠一会
那么5090D区别究竟是啥呢?
大发慈悲的开贴一下,今天来给这堆云B说清楚一下
先说结论
1:5090D与5090在FP32、FP16测试环境完全一致,无性能损失与阉割。
2:FP8与FP4项目中,才可有70%性能差距
3:FP8与FP4现阶段对个人开发用户 0 适用场景,对于企业开发用户 基本也是0场景 基本不会首选
4:网上的xiaozi整天是拿着空气项目当靶子在这贬低这个吹捧那个
5:如果你的开发项目有deepseek官网的体量,那对你有影响。(别告诉我一个显卡吧人均官网deepseek量级了)
6:对于玩1:4399的、steam打游戏的,2:小炼丹师以及中等体量的炼丹师乃至小企业化炼丹项目的,3:图画爱好者模型应用以及自建知识库、推理的,没有影响
参考文献:
1:在AMD和英特尔都工作过的芯片设计专家Raja Koduri实名吐槽:FLOPs除以4,价格翻倍,这就是在CES上stay grounded的秘诀、表示英伟达宣传的算力是在FP4精度下的,而Project DIGITS在FP16下的表现,可能就和5070差不多,甚至接近Intel Arc B580(售价250美元)原文tuite。
2:Tiny Corp:FP4根本就没法用,Project DIGITS在FP8精度下只有500TFLOPs,顺便宣传自家的产品有4PFLOPs,是Project DIGITS的8倍。3000美元还不如买个游戏电脑。原文tuite
3:微软开发团队对于采用 FP4 进行模型训练的方法和效果的阐述。
FP4Wang R , Gong Y , Liu X ,et al.Optimizing Large Language Model Training Using FP4 Quantization[J]. 2025.
4:5090和5090D在深度学习模型上的基准性能测试 bilibili:BV1JidsYDE2L:莫布兰




用1060战未来 → 在贴吧战5090D → 用Excel计算“制裁损失” → 《完 美 闭 环》
本文专攻对象:“用着1060 6GB显存的战损显卡连Llama3的模型文件都加载不全,但是十分操心1PFLOPs算力怎么用的玩家?”
对于云玩家来说,自己虽然用着1060,对于FP4、8、16、32一概不通,但是就是要天天骂5090D不行,虽然到底哪不行我也不知道,我就是得键盘侠一会
那么5090D区别究竟是啥呢?

先说结论
1:5090D与5090在FP32、FP16测试环境完全一致,无性能损失与阉割。
2:FP8与FP4项目中,才可有70%性能差距
3:FP8与FP4现阶段对个人开发用户 0 适用场景,对于企业开发用户 基本也是0场景 基本不会首选
4:网上的xiaozi整天是拿着空气项目当靶子在这贬低这个吹捧那个
5:如果你的开发项目有deepseek官网的体量,那对你有影响。(别告诉我一个显卡吧人均官网deepseek量级了)
6:对于玩1:4399的、steam打游戏的,2:小炼丹师以及中等体量的炼丹师乃至小企业化炼丹项目的,3:图画爱好者模型应用以及自建知识库、推理的,没有影响
参考文献:
1:在AMD和英特尔都工作过的芯片设计专家Raja Koduri实名吐槽:FLOPs除以4,价格翻倍,这就是在CES上stay grounded的秘诀、表示英伟达宣传的算力是在FP4精度下的,而Project DIGITS在FP16下的表现,可能就和5070差不多,甚至接近Intel Arc B580(售价250美元)原文tuite。
2:Tiny Corp:FP4根本就没法用,Project DIGITS在FP8精度下只有500TFLOPs,顺便宣传自家的产品有4PFLOPs,是Project DIGITS的8倍。3000美元还不如买个游戏电脑。原文tuite
3:微软开发团队对于采用 FP4 进行模型训练的方法和效果的阐述。
FP4Wang R , Gong Y , Liu X ,et al.Optimizing Large Language Model Training Using FP4 Quantization[J]. 2025.
4:5090和5090D在深度学习模型上的基准性能测试 bilibili:BV1JidsYDE2L:莫布兰



