英伟达发布blackwell显卡时,秀了一把神经网络渲染的肌肉,核心思想是在传统渲染管线中加入AI神经算法,让AI去用更低的开销,使光线追踪拥有更多的反弹次数、更多的作用面数(UE5中nanite生成的海量顶点都能被光线追踪,之前不可以)以及更准确的作用效果。聪明如我联想到RTX4090发布时的光追小车demo、RTX3090发布时的钢铁侠组装demo,认为这肯定又是一个大饼,无法落地...平地一声惊雷起~~~就在前天,英伟达放出了这个demo的项目文件,不过需要nvRTX分支的UE编辑器才能编辑,我的好基友、享誉国内外的UE美术大拿--bow大佬,分享了他们编译好的exe文件,我有幸能抢先体验了一番。
这个demo使用了RTX megageometry、RTX hair、restir GI和RTX DI四大神技,单柱面数200W,一扇门的面数>1000w,并且英伟达不计成本,让国内最顶级的UE美术通过手雕的方式创作了各种浮雕素材(是的,你没听错,软件手雕,并不是扫描),然后经过神经渲染的方式,呈现了目前最接近影视级的3D实时渲染画面。大家可以从我的截图中看到,无论镜头如何贴近模型,模型表面仍然是圆润自然的,无限接近真实照片。其中一扇门的面数>1000W,这比很多次时代游戏的单场景的面数还多。RTX5090D OC后,原生分辨率平均帧率40fps左右,如果是动态光源的部分,低至17fps,打开DLSS平衡,帧数上升到70fps左右,并且得益于transformer模型,清晰度几无衰减。
截图如下:















这个demo使用了RTX megageometry、RTX hair、restir GI和RTX DI四大神技,单柱面数200W,一扇门的面数>1000w,并且英伟达不计成本,让国内最顶级的UE美术通过手雕的方式创作了各种浮雕素材(是的,你没听错,软件手雕,并不是扫描),然后经过神经渲染的方式,呈现了目前最接近影视级的3D实时渲染画面。大家可以从我的截图中看到,无论镜头如何贴近模型,模型表面仍然是圆润自然的,无限接近真实照片。其中一扇门的面数>1000W,这比很多次时代游戏的单场景的面数还多。RTX5090D OC后,原生分辨率平均帧率40fps左右,如果是动态光源的部分,低至17fps,打开DLSS平衡,帧数上升到70fps左右,并且得益于transformer模型,清晰度几无衰减。
截图如下:














