IT之家 6 月 25 日消息,今年年初,英伟达在 CES 2025 上宣布 DLSS 4 升级,包含光线重建、超级分辨率和 DLAA 抗锯齿技术三大改进,英伟达宣称这是行业首个基于 Transformer 架构的实时渲染模型。
经过近六个月的 Beta 测试后,英伟达今日发布了最新的 ,并表示该模型已正式脱离 Beta 阶段,为未来的升级和图像质量模型奠定了基础。
据英伟达介绍,之前的 DLSS 版本依赖于卷积神经网络(CNN),但该技术仅能处理局部帧区域像素,该公司已做到了 CNN 所能实现的极限,仅发布新的升级配置文件已不再足够。
新的 Transformer 模型比 CNN 更先进,其模型参数量达前代两倍,可分析整帧画面而不再专注于局部内容。此外,Transformer 还具备跨帧像素重要性评估能力,从而评估每个像素的重要性。
英伟达表示,Transformer 模型对场景有更深的理解。它能提供更稳定的像素(减少画面闪烁和伪影),减少 31% 动态场景重影,提升运动物体细节程度、增强边缘平滑度。IT之家注意到,它同时还改善了光线重建的图像质量,特别是在复杂光线场景中。
相关阅读:
《》
《》
《》
广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。