英伟达 今天推出了一项突破性的人工智能研究,开发者首次可以通过一个根据真实世界视频训练的模型来渲染完全合成的交互式3D环境。
研究人员利用神经网络来实时渲染一个合成的3D环境。就目前而言,虚拟世界中的每一个对象都需要单独建模,而这个过程成本高昂且十分耗时。与之相比,英伟达采用了一个能够根据真实视频自动进行学习的模型来渲染诸如建筑物,数目和车辆等对象。
这项技术为游戏,汽车,架构,机器人或虚拟现实快速创建一个虚拟世界提供了潜力。例如,你可以根据真实世界位置生成交互式场景,或者在消费者面向渲染流行歌手的实况 演唱会 。
负责这一项目的英伟达Applied Deep Learning Research副总裁Bryan Catanzaro表示:“在25年来,英伟达一直在发明生成交互式图形的新方法,而这是我们第一次通过神经网络实现这一目标。神经网络,特别是生成模型,将改变图形的创建方式。这可以帮助开发者以更低的成本来创建新场景。”
研究结果是一款简单的驾驶游戏,其中用户可以在城市场景中导航。所有内容都以交互方式呈现,并使用了能够将由传统图形引擎生成的3D世界草图转换为视频的神经网络。据悉,英伟达将在蒙特利尔举行的NeurIPS 2018大会上演示实况demo。
这个神经网络能够模拟世界的外观,包括照明,材质及其动态。由于场景是完全合成生成,因此看来这可以轻松进行编辑,自由删除,修改或添加对象。
研究人员指出:“建模和重建视觉世界动态的能力对于建立智能代理至关重要。除了纯粹的科学兴趣,学习如何合成连续视觉体验在计算机视觉,机器人和计算机图形学中存在广泛的应用。”
文章来源:映维网