VR视频、全景视频
2018-03-30 18:12:39 时间机器影像中心全景视频和VR视频有什么相似之处?
1.都可以是3D的(全景视频也有2D版);
2.都能360度上下、左右旋转观看;
3.具有视觉沉浸感。
那有什么不同呢?
最大区别就是VR视频允许观看者在场景里自由走动观察,但全景视频不行,拍摄机位在哪儿,观看者就必须在哪儿,顶多只能原地360度观看。
如果是一部VR电影,那么传统的“镜头运动、场景切换、Zoom In or Zoom Out”可能都将被取代,由观众来决定镜头位置。你可以把VR视频看成是“3D全景视频+自由移动”。
所以,现在大家所看到的基本都是“伪VR视频”,各大视频网站上标称的VR视频也基本都是360度全景视频。而打着“VR相机”口号行销的其实大部分都是360度全景相机。那么,我们不禁要问,真正的VR视频是什么样呢?
真正的VR视频目前只能通过CG实现
如何才能拍摄出真正的VR视频呢?很遗憾,以现在的技术手段和设备能力还很难实现。所以到目前为止,我们还没有看到过一部真正意义上的VR视频是被实际拍摄出来的。因为一台摄像机只能捕捉一个位置的光线,而要实现场景里的自由移动,需要捕捉场景里任意位置的光线,显然我们无法在场景里安置那么多摄像机,这是矛盾的。现今的谷歌光场技术是否能解决这问题?
那未来有没有可能呢?答案是肯定的。
要拍摄真正意义上的VR视频,我们需要光场摄像机。
什么是光场摄像机?这绝对是一个黑科技,很难用几句话表述清楚。大概意思就是通过矩阵式摄像头(非常非常多的微型摄像头),捕捉和记录周围不同角度射入的光线信号,再利用计算机后期合成出任意位置的图像。
Lytro公司去年发布的360度全景光场摄像机
Immerge,其内部的数百个镜头和图像传感器分为五个“层”(你可以想象每层都是20部GoPro相机组合在一起),除此之外还配套专用的服务器和编辑工具等。
与传统摄像机不同的是,光场摄像机除了记录色彩和光线强度信息外,还会记录光线的射入方向——这就是“光场”技术的由来。
有了从四面八方射入的光的方向信息,再利用算法,就能对环境进行分析,逆向建模,从而还原出一个三维的环境模型。这和计算机建模(CG)的结果是相似的,只不过CG是人为主观“虚构”模型,而光场摄像机是逆向方式“客观”还原模型。
有了三维模型,计算机便可以实时计算出任意位置的视觉图像,3D+360度全景也没有问题。这就是说,光场摄像机所在的位置拍摄到的景象是真实的,而自由移动位置后看到的景象是通过电脑后期合成的。
当然要,全景视频虽然是“伪VR视频”,但全景视频还是可以被认为是VR视频的初级阶段。因为全景视频加上3D效果也能带来沉浸感,相比普通视频已经有了质的飞跃,应用领域也非常广阔,值得我们去尝试和探索。
未来VR的呈现方式会趋向多元化,头显本身的发展也会从目前眼前单一屏幕向光场化真实化迈进,目前以Magic
Leap为代表的国内外研究机构在光场头戴式显示进行探索,这种头显可以让人眼聚焦在虚拟物体的不同深度,而不是一块显示屏上;
最后,应用方式上,谷歌Welcome to Light
Field为我们提供了一个很好的范例,更好的光场应用方式还需要进一步研究探索,比如,虚拟的光场和真实世界的逼真融合以及自然的交互也会成为学界和产业界的热点。"