拍摄全景街区的技术难点
2016-04-18 10:58:47 时间机器影像中心
如今,人们开始追求在远程体验虚拟现实的场景,所以全景拍摄就应运而生了。全景,顾名思义就是把相机环360度拍摄的一组或者多组照片然后拼接成一个全景图像。同理,全景街区的拍摄亦是如此。
全景图分为两种,一种是360度全景,另一种是720度全景。那么,360度全景和720度全景有什么区别呢?
360度全景技术是运用数码相机对现有场景进行多角度环视拍摄之后,再利用计算机进行后期缝合,并加载播放程序来完成的一种三维虚拟展示技术。360度全景照片有圆柱型、立方体、球型三种风景型和一种对象型(也叫做物体型)。
720度全景展示水平垂直各360度全景,一共720度视角,不存在任何盲点,想看哪儿就看哪儿。
而现有的街景图像是360度全景。通常采用多相机进行拍摄,之后再进行处理拼接为全景图。
拍摄全景街区的技术难点在于三方面。首先,鱼眼镜头畸变的矫正。其次,视差。最后就是街景图像融合了。
相机镜头可以分成广角镜头和普通镜头两种。使用广角镜头拍摄全景所使用的相机数量要比普通镜头的少。理论上来说,两个水平180度+的广角相机即可完成全景图像的拍摄,但是由于广角镜头边缘部分的街景图像信息损失比较严重,由此制作出来的街景图像效果很差,所以一般采用≥3的广角相机进行拍摄。
通常所用的鱼眼镜头模型有球面模型和多项式模型两种。这两种模型矫正出来的图像区别并不是很大,而且肉眼看上去没有误差。但是模型毕竟是模型,都是基于针孔模型发展出来的,针孔模型毕竟只是对相机成像过程的近似。这两个模型矫正出来的图像跟实际物体长宽等比例关系还是有一定的出入,这样如果需要像Google街景配合点云设备来识别墙面,将墙面可视化,就会出现全景街景图像和点云不匹配的情况。这就需要将鱼眼模型做到十分精确。
事实上最适用的还是普通的镜头,畸变很小,跟点云配合也准确,但是有一个问题是广角镜头和普通镜头都无法回避的问题——视差。
视差在街景系统中无法避免。由于街景系统中相机和相机的焦点之间的距离不可忽略,在拼接之前相邻两个街景图像中就会产生视差。而且越近的物体产生的视差越大,在街景图像融合的时候难度越大。对于视差较小的相邻两幅图像来说,可以用图像融合技术来处理,而对于视差较大的街景图像,只能依赖于融合算法或者改进相机的模型了。
图像融合算法在街景技术中的应用需要解决视差和色差(相同型号不同相机在不同环境下成像颜色可能会有些不同)所带来得问题。而好的图像融合算法不仅仅需要达到好的效果,还需要较高的性能来应付海量街景图像。
全景图分为两种,一种是360度全景,另一种是720度全景。那么,360度全景和720度全景有什么区别呢?
360度全景技术是运用数码相机对现有场景进行多角度环视拍摄之后,再利用计算机进行后期缝合,并加载播放程序来完成的一种三维虚拟展示技术。360度全景照片有圆柱型、立方体、球型三种风景型和一种对象型(也叫做物体型)。
720度全景展示水平垂直各360度全景,一共720度视角,不存在任何盲点,想看哪儿就看哪儿。
而现有的街景图像是360度全景。通常采用多相机进行拍摄,之后再进行处理拼接为全景图。
拍摄全景街区的技术难点在于三方面。首先,鱼眼镜头畸变的矫正。其次,视差。最后就是街景图像融合了。
相机镜头可以分成广角镜头和普通镜头两种。使用广角镜头拍摄全景所使用的相机数量要比普通镜头的少。理论上来说,两个水平180度+的广角相机即可完成全景图像的拍摄,但是由于广角镜头边缘部分的街景图像信息损失比较严重,由此制作出来的街景图像效果很差,所以一般采用≥3的广角相机进行拍摄。
通常所用的鱼眼镜头模型有球面模型和多项式模型两种。这两种模型矫正出来的图像区别并不是很大,而且肉眼看上去没有误差。但是模型毕竟是模型,都是基于针孔模型发展出来的,针孔模型毕竟只是对相机成像过程的近似。这两个模型矫正出来的图像跟实际物体长宽等比例关系还是有一定的出入,这样如果需要像Google街景配合点云设备来识别墙面,将墙面可视化,就会出现全景街景图像和点云不匹配的情况。这就需要将鱼眼模型做到十分精确。
事实上最适用的还是普通的镜头,畸变很小,跟点云配合也准确,但是有一个问题是广角镜头和普通镜头都无法回避的问题——视差。
视差在街景系统中无法避免。由于街景系统中相机和相机的焦点之间的距离不可忽略,在拼接之前相邻两个街景图像中就会产生视差。而且越近的物体产生的视差越大,在街景图像融合的时候难度越大。对于视差较小的相邻两幅图像来说,可以用图像融合技术来处理,而对于视差较大的街景图像,只能依赖于融合算法或者改进相机的模型了。
图像融合算法在街景技术中的应用需要解决视差和色差(相同型号不同相机在不同环境下成像颜色可能会有些不同)所带来得问题。而好的图像融合算法不仅仅需要达到好的效果,还需要较高的性能来应付海量街景图像。