720度全景怎么制作?
第一步我们需要把拍摄好的多张图片输入到ptgui里,使用自带的编辑工具即可对图片进行调整、旋转、删除等操作。
第二步就是拼接全景图片,将第一步里导入的图片拼接成一个完整的360全景制作,操作十分简单,只要点击“缝合”按钮软件就会自动处理。
拼接工作完成后,在下方的显示区域即会出现一幅360°环绕立体场景,这个场景会自动以360°环绕播放,用户也可以用鼠标做顺时针或逆时针浏览。这样一个360全景制作图片就做好了。上传到相应的全景平台即可,还可以放大、缩小、旋转等等,方便观察。1、选好位置,将三角架、节点云台、照相机调整好备用
位置选择,请注意视野,避免相机顶部有遮挡物,减少阴影面积;节点云台固定较为重要,确定了支点位置之后,以此为轴后不可移动,进行拍摄。
2、不同镜头的拍摄技巧
a.鱼眼镜头,旋转相机,拍摄一圈即可,如果效果不好,可再拍一圈备用;
b.10mm广镜头,建议至少拍摄两圈,且每圈拍摄18-20张照片;
c.16mm广镜头,建议至少拍摄三圈,且每圈拍摄12-16张照片。
其他镜头操作方法,可根据以上技巧以此类推,如果对全景效果要求较高,可适当多拍摄几圈备用。
3、旋转相机的拍摄技巧
a.节点云台调整好后,相机先围绕中轴进行360度旋转拍摄,需要根据镜头的广度决定拍照数量;
b.360度平面拍摄完毕后,将相机镜头调整至对准正上方进行拍摄;
c.为去除相机底部阴影,在顶部照片拍摄完成之后,将相机调整至向下倾斜60°左右的角度进行拍摄;
d.60°斜角拍摄完地面后,将三脚架向后平移一段距离,相机对准之前三角架的位置进行补拍,这样就可以去除掉三角架的阴影。
提示:三角架底部补拍照片,请先用ps对照片进行拼接处理后,再上传至全景拼接软件中进行制作。
4、拍摄完毕,照片拼接
对所拍摄的照片进行筛选后,用全景照片拼接软件,进行软件720度云全景照片的最终制作。在数字成像技术出现之前,人们获得了720张全景照片,以两种方式显示照片:使用专用全景相机旋转或通过暗室进行专业拼接,无论普通摄影师采用哪种方法都很困难。 。 APS相机所拥有的“全景”只是一个利用超广角镜头的大视角,更适合称为“覆盖照片”。数码相机和数字图像处理技术的普及使得全景摄影变得容易。使用数码相机和可以运行图像处理软件的计算机,任何人都可以尝试创建令人惊叹的720全景照片。
用于拼接全景照片的摄影要点有一定的要求,如曝光值相近、色调相近、顺序排列、相互间有轻微重叠等。射击时应采取一些预防措施。
焦距的选择
有人认为在拍摄全景照片时,视角应尽可能大,因此应使用最短焦距(广角镜头或变焦镜头广角端),以便需要缝合的照片数量较少。事实上,这是一个误会。它省去了拍摄时拼接的麻烦。由于广角镜头的透视效果很强,特别是图像的边缘,很容易变形,所以很难实现无缝拼接。但是广角具有广角的优点,可以形成一个更强大的视角。例如,上面的图片是佳能EF17-40毫米胶片。除全景透视外,透视关系也很强。
因此,您可以使用中焦距或长焦端以较少的失真进行拍摄,并且在拍摄过程中不应改变焦距。更常用的镜头有EF35mm,EF50mm,EF85mm等。上图显示了mike2009的中远摄全景。
大多数数码相机的曝光参数都有特殊的全景模式。在此模式下,相机会根据拍摄全景照片的要求自动设置曝光参数。对于没有全景功能的摄像机,应注意以下几点:
不要更改光圈、速度、iso、分辨率和其他设置
第三,拍摄方法是按一定的顺序拍摄(从左到右或从上到下等)。
最好用三脚架平稳地旋转。旋转和拍摄时,必须注意垂直的旋转轴。在拍摄前后或逐点翻译时,请注意相机的高度和角度是相同的。一般不使用闪光灯,闪光灯会造成光线和黑暗。拍摄时相邻的两张照片之间一定有一些重叠。一些数码相机,如佳能和卡西欧,在全景模式下有液晶显示的辅助提示。避免拍摄时,照明条件的急剧变化(如云天),以避免过多的曝光之间的图像。还必须注意避免在路口移动物体(如车辆和行人)。虽然选择一个明显的地点作为连接点是有利的一些自动软件识别和剪接,我们仍然建议选择一个无标记的,容易混合的地点作为连接点,如水面和遥远的山脉,所以剪接是不容易看到的。
做到无缝拼接
1、准备一个三脚架。
2、将相机的白平衡调整为阴天。如果将其设置为自动,则每张照片上的白平衡可能会发生变化,因此照片的效果会有所不同。
3、最好是垂直拍摄,因为这样比水平拍摄更能避免边缘扭曲。
4、每张照片重叠到20%,确保每张照片的1/4出现在第二张照片上,这有助于照片商店重叠好的照片。
5、拍摄第一张照片和最后一张照片时,用标记拍照,这样您就知道从哪里开始并结束拍摄。
6、买一条快门线,可以用来自动计时。拍照片的时候它没有摇晃。
7、拍摄越快越好,因为如果有云朵在移动,或者光线发生变化,那么就必须快速捕捉图片,并确保图片的内容不会偏离太多。
每个商家按照制作场景收费,每个场景收费1000-2000元左右,假设帮助同城100家商家制作全景,每家平均收取3000-5000元,每年就有30-50万的盈利空间。
1、品牌支持:授予酷雷曼3DVR全景品牌代理商,享受使用酷雷曼3DVR全景品牌开发市场的支持;
2、广告支持:公司在大型媒体及户外广告对加盟商进行宣传;
3、业务支持:公司为代理商提供整套系统市场营销资料,帮助代理商快速掌握项目知识,并对代理商进行业务指导和培训;
4、收益支持:提供多种功能及价格的合作版本供合作商选择,满足不同的市场环境和需求。全景摄影的类别
我认为全景摄影大体可分为三类:筒形全景摄影、球形全景摄影和平面全景摄影。
其中筒形全景包括:内筒筒形全景和外筒筒形全景。
筒形全景摄影又分以下拍摄手法:1、水平拍摄法;2、垂直拍摄法;3、倾斜拍摄法。
球形全景包括:内球球形全景和外球球形全景。
内筒筒形全景:拍摄时相机机位不动,通过转机或常规相机做360度旋转所拍摄的通过后期处理形成影像,称为内筒筒形全景。因为这种拍摄手法所形成的影像,展示时须将画面的首尾相接,画面朝内,围成圆筒状,观赏者站在圆筒内观赏。所以这种拍摄手法称作内筒筒形全景。
外筒筒形全景:拍摄这种全景形式时,被摄对象不动,而是相机围绕被摄对象拍摄一周,这种拍摄手法所形成的影像,称为外筒筒形全景。展示时,也是将图片首尾相接成圆筒状,但需画面朝外,观赏者站在筒外观看,所以这种拍摄手法称作外筒筒形全景。
内球球形全景摄影:目前有两种:第一种,用常规片幅相机,以接片形式将拍摄对象的前、后、左、右、上、下,所有周围场景都逐一拍摄下来。展示时须将照片拼接成空心球形,画面朝内,然后观赏者在球内观看。第二种,它是利用鱼眼镜头或常规镜头,拍摄多幅,然后利用专用软件拼接合成的影像。这种全景形式只能借助计算机来演示。以上这两种拍摄手法均称作内球球形全景。
外球球形全景:拍摄对象必须是球体或接近于球体形状。拍摄时围绕拍摄对象作等距的多维旋转拍摄,直至将整个球体拍遍。展示时,将图片逐一拼接起来形成球形,画面朝外。这种拍摄手法称作外球球形全景。目前,大家可以在网上看到整个地球的卫星正射影像图,这就是外球球形全景。
平面全景摄影:一般这种拍摄手法运用于街道或楼群等无法一次拍摄完成的影像。拍摄时,相机机位沿被摄对象做等距平移运动,直至将被摄体全部拍完。所拍摄的多幅影像经合成后,称作平面全景。
以上均为个人观点,借以抛砖引玉,希望大家积极参与共同探讨全景摄影技术。其实720全景跟360全景是一样的,水平一圈360度和上下一圈360度就是720全景了。
720度全景效果图制作首先需要图片素材,可以是相机拍的鱼眼照片,也可以是建模的虚拟图像。相机拍的较多,简单方便一些。
相机拍摄的照片,需要专业设备,一般是单板相机,鱼眼镜头和云台三脚架,这样拍出来照片清晰。一般是拍出水平一圈+天、地这几张照片,也有不拍天地两张的,这跟自己选择的镜头有关。
下面就是拍摄的素材图片进行合成拼接了,需要软件操作的。
现在的这种合成全景的软件很多,之前看过杰图的造景师,拼接效果还可以,导入拼接然后发布,可以生成球形全景图,柱形全景啥的,可以发布Flash和HTML5格式,在电脑上或者手机上看,全景图也可以做成场景切换的漫游形式,加热点啊,flash动画,视频,文字等等,主要看你自己需要的效果了。前期用单反+鱼眼镜头拍摄、用三脚架固定好,60度拍一张,一共拍六张,然后后期把六张图加上补天补地两张图导入ptgui中拼接,最后导入酷雷曼中合成直接上传,就可以做成了。
怎么才能拍好全景视频?
如何拍摄出吸引人的VR全景视频?这是每一个全景爱好者的最终目标,其实在VR全景视频拍摄中有几个非常关键的因素,只要把握好就可以制作出效果震撼的VR全景
第一个是景深,第二个是互动。景深指的是360度的视频,而不是简单的全景,或者至少是360度的3D视频。互动就是用一些互动的方式来影响情节。未来,虚拟现实可以通过更具沉浸感的方式融入虚拟现实电影中。
虚拟现实电影和虚拟现实游戏的区别将越来越模糊。用户不知道他们是在玩游戏还是在看电影。所谓的游戏游戏是指用户可以操作一些东西,如果一部电影也有这些属性,它可以被视为一个轻量级的小游戏。
第三,不能有拖慢或者卡的情况出现,用户看一个传统视频,比如看24帧电影或者25帧电视,帧数如果不是太少,其实用户觉得这个视频还是能够接受的。如果用户带了头戴显示器观看VR虚拟现实影片,帧数低于60帧或者25帧,或是用户转头的时候转头动作不能合拍,中间差20毫秒以上的话,用户会觉得这个场景不真实,会觉得这个场景和操作的反馈是不同步的,还会有头晕的不适感。
所以说真正给用户营造一个沉浸感比较好的VR视频,肯定不是说内容制造商只是制作出比较好的内容就可以了,很大程度上取决于用户用什么设备和手段来观看这部片子,硬件其实是影响用户体验很关键的一个环节。1、投影方式
全景拍摄并非是多么时新的一个概念,事实上它甚至可以追溯到12世纪的《韩熙载夜宴图》:
当然这并非真正意义上的沉浸式体验,就算我们把这幅长画给卷成一个圆筒,然后站在中心去观看,也依然会觉得缺失了一点什么,没错,一个明显的接缝,以及头顶和脚下两片区域的空白。
出现这种问题的原因是很简单的,因为宋朝人并没有打算把这幅画做成沉浸式的体验——当然这是废话——真正的原因是,画面对应的物理空间视域并没有达到全包围的程度,也就是水平方向(经度)360度,垂直方向(纬度)180度。没错,说到这里,你一定想到了这张图:
类似这样的世界地图也许在你家里的墙面上已经贴了有一些年头了,也许自从升上大学之后你从未正眼瞧过它,但是它却符合一张全景图片需要的全部条件,你把它放到各种VR眼镜里去观看的话,就宛若陷入了整个世界的环抱当中。
这种能够正确地展开全物理视域的真实场景到一张2D图片上,并且能够还原到VR眼镜中实现沉浸式观看的数学过程,就叫做投影(projection)。
而那张看起来平凡无奇的世界地图,使用的就是一种名为Equirectangular的常见投影方式,它的特点是水平视角的图像尺寸可以得到很好的保持,而垂直视角上,尤其是接近两极的时候会发生无限的尺寸拉伸。
下图中对于这种投影方式的拉伸现象体现得更为明显,注意看穹顶上的纹路变化,越是靠近画面的顶端,就越是呈现出剧烈的扭曲变形。幸好,VR头盔和应用软件的意义也就在于将这些明显变形的画面还原为全视角的内容,进而让使用者有一种身临其境的包围感。
然而全景图像的投影方式远不止这一种,比如最近刚刚发布的理光Theta S以及Insta360全景相机,就采用了另外一种更为简单而有效的投影策略:
通过它的两个鱼眼摄像头输出的画面,各自涵盖了180度的水平和垂直视场角,然后将两个输出结果“扣”在一起就是全视域的沉浸式包围体了。
当然,这种名为Fisheye的投影方式,生成的2D画面事实上扭曲变形是更加严重的。而通过图像重投影处理的方式将它变换到VR眼镜中显示的时候,受到图像采样频率的限制(或者通俗点说,像素点大小的限制),这样的扭曲被还原时会多少产生一定程度的图像质量损失,因而也可能会造成全景内容本身的质量下降。
由此看来,作为全景内容的一种重要承载基体,投影图像(或者视频)不仅应当完整包含拍摄的全部内容,还要避免过多的扭曲变形以免重投影到VR眼镜时产生质量损失。
那么,除了上述两种投影方式之外,还有更多方案可以选择吗?答案是,当然了,而且有的是!
比如墨卡托投影(Mercator),它沿着轴线的拉伸变形比Equirectangular更小,对应实际场景的比例更为真实,但是垂直方向只能表达大约140度左右的内容;
又比如Equisolid投影,也有人称之为“小行星”或者“720度”全景,它甚至可以把垂直方向的360度视域都展现出来,但是前提是使用者并不在乎巨大的扭曲变形可能带来的品质损失:
那么,有没有什么投影方式生成的画面,是能够覆盖至少360度水平方向和180度的垂直方向,并且没有任何画面的扭曲变形呢?
答案是:没有扭曲变形的单一图像投影方式,是不存在的。然而,如果投影的结果画面不是单一图像的话,方法还是有的:
如果你正好是一位图形开发或者虚拟现实软件开发的从业者的话,这张图对你来说应该是非常熟悉的,这就是Cubemap(立方体图像)。
它相当于一个由六幅图像拼合组成的立方体盒子,如果假设观察者位于立方体的中心的话,那么每幅图像都会对应立方体的一个表面,并且在物理空间中相当于水平和垂直都是90度的视域范围。而观察者被这样的六幅画面包围在中心,最终的视域范围同样可以达到水平360度,垂直360度,并且画面是绝对不存在任何扭曲变形的。
是一种很理想的投影结果了,并且如果你恰好懂得使用一些离线渲染软件或者插件来制作和输出全景内容的话,这一定是最合适的一种选择。然而,在实际拍摄当中我们却几乎不可能用到这种立方图的记录方式,原因很简单——我们现有的拍摄设备难以做到。
2、拼接与融合
如果说有六台摄像机,它们的FOV角度被严格限定为水平和竖直都是90度,然后造一个一丝不苟的支架,把这六台摄像机牢固而稳定地安装到支架上,确保它们的中心点严格重合在一起,并且各自朝向一个方向——这样的话,输出的图像也许能够正好符合立方图的标准,并且可以直接使用。
然而,无论摄像机镜头的感光面积,焦距参数(以及因此计算得到的FOV视场角度),还是支架的钢体结构设计与制作,都无法确保精确地达到上面要求的参数,几mm的光学或者机械误差看似无伤大雅,但是对于严丝合缝的立方图图像来说,必然会在最终呈现的沉浸式场景中留下一条或者多条明显的裂缝。更何况还有支架运动时产生的振动问题,以及相机镜头老化产生的焦点偏移问题,这些看似细小的麻烦各个都足以让我们刚刚构建的理想物理模型化为泡影。
理想和现实的差距如此之大,幸好我们还有解决的办法——没错,如果在拼接的地方留下足够大的冗余,然后正确识别和处理两台摄像机画面重合的区域,这样不就可以做到六幅画面的输出和组成全景内容了吗——而这正是全景内容制作的另一大法宝,图像的拼接与边缘融合。
下图是360Heros系列全景摄像机。
它使用了6个GoPro运动相机以及一个支架来辅助完成拍摄,这六台相机分别朝向不同的方向,如果采用4X3宽视角设定的话,其水平和垂直FOV角度约为122度和94度。
在全景视频拼接和输出软件中读取六台摄像机的输入流或者视频文件,并且设置它们在支架上的实际方位信息(或者直接获取数码相机本身记录的姿态信息)。这样我们就得到了足够覆盖全视域范围的视频内容。
正如我们之前所描述的,因为无法做到精确的对齐,因此需要在每台相机的视域角度上提供必要的冗余,因而得到的视频画面互相之间会存在一定的交叠关系,直接输出全景画面的时候,可能会存在明显的叠加区域或者错误的接边。虽然目前几种常见的全景视频处理工具,诸如VideoStitch,Kolor等具备一定程度的自动边缘融合功能,但是很多时候我们还是免不了要自己手动去裁切和调整这些边缘区域(例如下图中使用PTGui来进行各幅画面接缝的修正),择取画面质量更高或者畸变更小的边缘区域,并且确保画面之间是严格对齐的。
这样的工作耗时耗力,并且有一个重要的前提,就是作为输入源的画面必须能够覆盖360度全视域并且存在冗余。
正如我们之前所计算的,如果采用六个相机拼装的方式,那么每个相机的FOV角度不应小于90度,对于GoPro Hero3系列相机来说,此时必须采用4x3的宽视域模式,如果是16x9的宽高比设置,那么垂直方向的FOV角度很可能无法达到要求的数值,进而产生“无论如何都拼接不上”的问题——当然我们可以通过在支架上调整各个相机的朝向角度,或者增加相机的数量,来避免这一问题的产生,不过无论从何种角度来看,采用接近1x1的宽高比的宽视域相机都是一个更为理想的选择。
如果只是为了输出一张全景图片的话,那么上面的步骤通常来说已经绰绰有余,不需要再考虑更多的事情。但是,不会动的图片是很难让戴上VR头盔的人哇哇大叫的,能看到身边战火纷飞,或者野鬼出没的动态景象才更加刺激。如果你正在考虑如何制作如是的VR电影,那么有一个问题不得不提出来,那就是——
同步性——简单来说,就是你手中所有的摄像机如何精确保证同时开始,以及在录制的过程中保持帧率的一致性。
这看起来似乎并不算什么问题,然而如果两台摄像机的开始时间不一致的话,会直接影响到它们的对齐和拼接结果——甚至如果场景中存在大量的动态元素或者相机位置在这个过程中发生了改变的话,结果可能根本是无法对齐的。因此,对于需要大量摄像机同时参与的全景拍摄工作而言,同步开始以及同步录制的需求就变得分外重要了。
要从硬件上根本解决这个问题,可以用到“同步锁相”(genlock)的技术,即通过外部设备传递时间码来控制各台相机的同步运行(典型的例如Red One专业电影摄像机)。当然并不是所有的摄像机都具备专门的Genlock接口,这种情况下,也可以考虑一些传统或者是看起来略微“山寨”的同步方法,例如:路见不平一声吼……
在拍摄开始的时候,演员大吼一声,或者用力拍一下巴掌。然后在进行拼接的过程中,找到每个视频当中吼声对应的时间节点,作为同步开始的位置,然后再进行全景视频的拼接。这种方法虽然并没有什么精确性可言,但是同样没有开销什么额外的成本;但是确保了基本的同步起始位置之后,再进行视频的细微调节和拼缝工作,却无疑从相当程度上简化了后期制作的难度。
类似的方法还有给所有的摄像机蒙上黑布,然后开始拍摄的时候快速抽走,等等。总之在硬件条件无法完全具备的前提下,就是八仙过海各显神通的时候了。
3、立体与伪立体
细心的你可能已经发现,之前讨论的所有全景视频的拍摄过程都忽略了一个要点:无论采用何种投影方式,生成的都只是一幅360度的全景内容,放在PC或者网页端去观看当然没有任何问题,但是如果要将这样的内容输入到VR头盔显示器上,结果恐怕是不正确的。为了将画面赋予立体感并呈现到人的眼中,我们提供的内容必须采用左右眼水平分隔显示的模式:
这看起来只是将原来的全景画面复制了一份而已,但是悉心观察的话,在靠近画面边界的位置就会发现,左右画面的内容存在了一定的偏移。因为人的双眼是存在一定的视角差的,双眼各自看到的图像有一定的差异,再通过大脑的解算就可以得到立体的感受。景物距离人眼越近,这种视差就越明显,远处的景物则相对没有很强的立体感。
而任何一种现有的VR眼镜,都需要通过结构的设计确保佩带者的左右眼都只能看到实际屏幕的一半,也就是分别看到分隔后的左右眼画面内容,从而模拟了人眼的真实运作机制。
这种情形下,全景内容的拍摄设备也需要做出一些对应的改动,比如将原来的6台相机改成12台相机,即每个方向都有左右眼两台相机负责拍摄;支架的构建形式也因此与原来的设计大相径庭(图中为360 Heros3 Pro12,使用了12台GoPro运动相机)。
对于拼接和融合软件来说,倒是并没有什么特别需要做的,只是要先后两次读取六个视频流,处理后输出两个不同的全景视频,分别对应左右眼的画面内容。之后再通过后期工具或者应用程序将它们合并到一幅画面中即可。
当然了,另辟蹊径的路子也有很多,比如从2011年就震动了Kickstarter的众筹者,却直到如今VR全景应用大火却依然没有按期发出的Panono,它的设计原理是通过均匀分布在球体上的36个摄像头来拍摄,拼接并得到左右眼的全景图像。
这个设计虽然看起来拽得飞起,实际上却是万变不离其宗:朝向不同方向的36台摄像机拍摄的画面,叠加在一起足以覆盖水平360度和垂直360度的视域范围,并且一定可以覆盖两遍!再加上自身精准的结构设计和安装姿态,这样就能够从内部准确计算出拼接后的全景图像,并且直接按照左右眼两幅图像的标准输出视频流或者文件,其能够输出的实际分辨率也是相当可观的。
与之相仿的还有Bublcam(四个遍布球身的超大广角镜头),Nokia的OZO(8个遍布球身的广角镜头),以及Jaunt研发中的产品等等。它们都具备直接输出立体形式的全景内容的能力。
当然了,最不济的情形下,我们还有一种选择,就是自己假造一种立体模式……
将原始的全景画面复制成两份,其中一份向左偏移一点,另一份向右偏移一点,然后各自做一个轻度的透视变换(为了模拟视线角度的偏转)。这样构成的“立体”画面在多数情形下也具有一定的立体欺骗效果,但是对于近处的景物,或者左右眼画面中的景物存在遮挡关系的时候(比如模拟脸贴在门上,一只眼被门闩挡住的情景),则会有明显的瑕疵。当然了,对于依然对VR全景内容处于懵懂阶段的爱好者来说,这也许暂时不是什么严重的问题了。全景视频的拍摄要求设备,技术,机器,团队都很专业,俗话说的好,内容为王,想要制作一个好的内容,技术肯定得过硬啊,当然了,后期制作也是不可以忽视的一个大头,总之就是各个方面都得相互的配合才行。你可以看下icloudwave的全景视频,vr的沉浸感是没话说的。