哎,VR游戏的vr画质差为什么总是那么差

宅男玩VR眼镜游戏 竟有如此多“体位”_凤凰科技
宅男玩VR眼镜游戏 竟有如此多“体位”
用微信扫描二维码分享至好友和朋友圈
人的可视角大概拥有120度左右。相信在不久,通过技术的不断实现,能够让我们不佩戴任何眼镜,从而体验到虚拟世界的乐趣。
VR是现在最流行的休闲方式,不过大家要清楚VR到底是什么,以及分为几种。我们在应对VR应该怎么做。首先VR是一项可以创建和体验虚拟世界的计算机仿真系统,另外一种解释是它利用计算机生成一种模拟环境是一种多源信息融合的交互式的三维动态视景,并结合相应的实体行为系统仿真使用户沉浸到该环境中。不过并不仅仅局限于虚拟式体验,在外部还可以有声光电的增强。 不过作为用户的我们,必须要佩戴一款&眼镜&才可以进行玩耍。这里可不是说的像淘宝那种简单的10块钱包邮的眼睛,也不是小米大张旗鼓推出所谓&黑科技&的布料眼镜。而是真正可以给大家带来&颠覆性&体验的HTC Vive和索尼大法好的PSVR。有的读者看到这里不明白了,国产所谓的&VR&眼镜到底为什么不推荐。 1、首先是做工不行,材质没有任何质检。一分钱一分货。
最火的VR眼镜(引自taobao) 2、体验法方式非常单一,如果用手机放在眼镜里边画质简陋。通过玻璃透镜观看一般寸屏幕肯定不会是全部,视野上会不可避免的损失相当一部分,那么经过目镜切割后,剩下的分辨率还有多少呢?
分辨率会进一步下降 3、用户很有可能使用一次图新鲜就不再用了,用户粘性低。
也就只能更新这些&神秘&资源了(引自taobao) 而真正好的VR眼镜不需要有以下技术。这些技术就像人体一样,缺一不可。首先就是FOV(视场角) 这个技术笔者给大家解释一下,就是我们从眼镜里边看到的&立体场景&,人的可视角大概拥有120度左右。然而,FOV也不是越大越好。从光学设计角度看,视场角、屏幕尺寸和沉浸感之间是相互关联又相互制约的,三者是个动态平衡的三角关系。但是,如果配合不好就会出现以下情况情况,俗称&画面畸变&
VR眼镜视场角设计不好就会出现畸变现象(引自detu) 刷新率也不能低! 人的头部转动和画面的延迟不能超过20毫秒,否则视觉上会有拖影,有的人就会出现眩晕的症状。这就意味着20毫秒内,处理器必须将所有数据信号转换、传送、处理、显示完毕,除去6秒的安全时间,留给处理器的时间只有不到14毫秒。
这就是延时演示(引自baozoumanhua) 近视患者福音 近视眼用户怎样使用VR眼镜呢?其实稍微高端点的眼镜是根据用户的健康进行光学和结构设计。双距是指瞳距和物距(焦距)。瞳距即是双眼之间的距离,合理的瞳距能够避免重影,保证眼镜的舒适度。物距则是为了拯救不在少数的近视眼、散光用户。
vr眼镜瞳距和物距原理(引自detu) 这种VR玩法需要体力
这种游戏方式需要注意体力(引自baike) 这种模仿真实射击游戏的VR设备,虽然有一种身临其境的感觉,但是要跑《战地》游戏系列不得累死。
这种体验飞翔的感觉是最&引人关注&的。当然是在现实中。 & 这个骑单车的VR游戏是最&眩晕&的 这个或许是最安全的。不过从VR眼镜中看确实操作很困难啊。
VR结合过山车(引自appgame) VR结合过山车或许会是最&省力&的游戏项目,看着就刺激。 总结: 通过这次VR的介绍,或许你已经对简单原理和应用有了一定了解,VR设备确实是一个人玩游戏、看电影最好的休闲方式-,毕竟非常讲求私密性。相信在不久,通过技术的不断实现,能够让我们不佩戴任何眼镜,从而体验到虚拟世界的乐趣。
[责任编辑:张楠 PT012]
责任编辑:张楠 PT012
用微信扫描二维码分享至好友和朋友圈
凤凰科技官方微信
播放数:833005
播放数:1208
播放数:375330
播放数:5808920
下列哪项不能防止电脑辐射?
对啦,马上看美图~
答对才能看美图哦~
不对,再猜猜呗~揭秘VR游戏开发:与传统3D差距仅10% 低延迟是核心
腾讯游戏逍遥剑客
[摘要]随着PS VR消费者版售价的最终公布,三大头戴显示器完成了它们的亮相。本文的作者从15年初开始进行VR游戏的预研工作,经过近一年的VR游戏经开发经历,总结出10条经验,希望对从业者们起到帮助。背景介绍北京时间3月16日,索尼在GDC 2016上公布了其虚拟现实头盔——PS VR消费者版的售价:399美元(约合人民币2600元)。同时,著名《》开发商Crytek发布了新一代游戏开发引擎(也是虚拟现实内容制作引擎)CryEngine V,并原生支持虚拟现实设备。而在此之前,Oculus、HTC也都先后召开过发布会,推出了自家的VR设备(Oculus和HTC VIVE)。三大头戴显示器的相继亮相,游戏开发引擎的发布……让虚拟现实成为了2016年最大的风口。作为游戏行业的从业者,许多人从两三年前Oculus初亮相之际便一路跟随。本文的作者便是其中一员。笔者所在的团队自2015年上半年便结合之前制作Xbox One体感游戏所积累的体感交互经验,开始进行VR游戏的预研工作。在这近一年的时间里, 一方面从外界感受到了一股虚拟现实快速发展的潮流,另一方面也体会到身边很多人对VR游戏的了解非常有限。现在我们自己的VR游戏Demo已经完结, 技术上验证了在当前的硬件条件下,开发高画质游戏的可行性。当然,优质的VR游戏需要大家共同的努力, 我们也希望更多的人参与进来。在此把我们在开发过程中学习到的, 体会到的,以及所期望的进行一下总结,希望对大家有所帮助。VR硬件原理及现状----------------------------------------------------------------------------狭义上的”VR硬件”,特指具有沉浸感的头戴显示器。它有三个基本特征:全3D的立体显示:附合人眼观看现实物体的习惯,能够”以假乱真”完全虚拟的画面:需要屏蔽外界光线的干扰,你所看到的都不是现实的东西。有些人可能觉得”增强现实(AR)”更高大上一些,但是对于游戏,我认为还是更倾向于VR。玄幻,魔幻,科幻,一切皆为虚幻。不受限制的视角方向:视角方向跟随头部转动和移动,不同于之前的头戴式显示器,视野非常广。当然,仅仅是这样的体验,并不能说是完美的”虚拟现实”,这也是很多人说硬件不成熟的理由。但是,在保证体验良好的的情况,目前的硬件已经满足做出高品质游戏的条件。下面对当前的硬件做一些技术分析:VR显示的基本原理首先,我们来一下满足上面提到的三个基本条件的最廉价产品,Google的Cardboard:插入手机做为显示屏幕,通过分屏的方式处理双眼的画面,达成立体画面显示借助纸壳屏蔽外界光线干扰,通过透镜就可以观看到手机渲染的虚拟画面依赖手机内置的陀螺仪,可以模拟出头部转向时视角的变化。另外,凸透镜在一定程度上增加了FOV(FieldOfView,视场角)Cardboad以低廉的价格,让很多人提前感受到了VR的魅力,并衍生出了很多塑料壳的版本。不过从体验上来说,Cardboard并不能算是一个合格的VR硬件,很多人在试玩过后,就自然而然地以为”VR就是那么回事”,“目前硬件还差得远”,“也就新鲜几分钟”等等,从一定程度上误导了很多人对VR的认知。那Cardboard存在哪些问题呢?严重的画面延迟:手机陀螺仪模拟的转向精度和响应速度都不满足VR的要求,造成渲染的画面跟不上转头的速度,加重了晕动症糟糕的画面表现:手机性能不足以支撑高画质高帧率的3D画面渲染,只能呈现出一些简单的卡通风格画面,达不到”以假乱真”的程度,影响了沉浸感缺乏自然的交互:由于手机的限制,目前没有配套的头部和手部的定位方案,从交互上很难做到让人满意的程度,只能依赖蓝牙手柄这样的传统输入设备当然,还有一些其它的小问题,比如手机发热,起雾,过重,画面变形等等,这些虽然不是影响体验的主要因素,但在使用上也是挺烦人的。接下来我们看看Oculus针对这些问题是怎么解决的,或许这也能解释两者之间的价格差异为什么这么大。不受限制的视野如果需要达到逼真的视觉体验,视野必需尽量接近真实。这需要满足两个条件:一是接近人眼的FOV,二是跟随头部运动的视角。上图左很直观地说明了人眼的FOV特点:双眼的覆盖范围是不同的,两只眼睛加起来可以超过180度。当然,在平面的液晶屏上很难做到这种效果,所以目前的主流VR硬件(不包括Cardboard)大多是用凸透镜做到了100~110度左右的FOV,虽然没有达到自然视野的程度,但相对于传统FPS游戏(FOV50~60度)来说,是个巨大的进步,直接影响到UI设计,交互,性能,场景设计,镜头等方面。为了解决近距离通过透镜观看画面的变形问题,我们需要对画面进行反向的变形校正:然而,在很多Cardboard游戏上,正常双视口渲染的画面,经过BarrelDistortion变形这一步是省略掉了的。FOV越大,光线的折射率也就越大,光线的散射现象也就越明显,给人的感觉就是画面的像素出现了重影。所以,变形后还需要对色散问题进行校正,即ChromaticAberration,这样通过透镜观看时才不会出现色彩分离的奇怪现象。空间定位能力头部的运动追踪,Oculus增加了一个外置的红外摄像头用于头显的空间定位,它同时也可以用于双手控制器(OculusTouch)的定位。当然,这种定位方式也存在FOV的问题,只适合桌前的小范围运动。对于大范围的移动,HTCVive的Lighthouse技术更有优势,可以在5x5m的范围内自由移动:空间定位技术的引入,直接改变了游戏的操作方式,从”指令式”操作逐渐变成类似”体感”操作的自然交互体验,UI也就不再拘泥于2D,开始向3DUI转变。主流VR硬件参数这里有一张表格,可以大体上说明2016年的主流VR硬件的参数(DK2和GearVR是很多人都体验过的,做为对比也加进来):硬件分辨率刷新率FOV特定控制器平台Oculus DK2 (Pentile)75100—-PCOculus Rift90100Oculus TouchPC OculusHTC Vive (SteamVR)90110SteamVR ControllerPC SteamSONY PSVR (RGB)60/120100PS MovePS4Gear VR6096Touch PadAndroid Oculus从中表格中提供的数据,结合一些现场体验可以分析出一些关键信息:三家VR设备的FPS和FOV差异并不大,这方面在体验上差距很小。PSVR的120FPS是60帧插值出来的,并不是实际的渲染帧数三家VR的控制器都趋于一致:双持手柄,有空间定位能力,可以模拟双手操作。这就为我们进行VR游戏的交互设计提供了很好的指引,引擎层面可以进行统一抽象,不用再为每个设备单独设计分辨率相对于DK2都有改善,但受限于OLED屏幕技术和硬件性能限制,还达不到视网膜屏的程度,像素点肉眼仍然可见,但已经不会影响游戏画面的观看PSVR由于受限于PS4的机能限制,无法在分辨率上占有优势,但是可以通过像素排列和镜片技术减少纱门效应(ScreenDoorEffect),即像素间空隙(OculusDK2上非常明显)每家的硬件都会依赖一个内容发行平台,与主机游戏的运作思路很像,这也决定了VR游戏的设计思路另外值得关注的是GearVR,算是最早商业化的平台硬件,提供了比Cardboard更好的体验,但同样受到机能的限制。预测手机VR方案几年后会推动VR设备的普及,毕竟手机是人人都有,买个配件的成本还是可以被很多人接受的。Motion-To-Photon延迟有一个参数是表中没有的,那就是延迟。我们先来给出定义:从用户开始运动到看到屏幕上产生相应变化所需的时间:从上图可以看到,从传感器采集,经过线缆传输,游戏引擎处理,驱动硬件渲染画面,液晶像素颜色切换,到人眼看到对应的画面,中间经过的每一个步骤都会产生延迟。要想达到理想的状况,需要硬件和软件优化的紧密配合。目前公认的可以被多数人接受的VR延迟是20ms,很多VR硬件只是传感器和液晶屏的时间就已经超出范围了。对于VR硬件来说,低延迟才是核心竞争力。但目前延迟缺少一个测试和评估标准,所以很难通过公开的数据评估每个设备的体验效果。如果以20ms为一个临界值,可以说其它品牌的VR设备大部分都不合格。VR体验目前的主要问题----------------------------------------------------------------------------VR游戏在当前的硬件条件下,仍然存在一些问题。我们做为开发者,必须搞清楚每个问题产生的原因,能够解决的解决,不能解决的回避,在此基础上才能做出良好的体验。晕动症“晕”可能是第一次体验VR的多数人最直接的感受,就像晕车晕船般的感觉。很多人可能只是因为这个原因就会放弃对VR游戏的期待,掉入”VR目前不成熟”的圈子里。那为什么VR游戏那么容易晕?1。你没动,画面动了:VR游戏体验者通常身体是静止不动的,如果游戏中看到的是各种加速/旋转/震动等,正常人都会受不了,跟晕车晕船的原理是一样的2。你动了,画面没跟上:这就是上文提到的延迟,很多时候,硬件附合要求了,游戏却帧数不够,同样也会造成严重的延迟现象。3。体质原因:比如有人有恐高症,放到一个悬崖边的虚拟场景里,也会触发心理和身体的反应。原因1可以从游戏设计上进行回避,但是目前来说很多需要跑步和跳跃的游戏受限比较大。原因2的话,主流硬件在延迟上都是满足要求的,做为开发者更多的是需要做好性能优化。原因3,从我们组的几个人感受来看,随着体验次数的增加,症状会越来越轻,这表明人的身体是可以适应的。而且,适当地增加一些让身体有所反应的游戏场景,也不失为一种乐趣。缺乏好的交互方式VR头戴显示器看以看作是一个显示输出设备,那对于游戏来说,还有另外一种重要的硬件:输入设备。在VR游戏中,键鼠的操作方式首先就可以放弃了,因为看不到,只能盲操作。游戏手柄的话算是一种折衷方式,但并不能发挥出VR的潜力。理想的输入设备其实是双手,这也是最自然的方式。遗憾的是,不管是Kinect,还是LeapMotion,都无法完美地支持双手交互的精度。所以,目前主流的VR控制器还是以双持手柄为主,预计要2016下半年才开始上市。在拿到OculusTouch之前,我们尝试了基于Kinect体感的VR交互方式,虽然并不完美,但已经能够看出未来的交互设计雏形了。GPU性能不足BarrelDistortion变形后带来一个问题:中心区域像素分辨率的损失,也就是说中心区域的像素被放大了,边缘区域的像素被压缩了。但是人眼对于视野中心的像素清晰度非常敏感,为了保证清晰度,需要把原始渲染分辨率提高,以保证变形后的画面能够达到液晶屏的像素密度。以OculusRift为例,屏幕分辨率为,渲染分辨率需要长宽各提高到140%,即,再加上90FPS的帧率要求,每秒需要渲染的像素达到了4。5亿个,相当于当代主机(XboxOne,PS4)游戏的7倍,与4k分辨率游戏所需要的硬件差不多。为了保证体验,他们规定了一个最低配置,叫做OculusReady的标准:CPUi54590,内存8G,显卡GTX970。虽然PS4的渲染性能远远达不到GTX970的程度,但是相对于PC来说,它可以提供一致的体验,这对VR来说非常重要。毕竟就算你的游戏画面再好,如果一玩就晕得想吐,那也不会是一个好游戏。不过好在离VR普及还有一段时间,足够让OculusReady的PC成为大众配置了。佩戴舒适度很多近视玩家会担心不能使用,其实主流的显示设备都可以戴眼镜观看。至于戴着舒不舒服,那需要在工业设计上进行迭代优化。就目前来看,SONY家的头显最舒服,Oculus家的手柄最舒服,HTC家的功能最强。除了平台独占的VR游戏,多数会同时兼容三家的设备,所以从体验上来说,差别不会太大。VR游戏与传统3D游戏的开发差异----------------------------------------------------------------------------VR游戏在开发制作上的差异,远远没有很多人想象的那么大,更多的是设计上的思路转变。所以,想要开发VR游戏,前提是能够开发一个3D游戏,核心还是游戏本身,VR只是体验上的增强。如果要写一个”VR游戏开发教程”,那么其中90%的东西,与VR并没有直接关系。但是,这10%的差异,却是VR的核心竞争力,因为它可以带给你”前所未有”的体验,为我们进行游戏玩法创新提供了非常大的发挥空间。玩法与主机游戏类似,注重核心体验,即Camera,Control,Character。可能很多人会觉得VR游戏只适合做FPS,其实并不是这样。只要保证沉浸感良好,什么类型的都可以做,RTS,MOBA,AVG,MMOG等等都可以。需要关注的核心点是Camera和Control,这直接关系到玩起来晕不晕,能够玩多长时间。只有保证操作体验和沉浸感过关,游戏的玩法才有意义。当然,VR给我们也提供了一些新的特性,可以用于玩法设计中:由于头部运动追踪的存在,点头和摇头的操作是可以被识别的,这就意味着很多Yes/No的操作可以直接通过头显输入。头部的朝向可以灵活变化,当你”盯”着某个物体看时,可以针对这个行为做出相应指令,具体可以参考GearVR上的Land’sEnd。由于360度视角方向不受限制,我们可以在背后做一些场景改变,让每次转头看到的场景都不一样,既能做成惊喜,也能做成惊吓。头部不仅仅可以转动,还可以配合身体小范围移动,比如SummerLesson中凑近NPC,NPC会害羞…Vive的一个上帝视角Demo可以蹲下看到地底下打地道的小兵。VR渲染可以调整WorldScale,即世界单位缩放,相当于动态调整自身相对于场景的比例,既可以做成巨人的视角,也能做成蚁人的视角。因为VR世界中的单位可以与现实不一样,那么一些类似”缩地术”的功能也变成现实,通过身体小范围的移动,达到虚拟世界中的大范围移动效果。双手控制器的存在可以模拟一些抓,扔,摸,打等的操作,捡起一个道具上下左右仔细看也是很有意思的一件事,可以把迷题设计在道具的隐藏角落里。VR中有了双手的存在,很多解迷就不再是简单的按一个键,各种零件组合,机械,绘画等对于双手控制器来说都是很棒的操作体验。控制器的握持感,非常接近于游戏中的手持武器,比如枪械,比如刀剑,这比握着一个鼠标或者手柄的感觉强多了。得益于高精度的传感器,做出具有竞技性的操作玩法也不是不可能。双手具有天然的空间感,一些建造类的玩法也非常适合,比如MineCraft,比如Besiege等,UE4甚至尝试了。由于3D音效的加强(下面会提到),“听音辨位”就可以做得更真实,各种潜入类玩法非常适合。另外,由于沉浸感的增强,恐怖游戏和XX游戏带给人的感官刺激会放大,这就不用展开了,试过就知道。图形如果以OculusReady的硬件标准,基本上可以预期的画面表现力差不多相当于上代主机的画面,即Xbox360和PS3后期的水平。我们试做的VR游戏Demo,在项目启动时的规格比较高,GTX970+OculusDK2的硬件下,经过优化可以流畅运行,下面是最终版的技术选型,给大家做参考:PhysicallyBasedMaterial:物理光照材质算是主流技术了,但是相应的性能开销也会大一些SphereReflectionCapture:反射效果和各种高光材质就靠Cubemap了BakedStaticLighting+BakedAmbientOcclusion:即能用静态光照就用静态的GlobalDynamicShadowMaps:仅仅是主角和大件遮挡物InstancedStaticMesh:对于性能的提升非常明显,大量的优化是基于Instanced技术Bloom+ColorGrading:多数的后期镜头效果在VR中并不适用,因为是通过双眼直接观看,并不像传统游戏那样通过”摄像机镜头”观看。而且,为了性能,能关的都关了…FXAA:理论上来说TemporalAA更适合消除远处的SpecularAliasing,但是会导致近处HUD的文字和纹路受到影响,解决之前先用FXAA代替。当然,如果具有足够的优化功力和场景设计技巧,也不排除GTX970+OculusRift流畅运行的可能,但这并不适合多数的团队。美术制作方面,有些资料会说NormalMapping和BillboardParticle不再适合VR渲染,其实并不是这样的。这些效果只是在近距离观看时才会发现很假,远处随便用,不用担心在制作上与传统3D游戏的差异。近距离的话,只能使用ParallaxMapping和MeshParticle之类保证不穿帮,但是极少数情况需要这样,跟场景和特效设计有关系。总体上来说,美术的制作与传统3D游戏差异并不大,除了UI。图片来自EIPC的ShowdownDemo交互由于目前主流的VR操作设备已经趋于统一,大家都有这么几个特征:可以模拟双手的空间位置和旋转通过手柄上的按钮触发指令型操作,如抓住,发射等仍然保留传统的”摇杆”,但比较少用到这里有一个OculusToyboxDemo的演示视频,能够很好地说明VR下的人机交互是什么样子的:图片来自Oculus的ToyboxDemo视频演示:可以预见到,基于双手的物理交互会越来越多,也就意味着物理模拟在VR游戏中的应用会更普遍一些。同样的,UI的设计已经不再推荐2D平面化,更加倾向于3D的效果,如科幻风格的全息投影,或者使用实体模型。或许,以后VR游戏中的”UI”改由3D美术来制作了。图片来自网络音效传统的3D游戏音效,一般是通过音量变化判断距离远近,通过频率变化判断相对移动。以空间定位为例:左右:通过左右声道的音量差异区分前后:通过多声道的卫星音箱或多声道耳机区分(不适大多数人)距离:通过音量的衰减判断高低:冒似没什么好办法…在VR中立体声耳机是可以随着头部转动的,这就意味着,我们可以通过两个声道配合转头来判定上下左右前后图片来自OculusConnect_Introduction_to_Audio_in_VR.pdf同样的,头部除了转动之外,还可以小范围移动,不用通过走动就能判定声音的远近。以前相当于背景音的环境音效,现在也能分辨出大概的方位图片来自OculusConnect_Introduction_to_Audio_in_VR.pdf因此,在VR游戏中,3D音效会被越来越多的人重视起来,甚至发展出新的玩法,比如Pastoral这个游戏。有兴趣的同学建议搜一下这篇文章: VR中的声音听起来体验如何?和传统音频有什么区别 想听一下效果的,,可以看一下这个Demo: VR游戏后续发展期望----------------------------------------------------------------------------主机平台现在有一类游戏,以高画质剧情体验为主,操作非常简单,俗称”游戏电影化”。目前VR圈也有很大一部分人在尝试VR电影的制作,但是基于360度视频的拍摄手法在VR的沉浸感并不是很好,而且传统的电影拍摄手法也不适合VR视频制作。所以,电脑制作的3D动画类电影在VR化方面具有先天优势,再结合VR头显的一些输入特性,甚至会产生”电影游戏化”的产品。另一方面,以UE4为代表的游戏引擎,实时渲染的画面效果已经达到了CG级别,在技术上具备了制作实时渲染电影的能力。可以预见到,未来的VR互动电影与VR游戏,它们之间的边界会变得十分模糊。EPIC’sInfi()ltratorTechDemo下面这个是国外的VRTHE VOID,相信不久的将来,这种体验可以像电影院一样普及。
正在加载...
随着技术的进步和成本的下降,VR和AR会跟智能手机一样进入我们生活的方方面面。对于VR游戏来说,很多人也跟我有一样的梦想,希望在有生之年,可以把它变成现实:图片来自SwordArtOnline
正文已结束,您可以按alt+4进行评论
相关搜索:
[责任编辑:aniszhou]
热门搜索:
Copyright & 1998 - 2016 Tencent. All Rights Reserved哎,VR游戏的画质为什么总是那么差?_雷锋网-爱微帮
&& &&& 哎,VR游戏的画质为什么总是那么差?
按:作者王锐,VR领域资深从业者。这个游戏的画质好差?图形渲染画面的反走样问题,亦或者称之为抗锯齿问题,对于游戏和图形应用的开发者而言绝对是一个老生常谈的话题。简单描述的话,走样问题总是源于图像采样率的不足所致。当我们用一张的画面去表达一个复杂的游戏场景的时候,我们事实上是尝试用一个个的像素点来描述观察者眼中所见的几何模型和材质信息——而后者原本是可以通过精准的数学曲线和曲面去表达的——因此,使用有限的像素点就意味着我们只能从曲面上采集有限几个位置的信息,来表达这个物体的形象。如果像素点的数量太少,那么它所呈现的物体可能会是失真、不准确的,而物体的边缘往往是锯齿状的,这正是记录了不同采样信息的像素点所留下的痕迹。(via&anteru.net)而这还远不是问题的全部。另一种形式的走样问题或许更为让人头疼:现代游戏开发者常用的一种丰富场景细节的手段,叫做法线贴图(normal&mapping),其原理是使用颜色图像来记录物体表面的朝向信息,然后将这张图贴附到原本平整的几何表面上。在实时运算过程中,我们使用法线贴图来模拟这个表面的坑洼不平的效果,以及因此反射的光照信息,从而以很小的代价得到逼真的渲染效果。不过法线贴图的使用同样需要一个采样的过程,即物体表面的每一个点都需要对应于法线贴图上的一个颜色值。但是在一定的观察者视角和距离下,因为法线贴图存在Mipmap后准确度损失的问题,会导致因为法线而计算的高光部分出现断续和运动闪烁现象。就如下图中黄色圈所提示的:原本应当是一条直线的高光效果,在图中是由很多断续的短线组成,并且这样的短线会随着视角的运动而发生变化,产生非常碍事的观感。(via&)对于VR内容的参与者来说,这当然是噩梦的开始。试想你戴上头盔,看到一位轻盈可人的少女向你走来,少女的鬓角发丝都打上了天然的马赛克,而她自信的双眸和光滑的皮肤,在阳光的照耀下闪烁着诡异的线条。再加上尚不能让人满意的头盔分辨率,以及延迟和纱窗效应等种种问题,只会让玩家迅速产生一种身“不”临其境的抽离感,无法将自己代入到虚拟的场景当中。这两种类型的走样问题,可以统称为空间性的走样(spatial&aliasing)。与之相对应的还有时间性的走样(temporal&aliasing),顾名思义,就是场景随着时间变化而发生运动的过程中,因为场景渲染对于高速运动的物体的采样率不够,因此发生了失真的状况。这也被称为车轮效应(wagon-wheel&effect),例如在电视画面中看到汽车飞驰,或者直升机爬升的镜头的时候,我们会感觉轮子或者螺旋桨是反向转动的。不过放在游戏场景中,问题可能会更大一些,爆炸,喷射,甚至是VR玩家头盔的高速转动,都可能带来时间性的走样问题,从而造成场景不自然的跳动,这甚至可能是3D游戏晕动症的另外一种潜在的影响因素。能否解决这样的问题,以及如何高效地解决这些看起来简单却又暗藏杀机的走样问题,想必会给越来越多的VR内容开发团队带来巨大的挑战。而这样的挑战也许是前所未有的:毕竟传统的PC和主机游戏中,玩家并不需要非常高的分辨率和屏幕刷新率参数,只要面对屏幕时没有大的瑕疵就好;而VR游戏颠覆式的体验,眼睛与屏幕的过近距离,则是在另一方面扩大了这些传统问题的影响,使之可能进一步成为限制开发者脚步的桎梏。(via&and.intercon.ru)古老而有效的手段:MSAA(多重采样)最传统的一种反走样思想,就是把原本需要渲染的画面尺寸放大很多倍之后,渲染一张更高分辨率的图像(这一过程也称作超采样,supersample),然后再重新缩小到实际需要的尺寸输出。在重新输出的过程中,每个最终的像素结果,在高分辨率的图上都有多个对应的像素值可以进行加权平均处理,从而提供了各种提升画面质量和降低画面锯齿的可能性(而这个过程被称作下采样,downsample)。这一理想状况下的方案也被称作SSAA(super-sampling&anti-aliasing)。当然,对于实时渲染的画面而言,需要被采样的绝不仅仅是最终的色彩图像而已,通常还要考虑深度缓存(depth&buffer)和模板缓存(stencil&buffer)的重采样,并且对于画面上的每一个采样点都要执行一次像素计算(即调用像素着色器,pixel&shader),这一切的工作都对显示设备的带宽和像素填充率产生了不可忽视的压力,进而直接影响到实时画面的渲染效率——而对于VR内容而言,执行效率的保证恰恰是重中之重。这样的矛盾,无疑是所有从业者的一块心病。幸好,现代计算机硬件支持的MSAA(multi-sampling&anti-aliasing)并不会单纯到对每种采样点都斤斤计较的程度,它只会对输出画面的每个像素执行一次像素计算,并且将结果输出到这个像素在大图上的每一个采样点,混合之后输出一个平滑的最终结果。(via&)从图中可以看到,因为示例像素(方框所示)正好位于一个黄色三角形的边缘,而它对应的深度采样点(depth&sample)有部分在三角形之外,另一部分在三角形之内,因此重新混合输出的颜色值自然产生了一种模糊的效果,即几何物体边缘锯齿的平滑处理。如果像素点完全处于三角形的内部或者外部,那么混合后的颜色值与着色器的输入值将不会有任何变化。而很多游戏设置界面中常见的MSAA&2x,MSAA&4x等选项,设置的正是每个像素对应的采样点的数目。显而易见,采样点的数目越多,渲染更大分辨率的中间画面耗费的资源和时间也就越大,而最终结果则会更加理想。via 《刺客信条》MSAA如今基本成为了所有主流三维游戏必备图形品质选项之一,毫无疑问,它也会是大部分VR游戏在考虑提升自身游戏品质时的首选优化方案——尽管因此会让本来就捉襟见肘的渲染效率问题更加严重,尽管单纯的MSAA并不能解决多种其它形式的走样问题,例如时间性的走样,以及因为透明贴图映射而在三角形内部产生的锯齿。而为了更好地改善这些问题,人们也在不断努力着,这才有了如今同样广为人知的FXAA。放之四海皆准的廉价货:FXAA如今的PC显示硬件性能相比当年早已是突飞猛进了,但是对于移动平台而言,MSAA看起来还是洪水猛兽一般,稍加滥用就会让整个系统的五脏六腑都被掏空。在这种局面下,足够简单和低成本的反走样方案当然会更受欢迎,比如基于图像后处理(post&processing)的方法。图像后处理并不是什么新鲜的概念,甚至可以用照片的美化过程来做简单类比。你使用相机拍摄了一张照片(实时渲染得到一帧图像),然后打开PhotoShop或者美图秀秀或者其它奇形怪状的软件,调整对比度、亮度,去掉红眼、雀斑,甚至附上LUT之类的高级货,这都是图像后处理的具体流程。而这一过程中显然也可以做一些和改善画面锯齿相关的事情,比如,查找看起来像是边缘的地方,然后把它模糊掉,让它看起来不是那么明显。这种方案仅仅是使用了标准分辨率的图像数据,不需要渲染和计算额外的采样点,因此也不会产生过多的显存消耗和计算量。无论在PC平台,移动平台,主机平台,还是别的什么低端设备上,理论上都可以应用此类方法。针对这一目标,NVIDIA提出了一种名为FXAA(fast&approximate&anti-aliasing)的后处理反走样方法:首先根据当前渲染结果的深度信息来查找可能的几何边缘,然后直接对这些边缘像素进行平滑处理。这一方法甚至可以直接在NVIDIA的显卡控制面板中开启,并且直接作用于所有运行于当前显示设备的任意程序之上。然而,我们之所以说这类方法只能获取“可能”的几何边缘,是因为此时在显卡中已经不存在几何信息的概念了。真正能够用数学方法去描述的几何顶点与三角形,经过了光栅化过程之后,已经转化成了一张屏幕大小的图像而已,我们可以从中得到每个像素点对应的颜色值与深度值,并且从中估算像素点原本是否是在三角形的边缘位置。与MSAA同样,如果用户使用了透明贴图来表达边缘,那么这一策略将很难收到效果;而那些原本可能不需要平滑的区域,也存在着被“误伤”的可能性。并且,类似FXAA这种基于图像的平滑处理,很多时候也很难满足现代游戏玩家刁钻的口味,很多人的反映是FXAA的画面结果“很糊”,灰蒙蒙的好像被沙尘覆盖。如果再与VR内容面临的另一个臭名昭著的问题,即纱窗效应(screen-door&effect),相结合的话,结果也许会更加让人头痛吧。至少从目前看来,单纯的后处理反走样手段是难以填饱VR内容开发者们的饥饿肚皮的。(via&en.wikipedia.org)魔高一尺,道高一丈在MSAA基础上发展起来的硬件采样抗锯齿方法还有很多,例如解决了显存数据存储量过大问题的CSAA(coverage&sampling&anti-aliasing);或者可以自定义混合方式的CFAA(custom&filter&anti-aliasing)。而FXAA的同道者和继承者同样大有人在,例如预先学习可能的边缘类型,然后根据样式查找边缘的MLAA(morphological&anti-aliasing);以及先全局做某个方向的模糊处理,之后从另一个方向查找边缘信息的DLAA(directionally&localized&anti-aliasing,如下图所示)。可谓是八仙过海,各显神通。(via&and.intercon.ru)而有关法线贴图产生的走样问题,也有不少人做出了自己的贡献。其一就是Toksvig提出的Mipmapping&normal&maps,他通过一个额外的系数计算,对法线计算的镜面反射结果进行了修正。而这个修正对于法线贴图本身的采样问题会产生一定的补偿作用,从而降低了闪烁走样问题出现的几率(下图中,右侧为Toksvig方法的实现效果,实际运行中基本上去除了法线贴图的走样问题)。(via&)另一种针对法线贴图问题的解决方法叫做LEAN&Mapping,它的解决方案更为合理和严谨,并且能够基本保持高光计算的本来面目,不过其实现要复杂得多,对于实际系统运行效率的影响更是无法忽略。值得注意的是,上述这些方法都只是针对第一种走样现象,即空间性的走样而苦心钻研的解决方案。那么对于时间性的走样,我们是否也有良方呢?幸好,答案是肯定的。也许不太遥远的未来:Temporal&AA要解决场景物体随时间的运动所产生的走样问题,我们可能需要这样的一套流程来处理:1、从场景中找到所有高速运动的物体,包括因为观察者的高速运动而在视野中产生运动的物体;2、计算这些物体从上一帧到这一帧运动的距离,也就是它的运动速度;3、光栅化之后,对于结果图像的每个像素点,找到覆盖这个点的所有运动物体;4、去除那些实际上被遮挡的物体的影响因素;5、根据运动物体的参数,计算和调整当前像素的实际显示结果。而NVIDIA为GTX600以及更高配置的显示卡提供的TXAA反走样方案,则把上述过程所需的信息定义为:上一帧的图像缓存,本帧的图像缓存,以及场景的运动向量(motion&vector)数据缓存,并且图像缓存必须是经过了MSAA反走样处理的,即包含了每个像素点的多重采样信息,以便完成准确的运动和覆盖程度计算。(via&gameplorer.de)毫无疑问,这可能是目前效果最为强大的反走样方法了,它同时解决了大部分空间性走样和时间型走样的问题,几乎可以达到电影级别的抗锯齿水准,最适合应用到VR内容当中,立竿见影地解决头盔运动过程中的不适感和锯齿感。如果未来已来的话,TXAA,抑或其它的Temporal&AA手段,绝对会是其中的一份子,尽管对于玩家而言它只是幕后的英雄。不过,现实往往并不像理想那么美好,MSAA的性能损耗已经让VR行业的从业者们难以忽视,再加上一个胃口更大的TXAA,要保证75Hz乃至120Hz的屏幕刷新率就更是难上加难,而移动端目前还颇为孱弱的图形处理能力,想要把如此强劲的算法流程纳入自己的麾下,恐怕现阶段还有好长的一段路要走。当然这里也存在着一些争论:时间性的走样问题源于场景中高速运动的物体或者观察者自身。一个戴着头盔却总是拼命甩头和雀跃(并且因而产生了temporal&aliasing)的玩家,也许并不需要更关心他所目睹的场景是不是有让人不适的锯齿;而高速运动的车轮,直升机螺旋桨,或者高级宇宙飞船的隆隆扇叶,也不一定就要出现在游戏者面前,让他们感觉眼花缭乱。那么如果可以从内容制作上就尝试去回避这些问题的话,是否就不必像本文一样太过杞人忧天了呢?也许吧,但是回避终究不是解决困难的手段;何时亮剑,怎样亮剑,也许这是所有的从业者在希望与矛盾中艰难前行的时候,都需要思考和迟早面对的一个问题。(编者注:当然啦,锯齿其实只是画质差的一部分因素,还有可能是本来画质就很差,哈哈==)
点击展开全文
悄悄告诉你
更多同类文章
还可知道有多少人阅读过此篇文章哦
阅读原文和更多同类文章
可微信扫描右侧二维码关注后
还可知道有多少人阅读过此篇文章哦
雷锋网,读懂智能&未来。
您的【关注和订阅】是作者不断前行的动力
本站文章来自网友的提交收录,如需删除可进入
删除,或发送邮件到 bang@ 联系我们,
(C)2014&&版权所有&&&|&&&
京ICP备号-2&&&&京公网安备34

我要回帖

更多关于 24 85 vr 85端画质 的文章

 

随机推荐