主要AE用的多,可以上高端显卡排行游戏显卡吗?比如GTX1060,会提高AE移动和放大图形的预览速度吗?

用ae和pr做剪辑渲染和达芬奇调色,不用三维软件的话,需要买专业显卡吗? - 知乎4被浏览931分享邀请回答0添加评论分享收藏感谢收起中高端N卡针对PR和AE的渲染加速到底有多大作用? - 知乎69被浏览33019分享邀请回答该回答已被折叠 0添加评论分享收藏感谢收起&&[&& 原创&&]&& 作者:
使用AE制作4K《星空》视频  让我们看看蓝宝&PGS&在&Afert&Effects中的实际应用表现,首先利用AE制作4K分辨率的《星空》视频,建场分辨率为,视频时长22秒。  简称“AE”是Adobe公司推出的一款图形视频处理软件,它可以帮助您高效且精确地创建无数种引人注目的动态图形和震撼人心的视觉效果。利用与其他Adobe软件无与伦比的紧密集成和高度灵活的2D和3D合成,以及数百种预设的效果和动画,为您的电影、视频、DVD和Macromedia&作品增添令人耳目一新的效果。Adobe&Afert&Effects建场参数设置《星空》视频制作预览4K视频渲染参数设置渲染总耗时21分24秒  此次测试使用的软件为Adobe&Afert&Effects&,整个视频的制作预览速度非常快,若是使用游戏卡,在预览过程中会出现明显的卡顿;此外,整个渲染仅耗时21分42秒,比普通游戏卡快了40%以上,由此可见专业卡在视频制作中的优势。
...提示:支持键盘“← →”键翻页
显卡类型 显卡芯片
投诉欺诈商家:
天津重庆哈尔滨沈阳长春石家庄呼和浩特西安太原兰州乌鲁木齐成都昆明贵阳长沙武汉郑州济南青岛烟台合肥南京杭州东莞南宁南昌福州厦门深圳温州佛山宁波泉州惠州银川
本城市下暂无经销商
4¥22995¥8806¥20997¥63998¥18999¥319910¥1899首先,可以确认一件事:PowerVR G6430的浮点运算性能能够达到HD7750水准(1TFloaps)是一个正宗的软文,或者至少也是个避重就轻,模凌两可的说法。&br&&br&Imagination的官方说法是:“&b&PowerVR 6-series&/b& GPU cores are &b&designed to offer computing performance exceeding 100GFLOPS (gigaFLOPS) and reaching the TFLOPS (teraFLOPS) range&/b& enabling high-level graphics performance from mobile through to high-end compute and graphics solutions.”&br&&br&意思是PowerVR的6系列GPU能达到100GFlops到1TFlops的性能范围。而iPad Air和iPhone 5S的G6430到底是什么水平?&br&&br&引用Anandtech的数据“The G6430 inside the A7 is a 4-cluster configuration, with each cluster featuring a 16-wide array of SIMD pipelines.”&br&&br&&img src=&/bbfa68df3ebde_b.jpg& data-rawwidth=&827& data-rawheight=&556& class=&origin_image zh-lightbox-thumb& width=&827& data-original=&/bbfa68df3ebde_r.jpg&&&br&上图中列出的76.8GFlops是当G6430在&b&300MHz主频&/b&时的&b&浮点运算性能&/b&。浮点性能的计算公式是:FP32=Shader频率(MHz)*每个周期完成的浮点操作数*Shader数量/1000&br&PowerVR的GPU从SGX544MP开始,每周期能执行2次FP32(单精度)操作,因此可知G6430的SP数量为128个,符合上图中给出的规格。&br&&br&因此,若要让iPad Air的G6430这个型号的GPU浮点运算性能达到1TFlops,需要其Shader频率飚到大约4GHz,显然是不可能的。所以能够达到1TFlops的PowerVR GPU,Shader数量肯定远高于128个,同时功耗也不可能再是5W左右了。&br&&br&要继续说PowerVR GPU的实际性能,就要说到它的架构:&br&&br&&img src=&/1f5a7d019df799d608d7741fc1dbdbb1_b.jpg& data-rawwidth=&866& data-rawheight=&392& class=&origin_image zh-lightbox-thumb& width=&866& data-original=&/1f5a7d019df799d608d7741fc1dbdbb1_r.jpg&&&br&&br&从这张架构图上来看,虽然PowerVR在5系列时代就已经过渡到了统一渲染架构上,但其仍然包含不少用于渲染Pixel和Vertex的Fixed Unit,以辅助Unified Shading Cluster Array进行运算。其中就包含Vertex、Pixel和Texturing(顶点、象素和纹理)的Data Master或Co-Processor。在前端有一个Coarse Grain Scheduler作指令发射器用途,用于调度Unified Shader执行顶点或像素渲染。&br&&br&这样的架构,对Coarse Grain Scheduler的调度能力/方式要求很高。它的调度方式会严重影响GPU实际性能,甚至是GPU的正常功能。比如,在发射这些乱序指令的时候通常都会给予Pixel Data稍高的优先级(提高Shader利用率):&br&如果Vertex Data具有了更高的优先级,那么肯定会由于后面USSE流水线任务堆积,造成Vertex Data不能退出Shader Unit(已完成的Pixel处理结果在等待大量正在操作或等待被执行的Vertex指令),而后续图形流水线中的Pixel Data又因为Vertex Data占用了Shader Unit,无法调用USSE进行下一步/下一帧运算,结果就是没办法喂给后面Fixed Units(Tilling、Pixel、Texturing)足够的任务,从而导致流水线被互锁。&br&又不能让Scheduler的拼命发送Pixel Data,这会导致USSE处理Pixel速度过快,从而让过多Shader过早完成运算,同时Vertex Data一直处于等待状态,浪费了本来可以利用的带宽和运算性能。&br&&br&所以,PowerVR的浮点运算性能只是一个基于此架构下的最大Shader频率和最多Shader数量计算出来的理论值(比如1TFlops是在1GHz频率,512个Shader/USSE单元的情况下的理论浮点运算性能,也是PowerVR 6-Series GPU能达到的最高规格),而实际的运算性能由于受发射器算法、内存带宽大小、实际应用的类型、功耗限制、发热量等因素的影响,将会远远低于理论值。&br&&br&举个例:的理论单精度浮点运算性能是4500GFlops,而实测只有在执行“Multiply-Add”纯数学运算时,单精度浮点运算性能才能接近标称值:&br&&br&&img src=&/a76ab81e3b703ebe6e203e0ee5b4564e_b.jpg& data-rawwidth=&885& data-rawheight=&533& class=&origin_image zh-lightbox-thumb& width=&885& data-original=&/a76ab81e3b703ebe6e203e0ee5b4564e_r.jpg&&&br&而理论浮点性能为4300GFlops的HD7970,在此测试中的最高性能为3200GFlops(7970 GHz Editon能跑到3400)。&br&&br&&img src=&/32b11f942d6af5c2ee61_b.jpg& data-rawwidth=&498& data-rawheight=&523& class=&origin_image zh-lightbox-thumb& width=&498& data-original=&/32b11f942d6af5c2ee61_r.jpg&&&br&由于GPCBenchmark通用的函数库及API接口进行编写,所以并未针对某一架构做优化,也就是说需要经过GPU中的指令解析器“翻译”之后才能执行,这就会大幅影响最终运算性能。这也是AMD显卡在实际的复杂通用计算场景中,浮点性能不如NV的原因,特别是双精度浮点的性能差距更大(还记得某超算当时把4870*2全部换成Tesla M2050不?),毕竟实际的运算不是跑个Linpack那么简单。&br&&br&现实应用中,能理想条件下的运算场景实在非常少,而挖矿恰好算一个对离散数列的纯运算型应用(单纯依靠流处理器/流处理单元的数量和理论运算速度,类似乘加计算方式),所以“狂堆”流处理单元的HD7970在这类应用上就占尽优势了,由于不依靠调度发射器进行任务类型的分配和运算资源调度,所以7970能在挖矿时获得更高效率。&br&&br&话题说回来:移动GPU之所以能用更小的功耗实现与更大功耗桌面GPU在某种特殊条件下差不多的图形运算性能,是因为移动设备上的图形运算需求更简单。移动GPU强调的不是实际多边形生成能力、不是更高的像素填充速率或更高级的纹理运算、曲面细分等高级特效,而是利用高质量贴图,搭配较少的多边形数量和较小的纹理分辨率,达到在低功耗时能获得最好的画面输出效果。这样的理念在家用主机上也有很明显体现。&br&&br&最典型的例子是GT5在PS3上的RSX GPU(7800GTX级别)上实现了在当时赶超PC游戏的画质,而手段并非通过GPU强大的运算能力,而是采用真实场景的照片来做贴图(特别是高精度建模的车辆),同时尽可能降低画面中不太引人注意的物体的多边形数量和贴图质量(看看赛道环境以及旁边的树木等物体的质量),最终实现给人惊艳的画面体验。
首先,可以确认一件事:PowerVR G6430的浮点运算性能能够达到HD7750水准(1TFloaps)是一个正宗的软文,或者至少也是个避重就轻,模凌两可的说法。 Imagination的官方说法是:“PowerVR 6-series GPU cores are designed to offer computing performance ex…
有图有真相&br&&img src=&/9d1adfb7e85_b.jpg& data-rawwidth=&512& data-rawheight=&430& class=&origin_image zh-lightbox-thumb& width=&512& data-original=&/9d1adfb7e85_r.jpg&&&img src=&/4a6a07c2f762bba9c579bab6d5368914_b.jpg& data-rawwidth=&559& data-rawheight=&314& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/4a6a07c2f762bba9c579bab6d5368914_r.jpg&&&img src=&/597a207bf9ef_b.jpg& data-rawwidth=&208& data-rawheight=&367& class=&content_image& width=&208&&&img src=&/a5ae023d5c6cd0ea66116_b.jpg& data-rawwidth=&487& data-rawheight=&181& class=&origin_image zh-lightbox-thumb& width=&487& data-original=&/a5ae023d5c6cd0ea66116_r.jpg&&&br&更新————————————————————————————&br&&br&&img src=&/f3bda763e2efb176cce8_b.jpg& data-rawwidth=&479& data-rawheight=&852& class=&origin_image zh-lightbox-thumb& width=&479& data-original=&/f3bda763e2efb176cce8_r.jpg&&&br&-&img src=&/3d2ace3c0ebc3db4bcca44_b.jpg& data-rawwidth=&559& data-rawheight=&709& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/3d2ace3c0ebc3db4bcca44_r.jpg&&&br&&img src=&/57df314b1df0a09aea25c910_b.jpg& data-rawwidth=&1080& data-rawheight=&1919& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&/57df314b1df0a09aea25c910_r.jpg&&&br&&img src=&/8520fdcaac9cd4e7550fab_b.jpg& data-rawwidth=&499& data-rawheight=&308& class=&origin_image zh-lightbox-thumb& width=&499& data-original=&/8520fdcaac9cd4e7550fab_r.jpg&&&br&&img src=&/0b5b504dbab3_b.jpg& data-rawwidth=&454& data-rawheight=&750& class=&origin_image zh-lightbox-thumb& width=&454& data-original=&/0b5b504dbab3_r.jpg&&&br&&img src=&/f457cf293a25dd587f8bcf_b.jpg& data-rawwidth=&560& data-rawheight=&560& class=&origin_image zh-lightbox-thumb& width=&560& data-original=&/f457cf293a25dd587f8bcf_r.jpg&&&br&&img src=&/a9fff5a772bd8fad8ff490e340b42a63_b.jpg& data-rawwidth=&560& data-rawheight=&560& class=&origin_image zh-lightbox-thumb& width=&560& data-original=&/a9fff5a772bd8fad8ff490e340b42a63_r.jpg&&&br&&img src=&/be1e4c02fd0eb1697344_b.jpg& data-rawwidth=&559& data-rawheight=&240& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/be1e4c02fd0eb1697344_r.jpg&&&br&&img src=&/c6d272cb0bdb7cbca211aa9_b.jpg& data-rawwidth=&503& data-rawheight=&154& class=&origin_image zh-lightbox-thumb& width=&503& data-original=&/c6d272cb0bdb7cbca211aa9_r.jpg&&&br&&img src=&/f5c1de3c193ca12f8e017_b.jpg& data-rawwidth=&559& data-rawheight=&630& class=&origin_image zh-lightbox-thumb& width=&559& data-original=&/f5c1de3c193ca12f8e017_r.jpg&&&br&&img src=&/83d7fcf5cfd949ba71b3d4c_b.jpg& data-rawwidth=&454& data-rawheight=&340& class=&origin_image zh-lightbox-thumb& width=&454& data-original=&/83d7fcf5cfd949ba71b3d4c_r.jpg&&&img src=&/4fd20fe003ebda3f840d_b.png& data-rawwidth=&415& data-rawheight=&311& class=&content_image& width=&415&&&br&&br&&img src=&/d716fafced191be2c7a7fcf_b.jpg& data-rawwidth=&90& data-rawheight=&90& class=&content_image& width=&90&&
有图有真相 更新———————————————————————————— -
不考虑大型服务器&br&&br&一般DIY的方向就三个:第一个是注重软件性能,用于搞软件开发或渲染等;第二个是注重游戏能力;第三个是普通家用影音为主。&br&游戏性能和软件性能,二者可以兼得,只要你肯花钱。&br&&br&&b&&u&最容易配的是第三种,&/u&&/b&&br&一千多两千多元就能配出很棒的家用主机。得益于技术的进步,现在两百多元的G3260就能胜任上网办公和影音的要求,而且用起来非常流畅毫无卡顿。稍微弄好点,加点钱配个400多元的A8-7650K,就能带动比较低端的游戏,比如LOL。&br&低端独显毫无意义,直接用核显。有钱弄低端独显还不如弄点好的固态和静音的散热。&br&&br&&u&&b&第一种注重软件性能的&/b&,&/u&&br&&u&这是我原先的回答,犯了很多错误。完全无视了显卡对渲染和建模的作用。&br&&/u&&div class=&highlight&&&pre&&code class=&language-text&&说白了就是CPU要好点,内存16G起步。常见的PS 3DM等软件对CPU的要求非常高但是对显卡的要求很低,这里存在一个误区,很多人以为搞渲染就要有个好显卡,结果弄出各种I5+750TI之类的奇葩配置来搞渲染,其实这不仅仅浪费钱还损失了性能,如果把750ti去掉把省下的钱加到CPU上,就能买到4790K,那真是质的飞跃。
再多说几句,750 960 这些都是游戏卡,对渲染没有什么帮助,想要让显卡对渲染发挥作用,你需要专业卡,但是专业卡的作用其实也很有限,而且专业卡价格很高。所以我认为,除非你真的很有钱,否则做渲染还是用核显算了。
一般5000多元就能配出4790K+16G内存+250G固态的组合,主板并不重要,B85 Z97都行,机械硬盘最少1T,如果有需求,3T,甚至多个3T一起用都是可行的。稍微缩水一点的话4000多也可以。
当然,4790K我是极度不建议超频,但是我们仍然需要一个两百元左右的散热。做软件的时候CPU长时间满载,散热能力必须要有保障。
如果预算实在不足,那就只能E3-1231v3,但是这个CPU没有核显,还需要一个亮机卡。100元左右弄个低端的二手显卡就行,GT630 620之类的。E3的话,发热比4790K低的多,百元的散热就能轻松压住。
最近非常流行的E5和3960X也是性能非常强悍,性价比逆天。但是不建议新手捣鼓这些洋垃圾。
&/code&&/pre&&/div&&b&&u&下面是 &a data-hash=&ea23722cf& href=&///people/ea23722cf& class=&member_mention& data-editable=&true& data-title=&@谭湛& data-hovercard=&p$b$ea23722cf&&@谭湛&/a&同学的批评&/u&&/b&&br&&blockquote&2,3dmax的见解完全不对,在用vr渲染器下,总的情况,渲染靠CPU(多核心为好),操作靠CPU单核性能跟显卡。显卡这个又得分版本说明,2011版前的老驱动,专业卡有加成,游戏卡被秒(同价位),2012版后的新显示驱动已经完全释放游戏卡的实力,这时完全翻转,游戏卡把专业卡秒得飞起(同价位),这个可以到火星时代的硬件论坛看答案,我也借过各种硬件数据对比有发在火星时代。&br&3,针对3dmax跟vr的应用组合我建议是,高频最新i7系列,内存16g起,显卡能买多贵就多贵,买游戏卡,别再用老掉牙的3d版本,建议从2012版开始。(我长期自由max2014跟vr3.2)&/blockquote&&br&&b&&u&下面是&a data-hash=&25a29e0d5cccd4d8f7039& href=&///people/25a29e0d5cccd4d8f7039& class=&member_mention& data-editable=&true& data-title=&@何阳& data-hovercard=&p$b$25a29e0d5cccd4d8f7039&&@何阳&/a& 同学的指正&/u&&/b&&br&&blockquote&现在渲染分两种形式,一个是Arnold、Vray和Mentalray,还有个名字忘了,这些主流渲染器都是吃CPU,动画电影等成片都是这样靠CPU渲出来。还有一种就是游戏引擎渲染,比如U3D游戏制作软件,效果都是实时显示,速度全靠显卡核心数量,跟玩游戏是一个道理,好游戏卡用这种类型的渲染也越快。专业卡老喜欢吹的高大上,最近有4块M6000在新开发的渲染器上用来实时渲染,运算起来还是靠显核数量,但是效果还不完善,不实用,这种技术普及后游戏卡一样能用,跟游戏引擎渲染是差不多的道理,专业卡唯一的作用就是在制作过程中对软件优化好,而且就一个功能实用,面数上的优化,一个简单的立方体有6个面,场景中模型面数多了就会卡,一般平时制作中面数一般不超过1000W的,都不用考虑专业卡,面数优化只是程序上的优化,实际运算性能跟游戏卡是一个概念,但是专业卡阉割了部分游戏上的优化,还卖的贵一比,然后还有抗锯齿优化,这个细微优化不详说,基本无卵用,专业卡介绍总是吹的很高端,实际上谁用谁知道,卡吧基佬,包括很多专业人士觉得做设计就要上专业卡,也是年轻。&/blockquote&&br&&u&&br&&b&如果是注重游戏方面,&/b&&/u&特别是大型单机游戏,好的显卡是重中之重。15年的巫师3
刺客:枭雄 GTA5等游戏,想要效果基本开到高(抗锯齿动态模糊等特别吃显卡的不算),那至少需要970/390级别的显卡,CPU至少需要I5(现在来看六代I5 还是值得买的,DDR4内存非常便宜),内存8G够用,16G更好。 不过最近刚出的古墓10崛起, 970/390就已经有点力不从心的感觉了。一套I5+970/390,如果其他方面不缩的话,大概要接近6000. &br&如果CPU换成4790K,游戏方面肯定有提升,但是提升不是很大,预算足够的情况下,肯定是4790K+B85/Z97的组合,如果预算还有,考虑6700K+Z170的组合。&br&&br&——————————————————————————&br&&br&怎么样才算好的配置,&br&我认为,&br&&b&①有么有跟紧潮流和趋势&/b&&br&&br&比如以前六代U和DDR4内存很贵,而DDR4相比DDR3的提升非常小,所以很多人推荐四代U+DDR3内存。但是现在,DDR4内存非常便宜了,六代U价格也降下来了,B150 Z170主板也呈现出降价的趋势。我们完全可以用六代U+DDR4内存而不是像过去那样购买四代U+DDR3。我们的决策要随时做出改变,才能跟得上时代。&br&比如GTX960和GTX770性能相近,在对二者进行选择的时候,如果价格差别很小的情况下,我们可以选择GTX960,未来驱动对960的支持一定是要比770好的。&br&经常有人拿着一些过时的配置单问我怎么样,答案只能是不怎么样,因为它过时了。&br&&br&&br&&b&②是否把每一分钱都花到刀刃上&/b&&br&&br&&br&不同的用途,核心配件也都是显卡和CPU。核心配件确定下来后,再考虑其他配件。&br&很多人配电脑的时候喜欢在非核心配件上花大钱,他们称之为” 均衡搭配 “,比如常见的&br&&div class=&highlight&&&pre&&code class=&language-text&&I5-显卡+金士顿1866 8G内存+1599元的960显卡+千元Z97主板+海盗船650W金牌电源。
&/code&&/pre&&/div&这套配置能不能用?能用! 兼容性有没有问题? 主板和CPU针脚一样就不可能有问题!&br&但是,这配置我认为很糟糕,因为钱没有花在核心配件上。千元Z97和六百多元的海盗船电源完全是浪费,换成400元的B85+300元的国产电源,完全可以在性能毫无损失稳定性也不受影响的情况下省出接近1000块钱,而这1000元放到显卡和CPU上,就能获得性能的巨大提升。&br&为了提高核心配件,内存,主板都可以缩,固态硬盘可以以后再加,如果你不怕麻烦,万不得已的时候电源都能缩,BOOM了直接换新,电源BOOM导致其他配件损坏的概率是很低的,除非你的电源实在实在太奇葩了。&br&有时候我会被人骂:” 怎么6000元的价位你也推荐,7000元的价位还是推荐啊?”&br&因为6000元上,预算比较紧,主板电源内存固态这几个非核心配件都要稍微缩一缩。到了7000元预算的时候,就可以稍微加一加非核心配件。如果预算再多,6700K+Z170+GTX970可行,4790K+GTX980或GTX980ti也可行。&br&我认为,对于大多数配置来说,性价比和用途都是根本原则,脱离了性价比,那就毫无意义了。&br&&br&&br&&b&③核心配件是否合理&/b&&br&&br&合理一方面是合乎性价比的理,另一方面是搭配的合理性。&br&&br&i7-4790就是完全不合乎性价比的理,因为它比E3-0,区别仅仅是核显和0.2G频率,除非真的要用到这个核显,否则4790和E3的差距就只是0.2G,相当于多花400元买0.2G&br&i7-4790K不超频的情况下和4790的差距是0.4G,价格差200多,相当于200多元买0.4G,那么,4790K显然比4790更具有性价比。&br&每次我说4790K+B85不超频就会有人来反驳我说什么带K的U不超频是浪费。这里我有必要再次申明,很多情况下,你买好主板好散热给4790K超频才是浪费,因为这个U超频能力非常非常差,买它要的就是墨频而不是超频。这些话不是我的主观臆断,关于4790K超频能力的问题早已达成共识,各路测评多的很,百度随便找。&br&同样,相比i5 , I5-6400是完全不值得购买,因为频率实在太低而价格却低不了多少!&br&&br&另外一个我经常说的970问题,现在顶级970只要2400左右,萤火虫除外,普通的970比如各种将,他们要比顶级970便宜200-300,但是无论是做工用料性能散热都比顶级970差很多。价格10%的差距,性能却不止10%。买非顶级970,我认为很不合理。&br&&br&而搭配的合理性,很多时候就体现在对U和显卡的选择上,U和显卡并不存在一一对应的关系,根据需求选择才是最好的。对于很多单机游戏,I3+960就是比I5+750TI要强的多,E3+970也比强,因为单机游戏显卡比CPU更重要。如果预算真的不够又缩无可缩的情况下,只考虑当前玩游戏的话,低U高显显然比高U低显要好。不过从长远的角度看,U比较保值,显卡掉价快,低U高显的搭配将带来更大的损失。但是你买电脑是为了玩游戏不是为了保值,要保值请买黄金!&br&&br&女神叫我睡觉了,好困 ~。~
不考虑大型服务器 一般DIY的方向就三个:第一个是注重软件性能,用于搞软件开发或渲染等;第二个是注重游戏能力;第三个是普通家用影音为主。 游戏性能和软件性能,二者可以兼得,只要你肯花钱。 最容易配的是第三种, 一千多两千多元就能配出很棒的家用主…
&p&首先,多屏选AMD
其次,480 8G和1060 6G,性能测试楼下所贴那张图是我综合了13-16年大作(以16年为主)20个游戏所做的性能测试对比,可以看到480 8G后劲十足,在16年下半年的一部分大作逆袭了1060 6G。
当然1060 6G也有它的优势项目,主要表现在15年的老三样(GTA5,巫师3,古墓丽影10)和孤岛危机3。而且这张1060频率低了一点,1898MHz-1911MHz,稍微限制了其发挥。但顶级1060非公版boost也不过2000MHz,提升有限。何况480 8G 1320MHz也不是最高款,还有1342MHz的8G超白金呢。
这里是视频对比&a href=&///?target=http%3A///video/av7653194/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【20个游戏项目综合】GTX1060 6G RX480 8G 性能对比测试&i class=&icon-external&&&/i&&/a&&/p&&p&上面那个视频没有网游对比,因为我认为没有必要测试。为什么呢?
这是我11月中旬所做的蓝宝超白金RX480 4G(频率)对技嘉非公版GTX970(频率)的视频测试&a href=&///?target=http%3A///video/av7198718/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&蓝宝石RX480白金4G 技嘉GTX970风之力性能对比测试&i class=&icon-external&&&/i&&/a&
此视频中的蓝宝石RX480 4G,频率,核心频率相对公版RX480的1266有所提升,但由于显存频率砍了1000MHz,造成性能表现还不如公版。( FSE图形分/8000 FSE图形分5948)
这个480和970视频对比测试里,20:20处为网游测试,依次是天谕、守望先锋和剑灵。天谕480小优,守望先锋打平,剑灵970胜。我们知道8G 480相对4G性能是有提升的,1060 6G相对970性能也有提升,所以综合来看480和1060在网游中应该仍然是互有胜负,1060也许可以略占优势,毕竟网游游戏引擎较老,但至少在这3个网游中,相信480 8G和1060 6G仍然是同一档次,不会有太大差距,所以不存在“N卡更适合网游”这种说法。
同时我们观察视频中MSI afterburner监控的GPU占用率(白字,紧挨着温度后面那一项)可知,即使跑网游,GPU占用率也基本都是在100%,就算有波动,低于90%的时候也基本不存在,所以网游GPU负载不满的影响基本可以忽略。
事实上连DOTA2这样画质并非顶尖的网游,也可以让480这个档次的GPU达到大部分时候100%满载。
除非你开垂直同步或者锁帧,那样GPU占用率确实不会保持100%。问题来了你都锁帧了,谁性能好谁性能坏还看得出来么。&/p&&p&最后,网游主要考验CPU性能。因为多人同屏卡顿,瓶颈在CPU。
我们看到静态,无人的场景,天谕和970都能跑到接近100FPS。剑灵那个测试我开了分辨率5档画质和FXAA,即使这样480和970都能跑到接近100FPS。如果跑1080P,那么两块显卡都会达到120帧上限,根本对比不出性能差距。所以,网游基本上不吃显卡,吃的是CPU。拿网游表现衡量480这个档次的显卡,毫无意义。就像高考不会考乘法口诀表一样。 &/p&&p&综上,480和1060选择,还是要结合测试来看具体玩什么游戏。但我认为480表现出的后劲更足,事实上当初我之所以弃970入480,除了追求看电影插帧功能,还有一个原因就是10月底N黑三连发(战地1,泰坦陨落2,使命召唤13)&/p&&p&17年5月更新:只看2017上半年的大作的话,1060优势更大一些。2017年上半年对A优化好的有生化危机7,狙击精英等。对N优化好的游戏更多一些,如质量效应,幽灵行动,Prey,绝地求生等。另外老黄翻车严重的游戏,例如DX12 杀手6,Vulkan doom4经过驱动优化后也改善不少(当然A也优化了质量效应)。&/p&&p&我这个测试是16年年底做的,只代表当时驱动当时这么多游戏之下的性能表现。如果测试加入了2017年新游戏,结果应该会发生一定变化。&/p&&p&==========================================================&/p&&p&另外对匿名质疑的回复:&/p&&p&&b&本人现住址:江苏省徐州沛县歌风东路9号金地花园一期20幢1单元202室,我可以为匿名人士现场演示RX480和GTX1060性能对比,驱动就用我测试里的版本。一旦有成绩不能复盘,包来回路费并赔付GTX1060一块。不知道匿名人士有没有勇气接这种赌局。当然,如我所说,有的人就算我把他叫到我电脑跟前亲自用眼看,他也会觉得我用超能力劣化了GTX1060的性能。&/b&&/p&&p&&a href=&///?target=https%3A///watch%3Fv%3Ds12S74umruY& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/watch?&/span&&span class=&invisible&&v=s12S74umruY&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
16年12月29日的评测,测试项目中和我重合的有古墓10、战争机器4、全境封锁、看门狗2、战地1、使命13、DOOM4、泰坦陨落2、杀手6,这可全是1080P DX11(DOOM4除外),整体来说和我的测试可以互相印证。当然这个测试里480为红龙非公版,1060是公版。这和我的测试里480非公版,1060乞丐版如出一辙。不过这倒并非是为了抹黑1060,纯粹因为二者同价位而已。&/p&&p&&a href=&///?target=https%3A///watch%3Fv%3D0YCi7ge5ptI& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/watch?&/span&&span class=&invisible&&v=0YCi7ge5ptI&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a& 17年2月5日的评测,1288MHz的480,2025MHz的1060,公版480和公版1060的综合测试。测试项目和我重合的有战地1、看门狗2、泰坦陨落2、人类分裂、杀手6、地平线3、巫师3。4:00为综合对比&/p&&p&&b&可笑的是,匿名人士试图用这两个youtube链接里的测试成绩跟我的成绩不一致为论据,否定我的测试结果。那我请匿名人士睁开眼睛看看。第一个测试连接&/b&&a href=&///?target=https%3A///watch%3Fv%3Ds12S74umruY& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&/watch?&/span&&span class=&invisible&&v=s12S74umruY&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&
&/p&&p&&b&这个测试,其实挖了一个坑。挖了什么坑呢?表面上看来,它是用1060公版对比480红龙非公版。但实际上,你把视频拉到1分20秒处,可以听到评测人员的原话:While using the MSI RX480
I did go ahead and lower the clock speeds down to what the refrence speed would be of 1266 MHz since we are using a refrence model GTX1060.I did have the power of them increased to the MAX on both of these cards.....(本人英语听力一般,个别单词可能没听准)。翻译过来就是说,因为GTX1060是公版默认频率,所以他把红龙480也降到了1266MHz的公版频率进行测试,然后两张卡都把功耗上限拉到最大。&/b&&/p&&p&&b&所以,这其实是一个公版频率1060和公版频率RX480的较量。不仔细听评测人员交代的测试条件,就会错误地以为这个测试是拿高频480打低频1060。果然,匿名人士掉入了我挖好的坑里。&/b&&/p&&p&&b&“你的测试是假的!你看看,人家红龙480才领先公版1060这么点!”&/b&&/p&&p&&b&“但是,但是,这个红龙480跑的是公版频率啊!”&/b&&/p&&img src=&/v2-5a3217fbf4eb802efee2d7_b.png& data-rawwidth=&656& data-rawheight=&397& class=&origin_image zh-lightbox-thumb& width=&656& data-original=&/v2-5a3217fbf4eb802efee2d7_r.png&&&p&&b&让我们仔细来研究一下这个测试。该测试对比的两块显卡有GTX1060公版(频率未知,暂且假设和下述GTX1060频率相当,也为1860MHz),和微星红龙RX480(评测人员已经说明频率为1266MHz),和我测试的两块显卡频率并不一样。所以我对它的测试成绩按照频率进行了换算,简单来说就是()×帧数,()×帧数。换算后的成绩并不十分精确,因为频率和性能并不是严格按线性增长的,不过可以大致比较。3:11秒处,评测人员已经指出,所有游戏项目都用DX11 API进行测试(战争机器4除外,因为没有DX11模式)&/b&&/p&&p&&b&以下是youtube和我的测试,相同项目的成绩比对(1080P和1440P)&/b&&/p&&img src=&/v2-eeacef1a01e8c3d40e56_b.png& data-rawwidth=&1440& data-rawheight=&640& class=&origin_image zh-lightbox-thumb& width=&1440& data-original=&/v2-eeacef1a01e8c3d40e56_r.png&&&p&&b&虽然因为画质设置、驱动、平台、测试场景不同,这个youtube测试的个别项目成绩和我测出来的也有出入,但可以说,整体上保持了高度一致。1080P按频率折算后youtube测试480领先6.41%,而我测试出的为5.18%。偏差1.23%。1440P按频率折算后youtube测试480领先5.79%,而我测出的为5.54%,偏差只有0.25%。&/b&&/p&&p&&b&更可笑的是第二个链接,援引匿名人士的统计结果,相同项目我测试里1060落后13.02%,而youtube测试1060仅仅落后3.92%。这个差距可以说是巨大的。匿名人士便有如抓住救命稻草一般,一口咬定是我测试有问题。&/b&&/p&&p&&b&但我想请匿名人士睁开眼睛看清楚,测试里是什么频率的1060打什么频率的480(2025MHz的1060
对比1288MHz的480),我测试的是什么频率的1060对什么频率的480(1898MHz-1911MHz的1060对比1320MHz的480)。匿名人士看评测居然不知道要先搞清楚频率,令人汗颜。&/b&&/p&&p&&b&现在我们也来仔细研究一下第二个测试,成绩换算&/b&&/p&&p&&b&为啥不用2025MHz的1060进行换算?因为2025MHz频率比1911MHz高了100多,换算过来误差更大。&/b&&/p&&img src=&/v2-ec61d4a8c2c9deb4a3bea82_b.png& data-rawwidth=&1476& data-rawheight=&601& class=&origin_image zh-lightbox-thumb& width=&1476& data-original=&/v2-ec61d4a8c2c9deb4a3bea82_r.png&&&br&&p&&b&在我的测试里,GTX1060核心频率从MHz浮动,所以我进行了1898MHz和1911MHz两种情况下的换算。容易看出,youtube测试按频率换算后,480领先4.72%-5.37%。而我的测试480领先6.35%,两个测试得出的结论偏差0.98%——1.63%。&/b&&/p&&p&&b&人类分裂,杀手6项目里youtube的测试和我的测试结果差异巨大(杀手6
我个人认为youtube测试有误差,因为1288MHz的480成绩比公版480还低了2帧),地平线3的结果也有明显差异。&/b&&/p&&p&&b&匿名人士断章取义截取了DX12成绩,想要说测试有问题。不过,看帧数就知道,我和youtube的测试场景、画质设置压根就不一样。别说我的测试和youtube不一样,就是Techpowerup和computerbase和gamegpu的测试,也经常互有矛盾之处。因为平台,画质设置,场景根本不能完全一致。倘若不一样就是假,那这世界上没有真的测试了。&/b&&/p&&p&&b&虽然有的项目测试成绩不一致,但把这8个项目整体汇总后,偏差反而并没有多少了。&/b&&/p&&p&&b&这就是权威媒体选择很多游戏测试的原因,也是我当初选用20个游戏,细分到27个项目来测试的原因——测试的项目越多,越可以规避误差,更准确地衡量显卡的性能对比。&/b&&/p&&p&&b&=============================================================&/b&&/p&&p&&b&Youtube的这两个测试和我的测试,相同的几个项目汇总成绩,保持了高度的一致性。注意前提,是“相同”项目的“汇总”成绩。&/b&&/p&&p&&b&由于测试场景、平台、驱动等因素(测试场景影响最大),他们和我的测试,不可能每个项目性能差距都能天衣无缝地对应得上(TPU,CB,俄站的测试也经常对应不上)。但总体来说,最终汇总的成绩偏差很小。可以说他们测出来的性能差距,就是我测出来的性能差距,偏差最多只有1.63%。&/b&&/p&&p&&b&而匿名人士俨然已经在脑海中预设出了480和1060的性能差距,任何测试跟他脑海中的预设不同,那就是“不客观的”。而他本人既无480 1060使用经历,也压根看不懂评测(此人连看评测要搞清楚显卡频率都不知道,拿着1288MHz 480对比 2025MHz 1060的性能差距,说我的测试有问题,充分暴露了无知和下限),所以他能做的只有不停地转进,打滚,属于典型的“无干货,无逻辑,无下限”三无人员。从头到尾只能声嘶力竭地叫嚣:你是假的你是假的。我认为星爷电影里的一句台词能很好地概括这种心态:&/b&&/p&&img src=&/v2-05eff6b8ea111fb83b0b86_b.jpg& data-rawwidth=&417& data-rawheight=&220& class=&content_image& width=&417&&&p&&b&而且,直到今天匿名人士也没能拿出一块1060,用事实说话。&/b&&/p&&p&&b&我的测试对比的两块显卡,GTX1060频率较低(我已经在评测贴里多次强调,这是一块“乞丐版”1060和 480的对比,就是怕一些别有用心的人推广到所有1060上去),而镭风RX480频率1320MHz高出公版1266MHz一截。&/b&&/p&&p&&b&匿名人士自己都亲口承认了DX11
GTX1060“ 优势比较小,可算平手 ”。那么频率高一些的非公版RX480
DX11赢了乞丐版1060,很显然更是理所当然的事情。&/b&&/p&&p&&b&匿名人士明明自己得出的结论和我的测试是一致的,却还在这里挑刺,不知意义何在。这就好比我说2-1=1,匿名人士大叫“不对,明明应该是1+1=2!” 为反驳而反驳?&/b&&/p&&br&&p&关于成绩汇总问题,用(480成绩-1060成绩)/1060成绩,确实不够严谨。最准确的做法应该是480领先的项目,以1060为基准,480落后的项目,以480为基准。之所以用这个统计方法,完全是出于方便,毕竟EXCEL里拉一下,整列公式都出来了,这也是国内外大部分评测所采用的方法。事实上,即使全部成绩换成“准确的方法”来统计,最后得出的百分比和现在的,最多差距也就是1%,不信的自己拿成绩汇总图去算。原因很简单,因为在大部分测试项目成绩差距不大的情况下,不同统计方法得出的百分比是极其接近的。好比一个游戏A 55帧
B 50帧,以B为基准,A领先10%,以A为基准,B落后9.9%。匿名用户提出的50帧100帧极端情况,在我的测试项目里根本没有出现。&/p&&p&最后,为何在测试里禁止nvidia贴吧人士讨论,原因我在评测贴里已经述及,请欣赏绿吧吧务的嘴脸&a href=&///?target=http%3A///p/%3Fpid%3D%26cid%3D0%33& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【★六年之后★】何为绿吧?为何不接受绿吧人士质疑?_六年之后吧_百度贴吧&i class=&icon-external&&&/i&&/a&。我庆幸至少ATI吧,还没有这样的神棍来当吧务。当然仅仅因为吧务而一竿子打翻一船人,似乎也说不过去。那请欣赏一下绿吧部分人士的表演&/p&&br&&img src=&/v2-37b7b37f012db67ef71fc51c1ba2a543_b.jpg& data-rawwidth=&580& data-rawheight=&487& class=&origin_image zh-lightbox-thumb& width=&580& data-original=&/v2-37b7b37f012db67ef71fc51c1ba2a543_r.jpg&&&br&&p&这仅仅是冰山一角。之前显卡吧的一些其他评测也曾经被绿吧人士大号小号搅得乌烟瘴气。&/p&&p&&b&5月更新:Techspot的970,390对比测试,当中出现了480和1060&/b&&/p&&p&&b&1060 FTW+ 最高boost达到2037MHz,算是顶级1060之一了。微星RX480频率1316MHz,仅就频率而言在非公版里算是中等水平&/b&&/p&&a href=&///?target=http%3A///review/1410-gtx-970-radeon-390-years-later/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&GeForce GTX 970 & Radeon R9 390: Are They Still Game?&i class=&icon-external&&&/i&&/a&&br&&img src=&/v2-c_b.png& data-rawwidth=&700& data-rawheight=&853& class=&origin_image zh-lightbox-thumb& width=&700& data-original=&/v2-c_r.png&&&p&结果480以微弱优势获胜。当然了,Techspot这个测试并没有包括17年的最新大作。17年上半年的新游戏,整体而言1060优势较大,应该可以扳回一城。&/p&&p&N吹面对480在去年后半年的大作中发挥更好,抱着鸵鸟心态死不承认,骂测试作假骂游戏选的不公平。我十分唾弃这种心理。强就是强,弱就是弱,没什么好遮掩的。17年的游戏1060表现得好,要承认,16年下半年的游戏480表现得好,也要承认。&/p&&p&100个媒体,会有100个测试结果。例如Computerbase测试1080P下furyX仅仅领先1060 5%不到,TPU测试1080P下furyX却领先1060 15%以上。我相信TPU和CB都没有作假,问题出在场景、画质设置和游戏项目的选择上。同样,我的测试不可能得出和某个硬件网站一模一样分毫不差的测试结果。只能靠尽量多的测试项目,和明确的测试场景,缩小偏差。&/p&&p&最后,尽管我把住址公布出去了,时隔半年,匿名人士也根本没有勇气来我住处这里见证480和1060的性能对比。匿名人士自己也并没有拿出亲力亲为的测试,来验证他脑海中480和1060的性能差距。&/p&&p&甚至我可以断定匿名人士直到现在也压根没碰过480,1060中的任何一块显卡。半年前匿名人士所做的只有干嚎,挑刺,半年之后匿名人士能做的仍然只有干嚎和挑刺。&/p&&p&无干货,无逻辑,无下限,靠JPEG图表识卡,看测评不知频率,这,就是匿名人士&/p&
首先,多屏选AMD
其次,480 8G和1060 6G,性能测试楼下所贴那张图是我综合了13-16年大作(以16年为主)20个游戏所做的性能测试对比,可以看到480 8G后劲十足,在16年下半年的一部分大作逆袭了1060 6G。
当然1060 6G也有它的优势项目,主要表现在15年的老三…
&p&我就是主板固件业内人士。国内UEFI BIOS工程师不超过1500人(据估算只有1000人左右),圈子极小,资深的很多人互相都认识,也比较封闭。人员分布在硬件厂商、主板厂商、OEM、ODM和BIOS提供商。大都喜欢干活,不太和外界交往。有同事看到了我的专栏关注人数还打趣我:“你是不是把全宇宙做BIOS的人都网罗了!”&/p&&p&干这行对市面上所有主板,cpu,gpu,ssd的区别benchmark等等了然于胸(我们能从厂商那里拿到第一手资料,当然是签了保密协议的),电脑哪里出故障也是一眼就看出来了,我们的程序是CPU执行的第一条指令,这些设备都是我们负责初始化的,这些设备怎么工作,如何工作的更好必须心里有数。&/p&&img src=&/v2-9cdfd55b4d5ff2d4e8d5_b.jpg& data-rawwidth=&480& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&/v2-9cdfd55b4d5ff2d4e8d5_r.jpg&&&p&干这行就是太累,需要同时具备软件和硬件知识才能游刃有余。当然都不需要太深,所以纯搞软件的认为我们是做硬件的;纯硬件工程师认为我们是做软件的。。。我们需要看无数工业标准文档,电路图等等。&/p&&img src=&/v2-a9ee20b4acb7a26278af2_b.jpg& data-rawwidth=&400& data-rawheight=&266& class=&content_image& width=&400&&&p&原先圈子里台湾同胞较多,毕竟台湾起步早,原先几大固件厂商(AMI、Insyde和凤凰)都有台湾背景。现在大陆越来越强,有后来居上的趋势。国内现在也有了自己的BIOS厂商:Byosoft。UEFI的内核也主要由国内团队开发。&/p&&p&这几家BIOS厂商起起浮浮,各领风骚就几年,其中UEFI的推出是个重要的节点,其中的故事也挺有趣的,哪天在我的UEFI专栏里记录一下其中的狗血情节。&/p&&p&评论区有人问是不是全汇编。其实只有最开始一点点是汇编,后面都是纯c,并借鉴了c++的部分概念。所有内核程序已经开源,大家可以在我的专栏(&a href=&/UEFIBlog& class=&internal&&UEFI和BIOS探秘&/a&)里找到相应文章和链接。一下其中一些:&/p&&p&&a href=&/p/& class=&internal&&UEFI背后的历史&/a&&/p&&p&&a href=&/p/& class=&internal&&UEFI和UEFI论坛&/a&&/p&&p&&a href=&/p/& class=&internal&&UEFI架构&/a&&/p&
我就是主板固件业内人士。国内UEFI BIOS工程师不超过1500人(据估算只有1000人左右),圈子极小,资深的很多人互相都认识,也比较封闭。人员分布在硬件厂商、主板厂商、OEM、ODM和BIOS提供商。大都喜欢干活,不太和外界交往。有同事看到了我的专栏关注人数…
Furmark内容很简单,渲染一个长了毛的圆环,仅此而已。&br&&img data-rawheight=&1041& data-rawwidth=&1694& src=&/ff13dbbfb6a50df_b.jpg& class=&origin_image zh-lightbox-thumb& width=&1694& data-original=&/ff13dbbfb6a50df_r.jpg&&&br&毛发的渲染,需要很多的vertex、geometry、pixel、blending,本来就是个考验每个环节操作。把它堆砌起来就能让显卡全速跑。但据NV的人说,这个benchmark的作者GPU优化水平并不高,刚开始做出来这个,NV跟他说,你这个程序太渣了,会烧显卡。那人不是去优化,而是反其道而行之,把它变成了个烧显卡的benchmark。。。
Furmark内容很简单,渲染一个长了毛的圆环,仅此而已。 毛发的渲染,需要很多的vertex、geometry、pixel、blending,本来就是个考验每个环节操作。把它堆砌起来就能让显卡全速跑。但据NV的人说,这个benchmark的作者GPU优化水平并不高,刚开始做出来这个,N…
为什么?&br&很简单,知乎是2011年建立的,那会AMD正处于弱势时期,CPU方面本想依靠模块化翻盘的Bulldozer架构却被冷不丁杀出的Sandy Bridge搞的措手不及(SNB也是intel挤牙膏的开始),从此CPU市场全面崩盘,在 Ryzen 出来之前只能靠低价和APU等来撑场面,高端市场只能拱手相让。&br&&br&显卡方面,Southern Islands和Hawaii勉强稳住了GPU战线,Hawaii本来是很好的一个架构,完全不输给Kepler和Maxwell,但由于供货等各方面的原因,导致一手好牌打的稀烂,还是没有撼动NVIDIA的地位&br&&br&知乎上很多人根本就不知道AMD当年K8吊打P4的辉煌以及HDGTX一夜之间价格腰斩的神话,评价当然不好了&br&&br&贴吧则是目睹了AMD从k8吊打intel全家的辉煌到Core2架构后的衰落,调侃归调侃,一直期望着AMD能翻身,现在这个愿望已经实现了,从Core2架构的推出到 Ryzen 的发布,十年,沧海桑田,当年的很多AMD Fans如今已经到了而立之年,当了奶爸而逐渐地退去了往日的激情,但是当AMD Ryzen处理器诞生于这个尘世中,他们还是全款购买了Ryzen表示自己的支持。&br&&br&想了解AMD这段历的知友们,可以看看半岛的风车制作的AMD兴衰异闻录系列视频:&a href=&///?target=http%3A///video/av7813684& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&http://www.&/span&&span class=&visible&&/video/av78&/span&&span class=&invisible&&13684&/span&&span class=&ellipsis&&&/span&&i class=&icon-external&&&/i&&/a&&br&&br&最后,你们不要以为AMD从没在市场打过广告,还是图样,请看下面的这幅海报就明白了:&img src=&/v2-a1cf1293bf80c_b.jpg& data-rawwidth=&538& data-rawheight=&760& class=&origin_image zh-lightbox-thumb& width=&538& data-original=&/v2-a1cf1293bf80c_r.jpg&&
为什么? 很简单,知乎是2011年建立的,那会AMD正处于弱势时期,CPU方面本想依靠模块化翻盘的Bulldozer架构却被冷不丁杀出的Sandy Bridge搞的措手不及(SNB也是intel挤牙膏的开始),从此CPU市场全面崩盘,在 Ryzen 出来之前只能靠低价和APU等来撑场面,高…
&p&原文:&a href=&/p/& class=&internal&&新一代 Volta 架构解析 - 知乎专栏&/a&&/p&&br&&p&老黄在 GTC 2017 上发布了 Nvidia 新一代的 GPU 架构 Volta,以及一块巨无霸(815 mm?)芯片 GV100。&/p&&p&与以往不同的是,这一代架构设计把更多的精力放在了提高深度学习的性能上,几乎所有的新特性都与之有关。&/p&&p&&b&Tensor Core&/b&&/p&&br&&img src=&/v2-3d80cdfd53c6ecc4c34e7c0_b.png& data-rawwidth=&1024& data-rawheight=&254& class=&origin_image zh-lightbox-thumb& width=&1024& data-original=&/v2-3d80cdfd53c6ecc4c34e7c0_r.png&&&p&作为 Volta 最主要的新特性,Tensor Core 的加入使两个 4 x 4 大小的矩阵乘法运算可以在一个周期内完成,相当于 4 x 4 x 4 = 64 个乘加运算,也就是说单个 SM 达到了 1024 FLOPS 的理论性能。&/p&&p&这样设计背后的逻辑是更多的提高数据在 datapath 中的复用。设想若按照顺序依次计算这两个 4 x 4 矩阵中的每一个元素,则一共需要 64 x 2 = 128 次寄存器读写。但若将其设计成一条指令,则只需要 4 x 4 = 16 次寄存器读写(假设两个 FP16 被打包在一个 FP32 寄存器中)。&/p&&p&首先受益于 Tensor Core 的用户,是各位正在苦逼 “炼丹” 的人工智能科学家们,既然可以大幅减少深度学习的训练时间,等于人生的有效时间又多了几年。&/p&&img src=&/v2-c1f99c9f21a17de2a30a311b_b.jpg& data-rawwidth=&1999& data-rawheight=&792& class=&origin_image zh-lightbox-thumb& width=&1999& data-original=&/v2-c1f99c9f21a17de2a30a311b_r.jpg&&&p&&b&可配置的 L1 Cache 和 Shared Memory&/b&&/p&&p&早期的 Kepler 架构中一个颇为好用的特性就是 CUDA 程序员可以根据应用特点,自行配制 L1 Cache 和 Shared Memory 的大小。在 Volta 架构中,我们又重新引入这个特性,并且将两者的总大小做到了 128 KB。相信这对于有 Transpose,Histogram 需求的应用,或者严重依赖 L1 cache 命中率的应用都会带来不小的提高。&/p&&p&&b&独立的线程调度&/b&&/p&&p&SIMT(Single instruction, multiple threads)模型中一个被经常诟病的问题是,若一个 Warp 内的线程发生了 ”分道扬镳“ (control flow diverge)的情况,往往会产生意想不到的死锁,且线程之间也一直无法细粒度的同步(synchronization)或抢占(preemption)。&/p&&p&作为 Volta 的 Soul 之一,Thread-Is-A-Thread 的特性让每一个线程都有了自己的 PC 和 Call Stack,从编程模型上变得更加接近 MIMD(Multiple Instruction, Multiple Data)。&/p&&img src=&/v2-059a3cc890a07cf7b925a_b.png& data-rawwidth=&1381& data-rawheight=&667& class=&origin_image zh-lightbox-thumb& width=&1381& data-original=&/v2-059a3cc890a07cf7b925a_r.png&&&p&一个典型的应用场景是 32 个线程并发的往一个链表中插入节点,得益于 Thread-Is-A-Thread,未来我们可以在 GPU 上执行如下的代码,且不用担心各种未知的死锁。&/p&&div class=&highlight&&&pre&&code class=&language-cuda&&&span class=&kt&&__device__&/span& &span class=&kt&&void&/span& &span class=&nf&&insert_after&/span&&span class=&p&&(&/span&&span class=&n&&Node&/span& &span class=&o&&*&/span&&span class=&n&&a&/span&&span class=&p&&,&/span& &span class=&n&&Node&/span& &span class=&o&&*&/span&&span class=&n&&b&/span&&span class=&p&&)&/span&
&span class=&p&&{&/span&
&span class=&n&&Node&/span& &span class=&o&&*&/span&&span class=&n&&c&/span&&span class=&p&&;&/span&
&span class=&n&&lock&/span&&span class=&p&&(&/span&&span class=&n&&a&/span&&span class=&p&&);&/span& &span class=&n&&lock&/span&&span class=&p&&(&/span&&span class=&n&&a&/span&&span class=&o&&-&&/span&&span class=&n&&next&/span&&span class=&p&&);&/span&
&span class=&n&&c&/span& &span class=&o&&=&/span& &span class=&n&&a&/span&&span class=&o&&-&&/span&&span class=&n&&next&/span&&span class=&p&&;&/span&
&span class=&n&&a&/span&&span class=&o&&-&&/span&&span class=&n&&next&/span& &span class=&o&&=&/span& &span class=&n&&b&/span&&span class=&p&&;&/span&
&span class=&n&&b&/span&&span class=&o&&-&&/span&&span class=&n&&prev&/span& &span class=&o&&=&/span& &span class=&n&&a&/span&&span class=&p&&;&/span&
&span class=&n&&b&/span&&span class=&o&&-&&/span&&span class=&n&&next&/span& &span class=&o&&=&/span& &span class=&n&&c&/span&&span class=&p&&;&/span&
&span class=&n&&c&/span&&span class=&o&&-&&/span&&span class=&n&&prev&/span& &span class=&o&&=&/span& &span class=&n&&b&/span&&span class=&p&&;&/span&
&span class=&n&&unlock&/span&&span class=&p&&(&/span&&span class=&n&&c&/span&&span class=&p&&);&/span& &span class=&n&&unlock&/span&&span class=&p&&(&/span&&span class=&n&&a&/span&&span class=&p&&);&/span&
&span class=&p&&}&/span&
&/code&&/pre&&/div&&p&&b&写在最后&/b&&/p&&p&Volta 架构的推出意味着 Nvidia 越来越重视其 GPU 上通用计算(深度学习)的性能,以期打开人工智能计算市场。从股价上的反馈来看,投资者们也很看好这一路线。&/p&&p&Nvidia 上海 Compute Arch 组作为这一领域的重要的团队之一,参与了这一次 Volta 架构的整个设计及验证环节,欢迎更多有志于深度学习以及体系结构设计的同学加入我们。详情请参考:&a href=&/p/& class=&internal&&[上海] NVIDIA Computing Architecture 组招聘&/a&&/p&
原文: 老黄在 GTC 2017 上发布了 Nvidia 新一代的 GPU 架构 Volta,以及一块巨无霸(815 mm?)芯片 GV100。与以往不同的是,这一代架构设计把更多的精力放在了提高深度学习的性能上,几乎所有的新特性都与之有关。Tens…
&img src=&/f59abdaa1_b.png& data-rawwidth=&800& data-rawheight=&756& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&/f59abdaa1_r.png&&&br&还有一个常用的模型就是&a href=&///?target=http%3A//www.cc.gatech.edu/%7Eturk/bunny/bunny.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Stanford Bunny&i class=&icon-external&&&/i&&/a&。&br&这个是我研究生的老板在Stanford读Post Doc时候在University Avenue上的小工艺品店买的,然后扫描成模型的,我在他办公室见过实物。&br&&br&他说要是当初知道这个模型变的这么流行,早知道就多买几个。。&br&&br&-------------------------------------------------------------------------&br&再扯回NVIDIA,作为参与过Demo制作的人,我想说我们不是只用龙的好吗!去年VXGI的Demo,最简单的我们也用了San Miguel,算是图形学术圈里用的相当复杂的了。而且我们还加了物理引擎使得你可以破坏这个场景。&img src=&/d81d4a637e_b.jpg& data-rawwidth=&1920& data-rawheight=&1080& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&/d81d4a637e_r.jpg&&&br&真正发布Maxwell的时候我们做的阿波罗登月的Demo(&a href=&///?target=http%3A///video/av2180631/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&NVIDIA不明觉厉的VXGI重现阿波罗登月 带中文字幕&i class=&icon-external&&&/i&&/a&),专门请了Artist建模出和相片几乎一模一样的阿波罗号已经宇航员阿姆斯特朗的模型。&br&当时的要求是:此月球上的所有光照和着色必须完全基于物理,包括宇宙飞船的金属,宇航服的高度反射材质,月球尘土的反射性质,太阳光照的调和映射等等等等,至少证明我们对待Demo是很大投入的,不是丢给你一条龙就能搞定的。&br&&br&最后做的结果是真的和相片非常相,可以玩大家来找茬了。。&br&&img src=&/07813fce6b0c_b.png& data-rawwidth=&640& data-rawheight=&275& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&/07813fce6b0c_r.png&&
还有一个常用的模型就是。 这个是我研究生的老板在Stanford读Post Doc时候在University Avenue上的小工艺品店买的,然后扫描成模型的,我在他办公室见过实物。 他说要是当初知道这个模型变的这么流行,早知道就多买几个。。 ------------…
&p&服务器之所以可以不关机,是因为人类不会经常操作他,就算操作他也是为了一些跟自己的娱乐无关的项目,这样就不会经常把机器搞坏(当然不能因此掉以轻心)。这跟硬件没关系,台式机和服务器的硬件都是差不多的,这只跟人类物种的劣根性有关(逃&/p&&p&所以机器要总是重启,其实是你自己滥用它,譬如说安装那些明显就干过坏事的软件,见到UAC毫不犹豫就给了Yes也不调查一番。服务器安装的软件,只要你好好按照公司的规章制度,那么都已经被其他的五百万台服务器验证过了,基本不会出事。&/p&&p&我自己在公司用的台式机,因为只装Visual Studio,都是几个月不关机用到被IT scheduler了一个强制系统更新为止。自己家的电脑还额外装了QQ、微信、Steam和Hyper-V,都是久经考验的软件,没有问题。题主要是也能做到除了IE、QQ和Steam(或者战网)以外什么都不用,网页看完了立刻关掉(而不是留几百个tab),你也不用关机。这个要求是很合理的,一个正常人的所有PC娱乐活动都能被这三个软件完全覆盖。当然对IE的使用,并不包含下载其他软件这个动作。&/p&&p&不过我在家睡觉的时候还是把机器关了,因为天知道这些美帝老房子的电线怎么样,烧了就破产了(逃&/p&
服务器之所以可以不关机,是因为人类不会经常操作他,就算操作他也是为了一些跟自己的娱乐无关的项目,这样就不会经常把机器搞坏(当然不能因此掉以轻心)。这跟硬件没关系,台式机和服务器的硬件都是差不多的,这只跟人类物种的劣根性有关(逃所以机器要总…
很多人发现了11G显存,也很多人发现了352bit位宽。其实两者有联系的。如果显存位宽以32bit分为一组,那么352 = 32 * 11。而Titan X的384 = 32 * 12。正好对应于1080 Ti的11G显存和Titan X的12G显存。懂了吧,均匀地切一刀的事。
很多人发现了11G显存,也很多人发现了352bit位宽。其实两者有联系的。如果显存位宽以32bit分为一组,那么352 = 32 * 11。而Titan X的384 = 32 * 12。正好对应于1080 Ti的11G显存和Titan X的12G显存。懂了吧,均匀地切一刀的事。
恭喜题主,1998年的星际争霸1就是这么做的。
恭喜题主,1998年的星际争霸1就是这么做的。
转一段吴军博士在他的书《浪潮之巅》里面的话,觉得说的很在点上。&br&-------------------------------------------------------------------------------------------&br&
AMD 不同于英特尔以往的对手,它从来没有另起炉灶做一种和英特尔不同的芯片,而是不断推出和英特尔兼容的、更便宜的替代品。AMD 的这种做法和它的基因很有关系。AMD 从血缘来讲应该是英特尔的族弟,因为它也是从仙童半导体分出来的,也在硅谷,只比英特尔晚几年,而且也和英特尔一样,从半导体存储器做起。和其它处理器公司不同,AMD 的创始人是搞销售出身的,而一般技术公司创始人都是技术出身。AMD 的这种基因决定了它不是自己会做什么就做什么,而是市场导向的,市场需要什么就做什么。在 AMD 创建不久,它就成功地解刨了英特尔的一个八位处理器芯片。八十年代,由于 IBM 采购的原则是必须有两个以上的公司参加竞标,所以在很长的时间里,Intel 主动让 AMD 帮它生产芯片卖给 IBM 等公司&br&&br&
到了 1986 年,英特尔不想让 AMD 生产刚刚问世的 80386,可能是想独占 80386 的利润吧,于是开始毁约。AMD 拿出过去的合同请求仲裁,仲裁的结果是 AMD 可以生产 80386。这下子英特尔不干了,上诉到加州高等法院,这个官司打了好几年,但是法院基本上维持了仲裁的结果。AMD于是便名正言顺地克隆起英特尔的处理器芯片了。当时微机生产厂家,例如康柏为了同英特尔的压价,开始少量采购 AMD 的芯片。几年后,英特尔再次控告 AMD 公司盗用它花几亿美元买来的多媒体处理的 MMX 技术,AMD 做了让步达成和解。在整个九十年代,英特尔和 AMD 虽然打打闹闹但是,它们在开拓 x86 市场,对抗精简指令集的工作站芯片方面利益是一致的。因此它们在市场上的依存要多于竞争。&br&&br&
两千年后美国经济进入低谷,精简指令的工作站的市场一落千丈,太阳公司的股票跌掉了百分之九十几。放眼处理器市场,全是英特尔和 AMD 的天下了。AMD 这次主动出击,利用它提早开发出 64 位处理器的优势,率先在高端市场挑战英特尔,并一举拿下了服务器市场的不少份额。前几年,因为微软迟迟不能推出新的操作系统 Vista,因此个人用户没有动力去更新微机;而同时,因为互联网的发展,网络服务器市场增长很快,对 64 位高端处理器芯片需求大增。这样在几年里,AMD 的业绩不断上涨,一度占有 40% 左右的处理器市场,并且挑起和英特尔的价格战。AMD 同时在世界各地,状告英特尔的垄断行为。到去年年初,AMD 不仅在业绩达到顶峰,而且在对英特尔的反垄断官司上也颇有收获,欧盟等国开始约束英特尔。这样一来,英特尔就不能太小觑 AMD 这个小兄弟了。它决定给 AMD 一些颜色看看。在接下来的一年里,英特尔千呼万唤始出来的酷睿双核处理器终于面世了,性能高于 AMD 同类产品,英特尔重新恢复了它在产品上的领先地位。同时,英特尔在过去的几年里将生产线移到费用比硅谷低得多的俄罗冈州和亚利桑那州,以降低成本,然后,英特尔开始回应价格战。价格战的结果是,英特尔的利润率受到了一些影响,但是 AMD 则从盈利到大幅度亏损。英特尔重新夺回了处理器市场的主动权。现在,两家都是采用 65 纳米的半导体技术。在未来的几年里,英特尔因为在最新的 45 纳米技术上明显领先于 AMD,并且已经开始研发集成度更高的 32 纳米的芯片,它将对 AMD 保持绝对的优势。&br&&br&
我认为,总的来讲,英特尔并没有想彻底把 AMD 打死。因为留着 AMD 对它利大于弊。首先,它避免了反垄断的很多麻烦。今天 AMD 的股值只有英特尔的 5%,后者靠手中的现金就足以买下前者。但是,英特尔不能这么做,否则会有反垄断的大麻烦。其次,留着 AMD 这个对手对英特尔自身的技术进步有好处。柳宗元在他的“敌戒”一文中指出,“秦有六国,兢兢以强;六国既除,訑訑乃亡”。这条规律对于英特尔也适用。英特尔从 1979 年至今,将处理器速度,(如果以小数运算速度来衡量),提高了二十五万倍。如果没有诸多竞争对手的话,它是做不到这一点的。现在它的主要对手只有 AMD 了,从激励自己的角度讲也许要留着它,毕竟,AMD 在技术上不象当年的摩托罗拉和 IBM 那么让英特尔头疼。流传着这么一个玩笑,英特尔的人一天遇到了 AMD 的同行,便说,你们新的处理器什么时候才能做出来,等你们做出来了,我们才会有新的事做。
转一段吴军博士在他的书《浪潮之巅》里面的话,觉得说的很在点上。 ------------------------------------------------------------------------------------------- AMD 不同于英特尔以往的对手,它从来没有另起炉灶做一种和英特尔不同的芯片,而是不断推…
斜瑶,好久没回答硬件类问题了,&br&现在我已经不想再说该选什么配件了,我希望能多港一点道理,让大家对硬件有一种更加理性的认识,而不是“我觉得XX品牌不错”或“老司机钦点了某某配件”。&br&&blockquote&显卡:华硕公版GTX1060&br&Cpu:i5 6500&br&主板:华硕b150 pro gaming&br&Ssd:samsung evo 750 250g&br&电源:安钛克 450w&br&内存:金士顿 2133 16g单条&/blockquote&看到这套配置,我觉得题主对硬件的认识是远远不够的,还停留在非常感性的阶段。&br&①&br&首先,公版显卡是一样的,公版华硕和公版七彩虹在做工用料上没有什么区别,他们就是同一块显卡贴上两种不同商标后的产物,用的也都是英伟达官方的驱动,&b&不同品牌不会有任何优化加成之类的东西&/b&。唯一的区别在于保修,华硕三年保,七彩虹两年。如果你觉得华硕公版显卡卖的比别人贵是因为多一年保修,那我要告诉你,微星技嘉也是三年保,价格比华硕低。&br&基本上,我一看到什么华硕970,华硕1070,就可以认定:此人新手。&br&②&br&常常和华硕显卡一起出现的就是华硕主板。&br&题主选择的这款B150 PRO GAMING京东报价900.&br&我想问一句,你们知道这个板子和其他便宜的B150有什么区别吗?还有华硕Z170pro gaming和华硕Z170A有什么区别呢?我想大多数人是不知道的,只是觉得它名字霸气,又有华硕神秘加成。&br&后缀带有gaming,表示这个显卡有一些gaming功能,包括但不限于魔音声卡,杀手/gaming网卡,LED信仰灯。至于魔音和杀手到底是什么玄学,百度一查就知。我只能告诉你,这些东西没卵用,只是近几年新出的噱头,想想看,难道加几个电容你的声卡就变牛逼了?除了这些然并卵功能以外,此主板并不会给你的电脑带来任何性能上的提升,也不会更加稳定。&br&无论你是否需要gaming主板,这款B150卖到900的价格,也是丧心病狂。900元买这玩意?请仔细想想,主板稍微换个价格正常点的,把钱加到CPU上换成6600,起码能有10%以上的性能提升,不比买这个没卵用又贵的主板好?。ps:求你们了,别再跟我说CPU性能过剩了。&br&为什么我经常推荐B150M mortar? 这板子没有任何优点,但是它便宜,只要500元。并且散热片,供电,各类接口一个都不缩,没卵用的gaming功能一个都不加,同价位已经找不到比它更良心的主板了。&br&另外,任何B150板子和6500的U都不支持超频。&br&③&br&不想多说这块垃圾固态,三星是好牌子,但是750是三星最低端的系列,田忌赛马的故事听过吗?别国的劣马难道也比我国的中马强?&br&品牌并不重要,就像华硕,实力确实是业内最强的,但是华硕低端的显卡主板都垃圾的要死,还很贵,这些东西都是完全不值得购买的。&br&④&br&删掉,是我说错了。VP450P还不错。&br&⑤&br&金士顿内存不是垃圾,因为各家内存基本都一样,大品牌的低端内存也基本没有优劣之分,但是,金士顿就是敢卖的比人贵,因为很多人只知道金士顿误以为金士顿的东西就一定好。&br&&blockquote&主要有这几个疑问&br&1、1060性能应该在480左右吧?那价位我就先定个2k,买公版的显卡有什么缺点,有没有必要等非公?&br&2、cpu是否有必要入k,不懂超频,但有心想学&br&3、内存条是单16好,还是双8好?未来有升级?条的预期&/blockquote&论性能,应该是一个档次的,想分出胜负还要等各路网友的实际测试结果出来。我内心是偏向于1060的,因为480的温度,实在惨不忍睹。&br&公版卡唯二的优点是泰坦皮信仰十足和涡轮卡更适合组SLI。&br&(评论里有知友提醒,1060不能SLI,那就当上面这句话是对说的吧~)&br&但是公版卡做工用料都非常差,本身性能也低,温度高噪音大。非公因为是侧吹式吸风散热,组SLI后会严重影响散热。一般来说,对于没有信仰的玩家,公版卡是完全不需要考虑的,SLI并没有意义,能单不双。&br&&br&超频不仅要换U,还要换主板散热和电源,这个配置单里我都没看到散热器。&br&&br&双8好,但是玩游戏基本一致,双通道的优势只在个别软件和核显中有所体现。32G内存没意义,现在直接买双8就行了。&br&————————————————&br&&br&对所有人:&br&不要私信或者评论问我配置,点我头像看个人信息。
斜瑶,好久没回答硬件类问题了, 现在我已经不想再说该选什么配件了,我希望能多港一点道理,让大家对硬件有一种更加理性的认识,而不是“我觉得XX品牌不错”或“老司机钦点了某某配件”。 显卡:华硕公版GTX1060 Cpu:i5 6500 主板:华硕b150 pro gaming Ssd:…
&p&首先不同架构的参数没有比较的意义,比如当初256bit的GTX680吊打384bit的7970(后来农企以驱动翻身获得微弱领先优势),又比如今年256bit的GTX980再次吊打512bit的R9 290X。&/p&&p&&b&显卡架构&/b&,说得简单一些就是显示芯片各种处理单元的组成和工作模式,在参数相同的情况下,架构越先进,效率就越高,性能也就越强。&br&&br&而同架构的显卡 最重要的看四个地方:&b&流处理器数量、核芯频率、显存、位宽、&/b&&br&&br&&b&流处理器&/b&,即着色单元,Pixel
Shader(NVidia推出了CUDA并行计算架构,让显卡可以用于图形渲染以外的目的。所以把N卡的流处理器称作CUDA core。AMD也有类似的技术,叫AMD stream,相应的,AMD的流处理器也叫Stream Processor(SP))。流处理器是一款显卡最核心的卖点,同架构显卡中,流处理器数量越多,性能也越强大,但流处理器数量的提升和性能的提升并不成正比,这也涉及到架构的流处理器效率问题。&br&&br&&/p&&p&&b&核芯频率&/b&,(注意核芯频率不一定等于流处理器频率)这是各大非公版显卡厂商争相占领的高地,奢华的PCB layout,超公版的供电接口,都是为了更稳定的提升频率以获取更强的性能。但是普通玩家也不必盲目追求过高的频率,小幅度的频率提升一般伴随着更高昂的售价,但在游戏中的性能提升微乎其微。更多的是体现在测试类软件的评分上。而且为了追求高频率砸掉自己招牌的厂家也不在少数,几年前的影驰(绰号花驰现在都甩不掉),还有近两年的微星hawk系列,都是因为超高默频而导致花屏等各种问题。&br&&br&&/p&&p&&b&显存及其位宽:&/b&一般来说是越大越好,这两个参数决定了显卡在高分辨率和高抗锯齿下的表现。在游戏运行中,如果显存爆掉了,即使核心强大,纸面上帧数很高,实际的游戏体验还是会一卡一顿。相当难受。&br&&br&当然显存也是个奸商容易占小白便宜的地方,比如当年的GT440 4G狂牛, GT430 2G等等,都是以低性能核心搭配廉价的GDDR3显存来赚取小白的眼球。如今这类卡应该很少了,不过还是值得注意。&br&&br&&b&补充一下刚刚忽略的一点:&/b&&br&&b&ROPs&/b&&b&(光栅处理单元):游戏里的抗锯齿和光影效果越好,&/b&&b&对ROPs&/b&&b&的性能要求也就越高&/b&,否则就可能导致游戏帧数急剧下降.比如同样是某个游戏的最高特效,8个光栅单元的显卡可能只能跑25帧.而16个光栅单元的显卡则可以稳定在35帧以上。&/p&&p&&br&&br&最后 ,再强调一点:&b&所有参数方面的比较只能基于相同的架构下。不同架构的显卡即使从参数上看很接近,实际性能也可能大相径庭。&/b&&br&&br&&br&&b&不同架构的显卡怎么比?多看评测,也别光看跑分,着重看游戏帧数和帧数的稳定度。&/b&&/p&&br&&p&PS:有些朋友提出&b&看型号里的数字区分显卡,这是相当不可取的!如今显卡界马甲战术横行,不是长期关注硬件的同学很容易掉入商家陷阱。&/b&&br&&br&&br&&b&---------------------------------------------------------&/b&&/p&
首先不同架构的参数没有比较的意义,比如当初256bit的GTX680吊打384bit的7970(后来农企以驱动翻身获得微弱领先优势),又比如今年256bit的GTX980再次吊打512bit的R9 290X。显卡架构,说得简单一些就是显示芯片各种处理单元的组成和工作模式,在参数相同的…
上面的有些回答,有些让我伤心&br&作为笔吧评测室的成员,我希望看到的是对我们的肯定。。。&br&&br&诚然,小白在看到多次我们“客观”的评测后,会盲目的信从我们的言论,导致以后可能根本不看内容直接以结论为准。&br&但是你们的阴谋论有点贬低我们的信念了。。。我是一个忠实的硬件爱好者,我做评测的最终目标就是改善这个行业的面目,让笔记本产品愈发完美。这不是吹比,也不是骗人,这的的确确是我做评测的最大动力也是最终归宿,你这样揣摩我们,以为最后去骗小白,真的是会伤像我这种有信念的人的。。。。&br&&br&其次,小白会盲从这个事情,是我们无法避免的。。。授人以鱼不如授人以渔,这个道理大家都懂,但实际有几个人完完全全的做到了呢?&br&举个例子,你买一个东西,在买之前,至少会做一些了解,可能有些人就会偏向于问问亲近的人,然后得到答案,或者自己学一些知识和对比产品,最终决定买啥。但是,我敢肯定,这辈子买的所有东西,你不会都去做后者,因为知识太多了,浪费大量时间仅仅是买一个可能自己并不重视的产品,这样做值得么?&br&我以前觉得自己学知识然后买东西才是最科学的,然而这都是一厢情愿,人会懒,有些时候就喜欢抱大腿,只要认识的人有谁比较懂这类,就会去问一下,然后得到个结论就直接买了,省时省力多好。。。&br&&br&当然,作为评测者,我不能找理由推脱自己的责任,我一直在尽力做“授人以渔”,在做评测以前就在贴吧发了很多科普教程,让小白自食其力,避免奸商的坑爹,现在笔吧评测室同样在做科普,不过目前定位是小白,所以不会太深,可能还无法让小白做到“自食其力”,但我有理由相信,只要大家一点点积累知识,之后我们就会做更深的科普,想要靠自己知识去买电脑、维护电脑是没有问题的。&br&&br&以上&br&我很希望有更多人能像我这样热爱硬件这个行业,学到尽可能多的知识,然后利用知识做出贡献,让笔记本/电脑做的更好
上面的有些回答,有些让我伤心 作为笔吧评测室的成员,我希望看到的是对我们的肯定。。。 诚然,小白在看到多次我们“客观”的评测后,会盲目的信从我们的言论,导致以后可能根本不看内容直接以结论为准。 但是你们的阴谋论有点贬低我们的信念了。。。我是…
已有帐号?
无法登录?
社交帐号登录

我要回帖

更多关于 gtx1060算高端显卡吗 的文章

 

随机推荐