求steam版本的圣地安利斯飞机圣安地列斯驾校任务过了的存档

&figure&&img src=&https://pic2.zhimg.com/v2-aab594dd3faf8d7b954d_b.jpg& data-rawwidth=&600& data-rawheight=&370& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic2.zhimg.com/v2-aab594dd3faf8d7b954d_r.jpg&&&/figure&&p&这是一篇BB IN,按照我的习惯,这应该是一篇偏“硬”的文章,讲一些比较艰涩的知识和相对小众的文化。&/p&&p&而恰巧今天的要讲的主角,也确实是让人&b&“硬”&/b&的一家公司。&/p&&p&&b&Illusion。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-eb48b197daa14c50613bade995d7b288_b.jpg& data-rawwidth=&154& data-rawheight=&249& data-thumbnail=&https://pic4.zhimg.com/v2-eb48b197daa14c50613bade995d7b288_b.jpg& class=&content_image& width=&154&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&不过关于这家公司,我实在没法用那种严肃刻板的语调去聊。&/p&&p&毕竟那样也太不解风月了。&/p&&p&&b&Illusion,俗称I社,日本著名成人游戏公司,旗下著名产品《尾行》,《电车之狼》等系列在世界范围内都有非常高的知名度。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-30ec9afb7f207a2_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-30ec9afb7f207a2_r.jpg&&&/figure&&p&&br&&/p&&p&甚至CCTV新闻频道都用过《尾行3》的画面(&b&可是《尾行3》不是网游啊,央视爸爸&/b&)。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-311f28c4babd88fa7e246c5_b.jpg& data-rawwidth=&476& data-rawheight=&355& class=&origin_image zh-lightbox-thumb& width=&476& data-original=&https://pic4.zhimg.com/v2-311f28c4babd88fa7e246c5_r.jpg&&&/figure&&p&&br&&/p&&p&但这些游戏的内容,并不是我今天想要说的重点,关于这家从小伴随我们长大,却一直&b&“没法见人”&/b&的公司,最让我佩服的,是它的努力和创新精神。&/p&&p&这真的不是夸张,听我慢慢道来。&/p&&p&I社与我们的关系,要从21世纪最初的几年说起。&/p&&p&得益于社会的发展,网络逐渐进入了中国人民的家庭,与此同时,中国的网站也慢慢的多了起来。&/p&&p&&b&此时诞生了一个小网站——3DH,这家网站也就是后来大名鼎鼎,影响了中国游戏界的3DM网站的前身。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-bbcd71bec044c62b32dfac45_b.jpg& data-rawwidth=&294& data-rawheight=&81& class=&content_image& width=&294&&&/figure&&p&&br&&/p&&p&不过那时候3DH只是一个小网站,做的工作也有些见不得人——&b&盗版和汉化国外的H游戏。&/b&&/p&&p&当时3DH的论坛上,出现了I社著名游戏——《尾行》以及《欲望之血》。&/p&&p&我知道许多人接触的第一个H游戏就是《尾行》,当时让人吃惊的地方是,这个H游戏居然是3D画面,而且在当时来看,画面的精度相当不错,&/p&&p&而彼时被3DH盗版的,则是系列中的革新之作——&b&《尾行2》&/b&。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-1c893ca2d1e5d785cba04b6c87881c3f_b.jpg& data-rawwidth=&480& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&https://pic3.zhimg.com/v2-1c893ca2d1e5d785cba04b6c87881c3f_r.jpg&&&/figure&&p&&br&&/p&&p&相较而言,《尾行1》属于初代,开拓有余,成熟不足;《尾行3》虽然知名度最高,但是太过于迎合玩家,难度降低太多,只是为了H而游戏,失去了许多游戏性。&/p&&p&这个系列虽然是一个H类型的游戏,不过有一个特点,玩过的人都知道——&/p&&p&&b&游戏会有两条路线,一条是纯爱,一条是凌辱。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-cc044cbed5da7f02265d44_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-cc044cbed5da7f02265d44_r.jpg&&&/figure&&p&&br&&/p&&p&&b&纯爱是走流程,打动女方,最后啪啪啪,凌辱则是强迫对方和你啪啪啪。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-aab594dd3faf8d7b954d_b.jpg& data-rawwidth=&600& data-rawheight=&370& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic2.zhimg.com/v2-aab594dd3faf8d7b954d_r.jpg&&&/figure&&p&&br&&/p&&p&凌辱路线的姿势和使用道具会多一些,不过由于I社对模型的塑造以及各个女主的人物刻画比较到位,所以个人还是更加喜欢纯爱的。&/p&&p&是的,你没有看错,玩个H游戏能玩出感情。&/p&&p&&b&这就是I社第一个自我突破的地方——为H游戏注入情感。&/b&&/p&&p&可能《尾行》中感觉并不那么强烈,会让人感觉我这么说有些牵强,那么我再说一个I社当年的成名之作——&b&《监禁》&/b&。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-b9b7cd5c7b03b4e46ae94_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-b9b7cd5c7b03b4e46ae94_r.jpg&&&/figure&&p&&br&&/p&&p&《监禁》这款游戏,号称史上第一个3D的H游戏,开历史之先河,前无古人。&/p&&p&不过这款游戏在我看来最让人称道之处,就是在发行了一段时间之后,使无数玩家在其官方论坛上向i社请愿——&b&不要让千雨死的那么惨&/b&。&/p&&p&于是官方顺从民意,专门为千雨开发了一个补丁——&b&现在的话,应该叫做dlc,可以多出一个结局,让千雨免于死亡。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-a770d2ed6ff2ecaba90ecca_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-a770d2ed6ff2ecaba90ecca_r.jpg&&&/figure&&p&&br&&/p&&p&&b&那么千雨是谁呢?&/b&&/p&&p&《监禁》的剧情中,有一个长相甜美的女性搜查官名为&b&魔的千雨&/b&,富有正义感,但是稚气未脱,在游戏中为了推翻犯罪集团,不幸落入对方的手中。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-ab09f196cbc0420fad41_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-ab09f196cbc0420fad41_r.jpg&&&/figure&&p&&br&&/p&&p&然后就是H游戏常有的剧情,最后被杀,弃尸野外。&/p&&p&但是由于人设和剧情的关系,这个角色被无数玩家喜爱,看到自己喜欢的角色被用非常残忍的方式杀害以后,大家愤怒了,纷纷冲上论坛表达自己的愤慨。&/p&&p&I社一看群情汹汹不可轻视,于是就为大家制作了一个名为&b&《监禁千雨脱出》的DLC&/b&,让有要求的玩家可以救出千雨,使她免于被杀。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-606d79aa129e231a922a_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-606d79aa129e231a922a_r.jpg&&&/figure&&p&&br&&/p&&p&&b&这就是I社第一次让大家玩H游戏都能玩出感情与同情的小故事。&/b&&/p&&p&要知道,《监禁》诞生于1995年,在那个年代做出类似《VR特警》3D效果的H游戏,糅合了解密,悬疑,射击等要素,I社可以说是领先业界无数个身位。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-9dfea7c999b_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-9dfea7c999b_r.jpg&&&/figure&&p&&br&&/p&&p&《监禁》虽然获得了成功,但是它依然没有摆脱模仿的影子,之前也说到了《VR特警》,当年这款游戏引发的轰动致使无数厂家学习它的战斗模式,《监禁》也是如此。&/p&&p&而游戏中的解密模式,则有点像&b&《生化危机》&/b&的初代(是的,第一代《生化危机》更加像是一个AVG游戏,就是解密冒险类)。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-d3d2face9b378f7c96e196c2e3480aca_b.jpg& data-rawwidth=&600& data-rawheight=&620& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic3.zhimg.com/v2-d3d2face9b378f7c96e196c2e3480aca_r.jpg&&&/figure&&p&&br&&/p&&p&那么I社作为一个上进而又有探索精神的公司,自然不会满足于模仿别人,于是诞生了&b&《尾行》系列,《电车之狼》系列。&/b&&/p&&p&这两个系列如果要分类,应该说是把GALGAME游戏和解密类结合,再添加H元素,虽然游戏的操作性不强,但是人物的塑造还是有一定亮点的。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-904bd2ccbe_b.jpg& data-rawwidth=&480& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&https://pic1.zhimg.com/v2-904bd2ccbe_r.jpg&&&/figure&&p&&br&&/p&&p&可以说在&b&《监禁》&/b&成功之后,这两个游戏完全脱离了之前的射击元素,从一个战斗型的H游戏,画风突变,成为了纯剧情向的游戏,不可谓变化不大。&/p&&p&不过由于这两个作品知名度较高,我就不详细说了。&/p&&p&《尾行》在推出第二作之后,就获得了相当高的评价,而《电车之狼》系列更是由于出色的画面在宅男心中地位崇高。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-dabb67f2aeee581b5a8e_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-dabb67f2aeee581b5a8e_r.jpg&&&/figure&&p&&br&&/p&&p&&b&照说这样的成绩傲视业内,在3DH游戏方面无人能出其右(或许除了《上古卷轴》?),i社还有什么不满足?&/b&&/p&&p&i社还真就不满足。&/p&&p&于是就有了&b&《欲望之血4》&/b&。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-3f3a4db40c9af6a4a1cda7c5d450abc0_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-3f3a4db40c9af6a4a1cda7c5d450abc0_r.jpg&&&/figure&&p&&br&&/p&&p&《欲望之血》系列早在1997年就开始研发,不过相较于《尾行》系列的大红大紫,《欲望之血》的前三作都显得有些小众。&/p&&p&说白了就是剧情无法让人影响深刻,H方面也没有那么有特色,所以一直不温不火。&/p&&p&不过2002年的《欲望之血4》推出之后,可以说让不喜欢H游戏的玩家也不得不承认——&b&即使是H游戏中,也有剧情出色,操作一流的佳作。&/b&&/p&&p&这个游戏刻画了主角依丝卡和赛法的感情,从暗生情愫到热恋再到最后的分别,有过战斗有过谎言。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-1265990dbf6d82cf1d24d0fc_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-1265990dbf6d82cf1d24d0fc_r.jpg&&&/figure&&p&&br&&/p&&p&最后在星空下望着爱人离去,在精致的画面中剧情缓缓结束。&/p&&p&其中剧情的跌宕不足为外人道,而流畅的操作感觉也是得益于科技的革新,让I社可以使用新的3d引擎。&/p&&p&&b&这是一个把H元素变成次要元素的H游戏,更是3D的RPGh游戏史上的最高峰——至少在目前为止。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-ed863b2d21ca4afe31f9ff14_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-ed863b2d21ca4afe31f9ff14_r.jpg&&&/figure&&p&&br&&/p&&p&我是一个不喜欢把话说死的人,但是这个游戏到目前为止,在这个圈子内,确实前无古人后无来者。&/p&&p&&b&虽然是H游戏,但是可以像《最终幻想10》一样让玩家对生命,分别,时间,爱情产生更加深层次的思考,它当之无愧。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-fdeddcee6f54a021e327f2b5_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-fdeddcee6f54a021e327f2b5_r.jpg&&&/figure&&p&&br&&/p&&p&不过不管怎么样,H游戏始终是一个小众游戏,即使是在游戏界发达的日本也一样,很难被拿出来说。&/p&&p&所以I社需要更高的收入。&/p&&p&如何解决这个问题呢?&/p&&p&请更加简单粗暴的来H内容吧。&/p&&p&2003年,&b&《性感沙滩2》&/b&发布,这种游戏就比较简单,上来就是冲着男性的原始冲动去的,非常粗暴的剧情和直接的画面让人乐在其中而又没法对其产生认同感。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-f136175ada612ed8e6c28ca_b.jpg& data-rawwidth=&640& data-rawheight=&480& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-f136175ada612ed8e6c28ca_r.jpg&&&/figure&&p&&br&&/p&&p&很像现在的某些游戏,只是利用人性的弱点。&/p&&p&之后《尾行3》发布,这款游戏实在名声太大,记得当年的路边软件店中,老板都会偷偷的将《尾行3》放在一堆正经游戏中,等小朋友们“不小心”发现。&/p&&p&脸皮厚的大着胆子就买回家了,脸皮薄的就偷偷的看看封面,也觉得分外刺激。&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-d021e039ae_b.jpg& data-rawwidth=&640& data-rawheight=&427& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-d021e039ae_r.jpg&&&/figure&&p&&br&&/p&&p&不过之前已经说过这个游戏,优劣也都讲过,就不再赘述。&/p&&p&&b&不过在《尾行3》的大红大紫之后,i社突然宣布——退出游戏圈。&/b&&/p&&p&这让人非常不解,也让许多忠实的 I社粉丝扼腕叹息,老夫也是愁的彻夜难眠——&b&I社你可要为我这些年的青春负责啊。&/b&&/p&&p&不过很快i社就放出了新的作品,不过新作确实不能算&b&“纯粹的游戏”&/b&,这是一个&b&“电影交互式游戏”&/b&。&/p&&p&新游戏名为&b&《A-GA激动地惑星》,&/b&讲述的是一个外星球的故事,&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-facdbf8eead14b2f69177d_b.jpg& data-rawwidth=&480& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&480& data-original=&https://pic3.zhimg.com/v2-facdbf8eead14b2f69177d_r.jpg&&&/figure&&p&&br&&/p&&p&如果你对游戏比较了解,应该听说过一个名叫&b&Quantic Dream&/b&的公司,旗下有鼎鼎有名的游戏&b&《暴雨》以及《超凡双生》&/b&,以及正在跳票中的&b&《底特律:变人》&/b&。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-7a6cf2ebc064fab59d81d_b.jpg& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-7a6cf2ebc064fab59d81d_r.jpg&&&/figure&&p&&br&&/p&&p&这些游戏都是“交互式游戏”——&b&你的选择会影响到游戏后面的发展,而画面往往用CG的形式来表现。&/b&&/p&&p&虽然AGA并没有《暴雨》那么优秀,但是这个思路确实非常难得,甚至可以说对未来游戏的发展有启发性的作用。&/p&&p&而长达两个多小时的动画CG画面也确实让这个游戏变得不只是游戏。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-fa6968061c_b.jpg& data-rawwidth=&400& data-rawheight=&210& class=&content_image& width=&400&&&/figure&&p&&br&&/p&&p&&b&应该说不只是动画,游戏或者是电影,而是i社野心的体现——他们想要开创一个新的类型。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-644e4e9e6c5cd_b.jpg& data-rawwidth=&534& data-rawheight=&610& class=&origin_image zh-lightbox-thumb& width=&534& data-original=&https://pic3.zhimg.com/v2-644e4e9e6c5cd_r.jpg&&&/figure&&p&&br&&/p&&p&这个不满足于现状,四处开拓的H游戏公司,对于变革的渴望让人吃惊。&/p&&p&只可惜虽然游戏质量还算不错,但是这样类型的H游戏始终无法成为主流,一年之后,i社宣布重新回归游戏。&/p&&p&不过这次回归游戏之后,I社终于向现实妥协——&b&开始安心做h游戏,抛开游戏性,单纯为了h而h的游戏。&/b&&/p&&p&我想估计原因还是因为销量吧,毕竟在h游戏中加入游戏性和各种难度只会使得两头不讨好,从而影响销量。&/p&&p&而销量才是以后开拓的本钱啊。&/p&&p&&b&在那之后的游戏中的H场景和可使用道具日渐增多,许多游戏甚至可以作为夫妻情趣指南——让无数老司机叹为观止,啧啧称奇。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f4dbe242aabeb4cfbe4244_b.jpg& data-rawwidth=&597& data-rawheight=&339& class=&origin_image zh-lightbox-thumb& width=&597& data-original=&https://pic4.zhimg.com/v2-f4dbe242aabeb4cfbe4244_r.jpg&&&/figure&&p&&br&&/p&&p&这时的illusion真的变成了“一撸射”,伴随着&b&《电车之狼R》&/b&的发布,诸多主流媒体对其的声讨也是越来越多。&/p&&p&甚至在美国的妇女协会都出来声讨i社影响美国民众。&/p&&p&&b&对此i社表示我们的游戏都是只在日本发售的,你们美国人能玩到就说明你在玩盗版,我还没问你要版权费,你居然声讨我们?&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-6de94a54001_b.jpg& data-rawwidth=&640& data-rawheight=&75& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-6de94a54001_r.jpg&&&/figure&&p&&br&&/p&&p&在2016年之前,I社发行的几十个游戏中,还是有不少游戏可圈可点,比如&b&《同校生》《猎影之狼》&/b&等,资金充足后的i社又一次开始了新领域的拓展,不过也有比较受争议的,诸如&b&《性运魔球》《箱娘》&/b&等,太过于H以及人物造型不够讨喜,导致不喜欢的人也非常多。&/p&&p&不过去年推出的&b&《honey select》&/b&又一次将这家公司爱搞事的一面展现出来。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-e4d3f851dddb4e74b3a3d50a1ad2f80f_b.jpg& data-rawwidth=&600& data-rawheight=&337& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic4.zhimg.com/v2-e4d3f851dddb4e74b3a3d50a1ad2f80f_r.jpg&&&/figure&&p&&br&&/p&&p&&b&在看到这款译名为《挑选甜心》的3DH游戏之前,我真的没想到刷新我对日本游戏制作技术的认知的游戏,居然是一个H游戏。&/b&&/p&&p&如果只论画面,这款游戏甚至可以媲美欧美的3A大作。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f38d1b9f6cf6d76b6fdcc4_b.jpg& data-rawwidth=&600& data-rawheight=&338& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic4.zhimg.com/v2-f38d1b9f6cf6d76b6fdcc4_r.jpg&&&/figure&&p&&br&&/p&&p&不过精致的捏人与流畅的H画面无法掩盖内容的空洞——&b&当然你要求一个H游戏内容充实,游戏性十足或许要求有点高。&/b&&/p&&p&但是你是I社啊!&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-9ea8e1af92e15e79dbed9a0_b.jpg& data-rawwidth=&252& data-rawheight=&352& class=&content_image& width=&252&&&/figure&&p&&br&&/p&&p&我还是希望能看到I社有一天会做出画面与内容兼顾的好游戏的。&/p&&p&至于去年沸沸扬扬的&b&《VR女友》&/b&我反倒不想多说什么,VR技术不够成熟的今天,这样的一个游戏形式意义大于实际意义。&/p&&p&I社的这款游戏说明&b&如果有这样的技术,他们会第一时间掌握,并且应用在我们的游戏中。&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8b54fa02cff2dfd11e2337_b.jpg& data-rawwidth=&640& data-rawheight=&427& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-8b54fa02cff2dfd11e2337_r.jpg&&&/figure&&p&&br&&/p&&p&哪怕是个H游戏。&/p&&p&聊了这么多,可以看到illusion这家公司在这二十多年里,虽然一直都在做H游戏,但是从RPG到解密,从射击游戏到养成游戏,从电影化到VR,它一直在创新,一直在找寻玩家的口味。&/p&&p&也许有人会说:&b&区区一家H游戏公司,这也要吹?&/b&&/p&&p&&b&但是我想说:&/b&&/p&&p&&b&从《监禁》到《尾行》是对新类型的尝试;&/b&&/p&&p&&b&从《尾行》到《欲望之血4》是内容的深化;&/b&&/p&&p&&b&从《人工少女》到《honey select》是技术的革新;&/b&&/p&&p&&b&从《性感沙滩》到《VR女友》是未来的探索。&/b&&/p&&p&这家公司深刻的了解——&b&一旦一家游戏公司失去了创新能力,他就会被淘汰,而H游戏的创新又是如此艰难,我们这么多年看到了I社画质在不断提升,游戏性也不断在改变,或许还没有做到很好。&/b&&/p&&p&&b&但是这样一个只做H游戏还如此执着创新的公司,难道不让国内一众只知道抄袭和自我复制的厂商羞愧?&/b&&/p&
这是一篇BB IN,按照我的习惯,这应该是一篇偏“硬”的文章,讲一些比较艰涩的知识和相对小众的文化。而恰巧今天的要讲的主角,也确实是让人“硬”的一家公司。Illusion。 不过关于这家公司,我实在没法用那种严肃刻板的语调去聊。毕竟那样也太不解风月了。…
&figure&&img src=&https://pic3.zhimg.com/v2-ff0d9b2eb34e7b81284cc1_b.jpg& data-rawwidth=&640& data-rawheight=&430& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-ff0d9b2eb34e7b81284cc1_r.jpg&&&/figure&&p&&/p&&p&前段时间情报君经常有看到媒体总结2018年游戏大作的,&b&但大部分都是主机游戏附带单机游戏&/b&,还不一定上Steam,可能是烂橘子或者Win10独占,&b&所以今天情报君来总结下2018年Steam即将上架的十款大作!&/b&(没确定日期的都没写入比如某骑砍2)&/p&&figure&&img src=&https://pic1.zhimg.com/v2-8ab56f170202ced677aa_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-8ab56f170202ced677aa_r.jpg&&&/figure&&p&日系RPG游戏&b&《最终幻想15 Final Fantasy XV》&/b&将在6周后的3月7日解锁Steam版本,2月1号就可以开始预购了。本作的主机版本早在16年年尾就已发行,这次PC版Square Enix带来了&b&支持高分辨率和更多额外内容以及第一人称视角。&/b&&/p&&p&玩家可以自由操控角色游历世界,之中会遭遇众多巨大的敌人,也可以到城镇的旅馆中休息、购买装备或露营及烹调食材。在广阔开放的世界地图,玩家可以选择步行、驾车、乘坐飞空艇或骑乘陆行鸟。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cad8fda9dd9b5bbd4771affa_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-cad8fda9dd9b5bbd4771affa_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-97b0920f2fcf5012dbf92a6f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-97b0920f2fcf5012dbf92a6f_r.jpg&&&/figure&&p&乌克兰开发商4A Games的第一人称射击新作&b&《地铁:逃离 Metro Exodus》&/b&将在今年秋季发售。&b&游戏仍然采用分线性任务系统与沙盒地图以探索刺激的剧情&/b&,游历整个春夏秋季以及核冬季,游戏采用昼夜循环系统以及动态气候系统。&/p&&p&作为《地铁》系列的第三款作品,本作中主角将和其他探险者登上俄罗斯东部的蒸汽列车,这是一个重型改装的避难所,玩家的选择还将影响其他探险者的命运。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-f2ed6ccc06_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-f2ed6ccc06_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-45875baf397bf5d4edf4a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-45875baf397bf5d4edf4a_r.jpg&&&/figure&&p&在去年的Ti7上V社公布自家制作的卡牌新作&b&《Artifact》&/b&,有谁知道V社有多久没做新游戏了?这款游戏的&b&保密工作做的很好&/b&(毕竟就两三百人的公司好管理),目前所有已知消息都是从VP俱乐部透漏出去的,没错就是哪个好吃你就多吃点的VP战队。&/p&&p&在近期VP俱乐部的官网中,&b&他们一篇文章又披露了《Artifact》中玩家将控制五个英雄&/b&,玩家可以使用技能卡,场上同样也有三个区域,击杀敌方英雄可以获得金币,使用金币购买道具卡等等内容。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-7cf1ef8f7a8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-7cf1ef8f7a8_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-db7e95b3fccb_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&358& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-db7e95b3fccb_r.jpg&&&/figure&&p&在去年的E3展上育碧公布了全新IP海战游戏&b&《船奇霸业 Skull & Bones》&/b&(中文名我乱说的),本作由制作了《刺客信条:黑旗》海战部分的育碧新加坡团队开发。这不得不佩服育碧在新IP开发上的勇气,游戏预计在今年第三季度发布。&/p&&p&游戏中玩家将成为一名初出茅庐的海盗,从加勒比海航向印度洋,开启传奇的冒险之旅。除了能通过RPG系统强化船只外,游戏还提供海盗同盟系统,与朋友一起掠夺贸易航线。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-d9a145b3fabf_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&444& data-rawheight=&250& data-thumbnail=&https://pic3.zhimg.com/v2-d9a145b3fabf_b.jpg& class=&origin_image zh-lightbox-thumb& width=&444& data-original=&https://pic3.zhimg.com/v2-d9a145b3fabf_r.jpg&&&/figure&&p&&b&另外游戏中还提供5V5的联机海战,重返大航海时代的火炮对轰、接弦战、船体撞击。&/b&非常适合平时很忙的上班族们,午休或者闲暇时玩一局。&/p&&p&海战中复杂的物理特效和拟真印度洋环境模拟,都需要强大的电脑性能带动&/p&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-2bd1f3abde51b3b48746_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-2bd1f3abde51b3b48746_r.jpg&&&/figure&&p&日式动画风RPG游戏&b&《二之国2:亡灵之国 Ni no Kuni II:Revenant Kingdom》&/b&将于3月23日于Steam上正式发售,其中本体售价?428,特别版售价?558(一看价格就知道是日厂游戏)。&/p&&p&初代《二之国》之所以被誉为经典,很大程度上归功于&b&吉卜力的动画风格和故事表现手法&/b&。而本作则保留了吉卜力的绘画风格,还邀请了业界知名的剧本编剧,&b&尝试讲好一位少年成长为国王的故事&/b&。少年在成长过程中遇到了各种各样的伙伴,和他们一起战胜了无数艰难险阻,最后成为了一名出色的国王,并且前作的部分高人气角色也会在本作中出现。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-bcf61980dbceee003efa0_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&445& data-rawheight=&250& data-thumbnail=&https://pic2.zhimg.com/v2-bcf61980dbceee003efa0_b.jpg& class=&origin_image zh-lightbox-thumb& width=&445& data-original=&https://pic2.zhimg.com/v2-bcf61980dbceee003efa0_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-550618acabcf4286eddb619_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-550618acabcf4286eddb619_r.jpg&&&/figure&&p&知名动作冒险游戏&b&《暗黑血统3 Darksiders III》&/b&作为时隔多年的《暗黑血统》续作,在公布之时就已经万众瞩目 ,本作定于2018年内发售。这一次玩家将扮演怒神,重返灾变的人间界,展开猎杀“七宗罪”的任务。&b&玩家将运用她威力强大的鞭子与魔法屠杀地狱恶魔,&/b&并且形态各异的变形魔法赋予自己新武器与新能力。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8c2584351dcde3b49e7d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&444& data-rawheight=&250& data-thumbnail=&https://pic3.zhimg.com/v2-8c2584351dcde3b49e7d_b.jpg& class=&origin_image zh-lightbox-thumb& width=&444& data-original=&https://pic3.zhimg.com/v2-8c2584351dcde3b49e7d_r.jpg&&&/figure&&p&从目前的预告来看,本作将重现前两作中的出色手感,&b&并在武器系统和变身系统上有出色的表现。&/b&有了原班团队的核心成员亲自出马,想必今年的《暗黑血统3》将是系列老玩家与动作游戏爱好者不容错过的游戏。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-a0ec51c40ebb48411b67_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-a0ec51c40ebb48411b67_r.jpg&&&/figure&&p&&b&《孤岛惊魂5 Far Cry 5》&/b&是由高产如母猪育碧制作的第一人称射击开放世界游戏,游戏定于日发售,国区定价?248。游戏首次将背景设定在美国的蒙大拿州“希望镇”,玩家能够以单人或双人合作的模式,抵抗席卷当地的邪教组织并解放受陷的人民。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-fb42264fdcb89e97ff1c83_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&600& data-rawheight=&337& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic3.zhimg.com/v2-fb42264fdcb89e97ff1c83_r.jpg&&&/figure&&p&在游戏中玩家将驾驶飞机,在城镇上方的广阔天空与邪教势力展开空中缠斗。在田间、森林、山脉或是河流间,收集生存必备的资源并追踪邪教成员。更可以驾驶美国标志性的肌肉车、大卡车等,雇佣猛兽和佣兵对抗邪教士兵。&b&地图编辑器也将在《孤岛惊魂5》中再度回归&/b&,让玩家们有机会创造和体验无数的全新内容。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-97b926de07c6df1d2e5cf8b5b186eea1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-97b926de07c6df1d2e5cf8b5b186eea1_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-e80caf7624bd661edaff_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-e80caf7624bd661edaff_r.jpg&&&/figure&&p&&b&《三国:全面战争 Total War:Three Kingdoms》&/b&是由CA开发的一款大型即时战略游戏,也是全面战争系列的最新作品,游戏预计2018年秋天发售。本作以古中国三国时期作为故事背景,凭借全面战争系列以往的大场面和恢弘大气的战场气氛,将三国时期那段枭雄与英雄辈出的时代增添了一抹不一样的色彩。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-1aa9beb00e303ea6fa39fd14e272e3eb_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-1aa9beb00e303ea6fa39fd14e272e3eb_r.jpg&&&/figure&&p&作为当前市面上最具盛名的策略游戏系列之一,CA耕耘了《全面战争》18年,历经了帝国,罗马,幕府等等时代后,&b&终于将战场带到了群雄割据,英杰辈出的三国时代&/b&,这也是数十年以来第一款中国题材的3A规模策略游戏。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-36355caf6fcc43993f1ff_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-36355caf6fcc43993f1ff_r.jpg&&&/figure&&p&在小岛秀夫离开后,科乐美所制作的第一款《合金装备》作品,潜入动作类游戏&b&《合金装备:幸存 METAL GEAR SURVIVE》&/b&定于2月22日发售,国区价格220元,并且支持繁体中文。&/p&&p&本作的游戏故事背景承接《原爆点》,在原爆点结局处“无国界军队”侥幸生还的队友,被虫洞传送到了另一个宇宙。在这里,幸存者们必须团结合作与生化僵尸作战,为了回到原有的世界而努力。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4dd4fb4d4fdcce658cc7d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-4dd4fb4d4fdcce658cc7d_r.jpg&&&/figure&&p&本作游戏全程联网,即使是单人游戏也是如此,但是跟进媒体试玩的结果来看,游戏目前的可玩性比较令人满意。本作抛开了传统的潜行玩法外,&b&鼓励玩家组队联机使用武器来战斗&/b&,还能在地上放置一些障碍物和炮塔之类的装备,阻止僵尸前进的步伐。&b&并且本作很强调生存元素&/b&,游戏后期饥饿和口渴系统,会迫使你随时去寻找食物来维持生存。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-5f93fe93d6e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&900& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&900& data-original=&https://pic3.zhimg.com/v2-5f93fe93d6e_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-aa92dc9fa4d4fd2f4048d1f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-aa92dc9fa4d4fd2f4048d1f_r.jpg&&&/figure&&p&角色扮演游戏《永恒之柱》的续作,&b&《永恒之柱2 Pillars of Eternity II:Deadfire》&/b&定于2018年内发售,根据商店消息续作支持简中语言(出简中买买买系列)。&/p&&p&在本作中光和重生之神将会再次回归,他在前作已经被认定为死亡,但它其实正栖身于一个石巨人的体内,这个石巨人从地底下苏醒的时候破坏了玩家们的庇护所,严重威胁到了整个世界的安全。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-27ed28c8c6694bef7035_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-27ed28c8c6694bef7035_r.jpg&&&/figure&&p&根据游戏预告来看,玩家可以在游戏广阔的海域航行,探索之前未经涉足的死火之地。&b&在玩法方面玩家可以从7名同伴中选择队友,并可以对你的队友进行深度的装备技能自定义。&/b&同时你可以自定义改造自己的船只和船员,帮助自己在海上航行时战斗。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-560acf3ffdae_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1920& data-rawheight=&1080& data-thumbnail=&https://pic3.zhimg.com/v2-560acf3ffdae_b.jpg& class=&origin_image zh-lightbox-thumb& width=&1920& data-original=&https://pic3.zhimg.com/v2-560acf3ffdae_r.jpg&&&/figure&&p&&/p&
前段时间情报君经常有看到媒体总结2018年游戏大作的,但大部分都是主机游戏附带单机游戏,还不一定上Steam,可能是烂橘子或者Win10独占,所以今天情报君来总结下2018年Steam即将上架的十款大作!(没确定日期的都没写入比如某骑砍2)日系RPG游戏《最终幻想1…
&figure&&img src=&https://pic3.zhimg.com/v2-da6e908fbff06e8e14c60d86d776d225_b.jpg& data-rawwidth=&768& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic3.zhimg.com/v2-da6e908fbff06e8e14c60d86d776d225_r.jpg&&&/figure&&p&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-abd42bbb61ee_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&558& data-rawheight=&315& class=&origin_image zh-lightbox-thumb& width=&558& data-original=&https://pic1.zhimg.com/v2-abd42bbb61ee_r.jpg&&&/figure&&p&作为一名久经片场的老司机,早就想写一些探讨驾驶技术的文章。这篇就介绍利用生成式对抗网络(GAN)的两个基本驾驶技能:&br&&/p&&p&1) 去除(爱情)动作片中的马赛克&/p&&p&2) 给(爱情)动作片中的女孩穿(tuo)衣服&/p&&p&&br&&/p&&h2&生成式模型&/h2&&p&上一篇《&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&用GAN生成二维样本的小例子&/a&》中已经简单介绍了GAN,这篇再简要回顾一下生成式模型,算是补全一个来龙去脉。&/p&&p&生成模型就是能够产生指定分布数据的模型,常见的生成式模型一般都会有一个用于产生样本的简单分布。例如一个均匀分布,根据要生成分布的概率密度函数,进行建模,让均匀分布中的样本经过变换得到指定分布的样本,这就可以算是最简单的生成式模型。比如下面例子:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-d11b5fb26d3cc8e942f841bafe010cd8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1021& data-rawheight=&443& class=&origin_image zh-lightbox-thumb& width=&1021& data-original=&https://pic1.zhimg.com/v2-d11b5fb26d3cc8e942f841bafe010cd8_r.jpg&&&/figure&&p&图中左边是一个自定义的概率密度函数,右边是相应的1w个样本的直方图,自定义分布和生成这些样本的代码如下:&br&&/p&&div class=&highlight&&&pre&&code class=&language-python&&&span&&/span&&span class=&kn&&from&/span& &span class=&nn&&functools&/span& &span class=&kn&&import&/span& &span class=&n&&partial&/span&
&span class=&kn&&import&/span& &span class=&nn&&numpy&/span&
&span class=&kn&&from&/span& &span class=&nn&&matplotlib&/span& &span class=&kn&&import&/span& &span class=&n&&pyplot&/span&
&span class=&c1&&# Define a PDF&/span&
&span class=&n&&x_samples&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&arange&/span&&span class=&p&&(&/span&&span class=&o&&-&/span&&span class=&mi&&3&/span&&span class=&p&&,&/span& &span class=&mf&&3.01&/span&&span class=&p&&,&/span& &span class=&mf&&0.01&/span&&span class=&p&&)&/span&
&span class=&n&&PDF&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&empty&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&)&/span&
&span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&round&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&+&/span& &span class=&mf&&3.5&/span&&span class=&p&&)&/span& &span class=&o&&/&/span& &span class=&mi&&3&/span&
&span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&=&/span& &span class=&mi&&0&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&mf&&0.5&/span& &span class=&o&&*&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&cos&/span&&span class=&p&&(&/span&&span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&pi&/span& &span class=&o&&*&/span& &span class=&n&&x_samples&/span&&span class=&p&&[&/span&&span class=&n&&x_samples&/span& &span class=&o&&&=&/span& &span class=&mi&&0&/span&&span class=&p&&])&/span& &span class=&o&&+&/span& &span class=&mf&&0.5&/span&
&span class=&n&&PDF&/span& &span class=&o&&/=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&sum&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&p&&)&/span&
&span class=&c1&&# Calculate approximated CDF&/span&
&span class=&n&&CDF&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&empty&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&)&/span&
&span class=&n&&cumulated&/span& &span class=&o&&=&/span& &span class=&mi&&0&/span&
&span class=&k&&for&/span& &span class=&n&&i&/span& &span class=&ow&&in&/span& &span class=&nb&&range&/span&&span class=&p&&(&/span&&span class=&n&&CDF&/span&&span class=&o&&.&/span&&span class=&n&&shape&/span&&span class=&p&&[&/span&&span class=&mi&&0&/span&&span class=&p&&]):&/span&
&span class=&n&&cumulated&/span& &span class=&o&&+=&/span& &span class=&n&&PDF&/span&&span class=&p&&[&/span&&span class=&n&&i&/span&&span class=&p&&]&/span&
&span class=&n&&CDF&/span&&span class=&p&&[&/span&&span class=&n&&i&/span&&span class=&p&&]&/span& &span class=&o&&=&/span& &span class=&n&&cumulated&/span&
&span class=&c1&&# Generate samples&/span&
&span class=&n&&generate&/span& &span class=&o&&=&/span& &span class=&n&&partial&/span&&span class=&p&&(&/span&&span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&interp&/span&&span class=&p&&,&/span& &span class=&n&&xp&/span&&span class=&o&&=&/span&&span class=&n&&CDF&/span&&span class=&p&&,&/span& &span class=&n&&fp&/span&&span class=&o&&=&/span&&span class=&n&&x_samples&/span&&span class=&p&&)&/span&
&span class=&n&&u_rv&/span& &span class=&o&&=&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&random&/span&&span class=&o&&.&/span&&span class=&n&&random&/span&&span class=&p&&(&/span&&span class=&mi&&10000&/span&&span class=&p&&)&/span&
&span class=&n&&x&/span& &span class=&o&&=&/span& &span class=&n&&generate&/span&&span class=&p&&(&/span&&span class=&n&&u_rv&/span&&span class=&p&&)&/span&
&span class=&c1&&# Visualization&/span&
&span class=&n&&fig&/span&&span class=&p&&,&/span& &span class=&p&&(&/span&&span class=&n&&ax0&/span&&span class=&p&&,&/span& &span class=&n&&ax1&/span&&span class=&p&&)&/span& &span class=&o&&=&/span& &span class=&n&&pyplot&/span&&span class=&o&&.&/span&&span class=&n&&subplots&/span&&span class=&p&&(&/span&&span class=&n&&ncols&/span&&span class=&o&&=&/span&&span class=&mi&&2&/span&&span class=&p&&,&/span& &span class=&n&&figsize&/span&&span class=&o&&=&/span&&span class=&p&&(&/span&&span class=&mi&&9&/span&&span class=&p&&,&/span& &span class=&mi&&4&/span&&span class=&p&&))&/span&
&span class=&n&&ax0&/span&&span class=&o&&.&/span&&span class=&n&&plot&/span&&span class=&p&&(&/span&&span class=&n&&x_samples&/span&&span class=&p&&,&/span& &span class=&n&&PDF&/span&&span class=&p&&)&/span&
&span class=&n&&ax0&/span&&span class=&o&&.&/span&&span class=&n&&axis&/span&&span class=&p&&([&/span&&span class=&o&&-&/span&&span class=&mf&&3.5&/span&&span class=&p&&,&/span& &span class=&mf&&3.5&/span&&span class=&p&&,&/span& &span class=&mi&&0&/span&&span class=&p&&,&/span& &span class=&n&&numpy&/span&&span class=&o&&.&/span&&span class=&n&&max&/span&&span class=&p&&(&/span&&span class=&n&&PDF&/span&&span class=&p&&)&/span&&span class=&o&&*&/span&&span class=&mf&&1.1&/span&&span class=&p&&])&/span&
&span class=&n&&ax1&/span&&span class=&o&&.&/span&&span class=&n&&hist&/span&&span class=&p&&(&/span&&span class=&n&&x&/span&&span class=&p&&,&/span& &span class=&mi&&100&/span&&span class=&p&&)&/span&
&span class=&n&&pyplot&/span&&span class=&o&&.&/span&&span class=&n&&show&/span&&span class=&p&&()&/span&
&/code&&/pre&&/div&&p&对于一些简单的情况,我们会假设已知有模型可以很好的对分布进行建模,缺少的只是合适的参数。这时候很自然只要根据观测到的样本,学习参数让当前观测到的样本下的似然函数最大,这就是最大似然估计(&b&M&/b&aximum &b&L&/b&ikelihood &b&E&/b&stimation):&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Chat%7B%5Ctheta%7D%3D%5Coperatorname%2A%7Bargmax%7D_%7B%5Ctheta%7D+P%28%5Cbm%7Bx%7D%7C%5Ctheta%29+%3D+%5Coperatorname%2A%7Bargmax%7D_%7B%5Ctheta%7D+%5Cprod_%7Bi%3D1%7D%5E%7Bn%7DP%28x_i%7C%5Ctheta%29+& alt=&\hat{\theta}=\operatorname*{argmax}_{\theta} P(\bm{x}|\theta) = \operatorname*{argmax}_{\theta} \prod_{i=1}^{n}P(x_i|\theta) & eeimg=&1&&&/p&&p&MLE是一个最基本的思路,实践中用得很多的还有KL散度(Kullback–Leibler divergence),假设真实分布是P,采样分布是Q,则KL散度为:&/p&&p&&img src=&https://www.zhihu.com/equation?tex=D_%7BKL%7D%28P%7C%7CQ%29%3D%5Csum_%7Bx+%5Cin+%5COmega%7DP%28%7Bx%7D%29%5Clog%5Cfrac%7BP%28x%29%7D%7BQ%28x%29%7D+& alt=&D_{KL}(P||Q)=\sum_{x \in \Omega}P({x})\log\frac{P(x)}{Q(x)} & eeimg=&1&&&/p&&p&从公式也能看出来,KL散度描述的是两个分布的差异程度。换个角度来看,让产生的样本和原始分布接近,也就是要让这俩的差异减小,所以最小化KL散度就等同于MLE。从公式上来看的话,我们考虑把公式具体展开一下:&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Cbegin%7Balign%7D+D_%7BKL%7D%28P%7C%7CQ%29+%26%3D%5Csum_%7Bx+%5Cin+%5COmega%7DP%28%7Bx%7D%29%5Clog%5Cfrac%7BP%28x%29%7D%7BQ%28x%29%7D+%5C%5C+%26+%3D-%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BQ%28x%29%7D+%2B%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BP%28x%29%7D+%5C%5C+%26+%3D-%5Csum_%7Bx%5Cin%5COmega%7DP%28%7Bx%7D%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5Cend%7Balign%7D& alt=&\begin{align} D_{KL}(P||Q) &=\sum_{x \in \Omega}P({x})\log\frac{P(x)}{Q(x)} \\ & =-\sum_{x\in\Omega}P({x})\log{Q(x)} +\sum_{x\in\Omega}P({x})\log{P(x)} \\ & =-\sum_{x\in\Omega}P({x})\log{Q(x)} +H(P) \end{align}& eeimg=&1&&&/p&&p&公式的第二项就是熵,先不管这项,用H(P)表示。接下来考虑一个小trick:从Q中抽样n个样本&img src=&https://www.zhihu.com/equation?tex=%7Bx_1%2Cx_2%2C...%2Cx_n%7D& alt=&{x_1,x_2,...,x_n}& eeimg=&1&&,来估算P(x)的经验值(empirical density function):&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Chat%7BP%7D%28x%29%3D%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Cdelta%28x_i-x%29& alt=&\hat{P}(x)=\frac 1 n \sum_{i=1}^n \delta(x_i-x)& eeimg=&1&&&/p&&p&其中&img src=&https://www.zhihu.com/equation?tex=%5Cdelta%28%5Ccdot%29& alt=&\delta(\cdot)& eeimg=&1&&是狄拉克&img src=&https://www.zhihu.com/equation?tex=%5Cdelta& alt=&\delta& eeimg=&1&&函数,把这项替换到上面公式的P(x):&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=%5Cbegin%7Balign%7D+D_%7BKL%7D%28P%7C%7CQ%29+%26%3D-%5Csum_%7Bx%5Cin%5COmega%7D%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Cdelta%28x_i-x%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5C%5C+%26+%3D-%5Cfrac+1+n+%5Csum_%7Bi%3D1%7D%5En+%5Csum_%7Bx%5Cin%5COmega%7D+%5Cdelta%28x_i-x%29%5Clog%7BQ%28x%29%7D+%2BH%28P%29+%5Cend%7Balign%7D& alt=&\begin{align} D_{KL}(P||Q) &=-\sum_{x\in\Omega}\frac 1 n \sum_{i=1}^n \delta(x_i-x)\log{Q(x)} +H(P) \\ & =-\frac 1 n \sum_{i=1}^n \sum_{x\in\Omega} \delta(x_i-x)\log{Q(x)} +H(P) \end{align}& eeimg=&1&&&/p&&p&因为是离散的采样值,所以&img src=&https://www.zhihu.com/equation?tex=%5Csum_%7Bx%5Cin%5COmega%7D+%5Cdelta%28x_i-x%29& alt=&\sum_{x\in\Omega} \delta(x_i-x)& eeimg=&1&&中只有&img src=&https://www.zhihu.com/equation?tex=x%3Dx_i& alt=&x=x_i& eeimg=&1&&的时候狄拉克&img src=&https://www.zhihu.com/equation?tex=%5Cdelta& alt=&\delta& eeimg=&1&&函数才为1,所以考虑&img src=&https://www.zhihu.com/equation?tex=x%3Dx_i& alt=&x=x_i& eeimg=&1&&时这项直接化为1:&/p&&p&&br&&/p&&p&&img src=&https://www.zhihu.com/equation?tex=D_%7BKL%7D%28P%7C%7CQ%29+%3D-%5Cfrac+1+n%5Csum_%7Bi%3D1%7D%5En+%5Clog%7BQ%28x_i%29%7D+%2BH%28P%29& alt=&D_{KL}(P||Q) =-\frac 1 n\sum_{i=1}^n \log{Q(x_i)} +H(P)& eeimg=&1&&&/p&&p&第一项正是似然的负对数形式。&/p&&p&说了些公式似乎跑得有点远了,其实要表达还是那个简单的意思:通过减小两个分布的差异可以让一个分布逼近另一个分布。仔细想想,这正是GAN里面adversarial loss的做法。&/p&&p&很多情况下我们面临的是更为复杂的分布,比如&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&上篇文章&/a&中的例子,又或是实际场景中更复杂的情况,比如生成不同人脸的图像。这时候,作为具有universal approximation性质的神经网络是一个看上去不错的选择[1]:&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-6fee20494f50baae2c1dc5fc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1561& data-rawheight=&549& class=&origin_image zh-lightbox-thumb& width=&1561& data-original=&https://pic4.zhimg.com/v2-6fee20494f50baae2c1dc5fc_r.jpg&&&/figure&&p&所以虽然GAN里面同时包含了生成网络和判别网络,但本质来说GAN的目的还是生成模型。从生成式模型的角度,Ian Goodfellow总结过一个和神经网络相关生成式方法的“家谱”[1]:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-8c6f1d8ee39dfbb4fcfb2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&771& data-rawheight=&498& class=&origin_image zh-lightbox-thumb& width=&771& data-original=&https://pic1.zhimg.com/v2-8c6f1d8ee39dfbb4fcfb2_r.jpg&&&/figure&&p&在这其中,当下最流行的就是GAN和&b&V&/b&ariational &b&A&/b&uto&b&E&/b&ncoder(VAE),两种方法的一个简明示意如下[3]:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-380cde71a2f6ece28b4a97_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&568& data-rawheight=&274& class=&origin_image zh-lightbox-thumb& width=&568& data-original=&https://pic1.zhimg.com/v2-380cde71a2f6ece28b4a97_r.jpg&&&/figure&&p&本篇不打算展开讲什么是VAE,不过通过这个图,和名字中的autoencoder也大概能知道,VAE中生成的loss是基于重建误差的。而只基于重建误差的图像生成,都或多或少会有图像模糊的缺点,因为误差通常都是针对全局。比如基于MSE(Mean Squared Error)的方法用来生成超分辨率图像,容易出现下面的情况[4]:&/p&&p&&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-78f53b142fab51b0c09a1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&892& data-rawheight=&598& class=&origin_image zh-lightbox-thumb& width=&892& data-original=&https://pic1.zhimg.com/v2-78f53b142fab51b0c09a1_r.jpg&&&/figure&&p&在这个二维示意中,真实数据分布在一个U形的流形上,而MSE系的方法因为loss的形式往往会得到一个接近平均值所在的位置(蓝色框)。&/p&&p&GAN在这方面则完爆其他方法,因为目标分布在流形上。所以只要大概收敛了,就算生成的图像都看不出是个啥,清晰度常常是有保证的,而这正是去除女优身上马赛克的理想特性!&/p&&p&&br&&/p&&h2&马赛克-&清晰画面:超分辨率(Super Resolution)问题&/h2&&p&说了好些铺垫,终于要进入正题了。首先明确,去马赛克其实是个图像超分辨率问题,也就是如何在低分辨率图像基础上得到更高分辨率的图像:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-31c84b42ad_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&784& data-rawheight=&324& class=&origin_image zh-lightbox-thumb& width=&784& data-original=&https://pic2.zhimg.com/v2-31c84b42ad_r.jpg&&&/figure&&p&视频中超分辨率实现的一个套路是通过不同帧的低分辨率画面猜测超分辨率的画面,有兴趣了解这个思想的朋友可以参考我之前的一个答案:&a href=&https://www.zhihu.com/question//answer/& class=&internal&&如何通过多帧影像进行超分辨率重构? &/a& &/p&&p&不过基于多帧影像的方法对于女优身上的马赛克并不是很适用,所以这篇要讲的是基于单帧图像的超分辨率方法。&/p&&h2&SRGAN&/h2&&p&说到基于GAN的超分辨率的方法,就不能不提到SRGAN[4]:《Photo-Realistic Single Image &b&S&/b&uper-&b&R&/b&esolution Using a &b&G&/b&enerative &b&A&/b&dversarial&br&&b&N&/b&etwork》。这个工作的思路是:基于像素的MSE loss往往会得到大体正确,但是高频成分模糊的结果。所以只要重建低频成分的图像内容,然后靠GAN来补全高频的细节内容,就可以了:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-128029dfc7c470b07a4a1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&446& data-rawheight=&131& class=&origin_image zh-lightbox-thumb& width=&446& data-original=&https://pic3.zhimg.com/v2-128029dfc7c470b07a4a1_r.jpg&&&/figure&&p&这个思路其实和最早基于深度网络的风格迁移的思路很像(有兴趣的读者可以参考我之前文章&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&瞎谈CNN:通过优化求解输入图像&/a&的最后一部分),其中重建内容的content loss是原始图像和低分辨率图像在VGG网络中的各个ReLU层的激活值的差异:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-331e02e394cfd04e7114a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&529& data-rawheight=&150& class=&origin_image zh-lightbox-thumb& width=&529& data-original=&https://pic3.zhimg.com/v2-331e02e394cfd04e7114a_r.jpg&&&/figure&&p&生成细节adversarial loss就是GAN用来判别是原始图还是生成图的loss:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-fa5af2a10fe9a4dadfb04_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&394& data-rawheight=&89& class=&content_image& width=&394&&&/figure&&p&把这两种loss放一起,取个名叫perceptual loss。训练的网络结构如下:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-17861edeb4bcfae4e9f369_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&780& data-rawheight=&400& class=&origin_image zh-lightbox-thumb& width=&780& data-original=&https://pic1.zhimg.com/v2-17861edeb4bcfae4e9f369_r.jpg&&&/figure&&p&正是上篇文章中讲过的C-GAN,条件C就是低分辨率的图片。SRGAN生成的超分辨率图像虽然PSNR等和原图直接比较的传统量化指标并不是最好,但就视觉效果,尤其是细节上,胜过其他方法很多。比如下面是作者对比bicubic插值和基于ResNet特征重建的超分辨率的结果:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f3b4376938ffcbd23c42d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&981& data-rawheight=&392& class=&origin_image zh-lightbox-thumb& width=&981& data-original=&https://pic4.zhimg.com/v2-f3b4376938ffcbd23c42d_r.jpg&&&/figure&&p&可以看到虽然很多细节都和原始图片不一样,不过看上去很和谐,并且细节的丰富程度远胜于SRResNet。这些栩栩如生的细节,可以看作是GAN根据学习到的分布信息“联想”出来的。&/p&&p&对于更看重“看上去好看”的超分辨率应用,SRGAN显然是很合适的。当然对于一些更看重重建指标的应用,比如超分辨率恢复嫌疑犯面部细节,SRGAN就不可以了。&/p&&h2&pix2pix&/h2&&p&虽然专门用了一节讲SRGAN,但本文用的方法其实是pix2pix[5]。这项工作刚在arxiv上发布就引起了不小的关注,它巧妙的利用GAN的框架解决了通用的Image-to-Image translation的问题。举例来说,在不改变分辨率的情况下:把照片变成油画风格;把白天的照片变成晚上;用色块对图片进行分割或者倒过来;为黑白照片上色;…每个任务都有专门针对性的方法和相关研究,但其实总体来看,都是像素到像素的一种映射啊,其实可以看作是一个问题。这篇文章的巧妙,就在于提出了pix2pix的方法,一个框架,解决所有这些问题。方法的示意图如下:&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-e2ea753b7b0d7f18abee3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&485& data-rawheight=&437& class=&origin_image zh-lightbox-thumb& width=&485& data-original=&https://pic1.zhimg.com/v2-e2ea753b7b0d7f18abee3_r.jpg&&&/figure&&p&就是一个Conditional GAN,条件C是输入的图片。除了直接用C-GAN,这项工作还有两个改进:&/p&&p&1)&b&利用U-Net结构生成细节更好的图片&/b&[6]&/p&&figure&&img src=&https://pic4.zhimg.com/v2-beb074bebbfa0db_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&907& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&907& data-original=&https://pic4.zhimg.com/v2-beb074bebbfa0db_r.jpg&&&/figure&&p&U-Net是德国Freiburg大学模式识别和图像处理组提出的一种全卷积结构。和常见的先降采样到低维度,再升采样到原始分辨率的编解码(Encoder-Decoder)结构的网络相比,U-Net的区别是加入skip-connection,对应的feature maps和decode之后的同样大小的feature maps按通道拼(concatenate)一起,用来保留不同分辨率下像素级的细节信息。U-Net对提升细节的效果非常明显,下面是pix2pix文中给出的一个效果对比:&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-2fb4ddb2fdc24eea31eea_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&563& data-rawheight=&307& class=&origin_image zh-lightbox-thumb& width=&563& data-original=&https://pic4.zhimg.com/v2-2fb4ddb2fdc24eea31eea_r.jpg&&&/figure&&p&可以看到,各种不同尺度的信息都得到了很大程度的保留。&/p&&p&2)&b&利用马尔科夫性的判别器(PatchGAN)&br&&/b&&/p&&p&pix2pix和SRGAN的一个异曲同工的地方是都有用重建解决低频成分,用GAN解决高频成分的想法。在pix2pix中,这个思想主要体现在两个地方。一个是loss函数,加入了L1 loss用来让生成的图片和训练的目标图片尽量相似,而图像中高频的细节部分则交由GAN来处理:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cb180ad03d8a72e7883285b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&447& data-rawheight=&51& class=&origin_image zh-lightbox-thumb& width=&447& data-original=&https://pic4.zhimg.com/v2-cb180ad03d8a72e7883285b_r.jpg&&&/figure&&p&还有一个就是&b&PatchGAN&/b&,也就是具体的GAN中用来判别是否生成图的方法。PatchGAN的思想是,既然GAN只负责处理低频成分,那么判别器就没必要以一整张图作为输入,只需要对NxN的一个图像patch去进行判别就可以了。这也是为什么叫Markovian discriminator,因为在patch以外的部分认为和本patch互相独立。&/p&&p&具体实现的时候,作者使用的是一个NxN输入的全卷积小网络,最后一层每个像素过sigmoid输出为真的概率,然后用BCEloss计算得到最终loss。这样做的好处是因为输入的维度大大降低,所以参数量少,运算速度也比直接输入一张快,并且可以计算任意大小的图。作者对比了不同大小patch的结果,对于256x256的输入,patch大小在70x70的时候,从视觉上看结果就和直接把整张图片作为判别器输入没什么区别了:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-5172ca51efb4ee3e453b15_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&842& data-rawheight=&107& class=&origin_image zh-lightbox-thumb& width=&842& data-original=&https://pic1.zhimg.com/v2-5172ca51efb4ee3e453b15_r.jpg&&&/figure&&h2&生成带局部马赛克的训练数据&/h2&&p&利用pix2pix,只要准备好无码和相应的有码图片就可以训练去马赛克的模型了,就是这么简单。那么问题是,如何生成有马赛克的图片?&/p&&p&有毅力的话,可以手动加马赛克,这样最为精准。这节介绍一个不那么准,但是比随机强的方法:利用分类模型的激活区域进行自动马赛克标注。&/p&&p&基本思想是利用一个可以识别需要打码图像的分类模型,提取出这个模型中对应类的CAM(&b&C&/b&lass &b&A&/b&ctivation &b&M&/b&ap)[7],然后用马赛克遮住响应最高的区域即可。这里简单说一下什么是CAM,对于最后一层是全局池化(平均或最大都可以)的CNN结构,池化后的feature map相当于是做了个加权相加来计算最终的每个类别进入softmax之前的激活值。CAM的思路是,把这个权重在池化前的feature map上按像素加权相加,最后得到的单张的激活图就可以携带激活当前类别的一些位置信息,这相当于一种弱监督(classification--&localization):&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-fd28f0b871bd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&660& data-rawheight=&314& class=&origin_image zh-lightbox-thumb& width=&660& data-original=&https://pic4.zhimg.com/v2-fd28f0b871bd_r.jpg&&&/figure&&p&上图是一个CAM的示意,用澳洲梗类别的CAM,放大到原图大小,可以看到小狗所在的区域大致是激活响应最高的区域。&/p&&p&那么就缺一个可以识别XXX图片的模型了,网上还恰好就有个现成的,yahoo于2016年发布的开源色情图片识别模型Open NSFW(&b&N&/b&ot &b&S&/b&afe &b&F&/b&or &b&W&/b&ork):&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//github.com/yahoo/open_nsfw& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&yahoo/open_nsfw&/a&&/p&&p&CAM的实现并不难,结合Open NSFW自动打码的代码和使用放在了这里:&/p&&p&&a href=&https://link.zhihu.com/?target=https%3A//github.com/frombeijingwithlove/dlcv_for_beginners/tree/master/random_bonus/generate_mosaic_for_porno_images& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&给XX图片生成马赛克&/a&&/p&&p&&br&&/p&&p&(成功打码的)效果差不多是下面这样子:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-cbefa39dc983f2645dd8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&768& data-rawheight=&256& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic4.zhimg.com/v2-cbefa39dc983f2645dd8_r.jpg&&&/figure&&h2&去除(爱情)动作片中的马赛克&/h2&&p&这没什么好说的了,一行代码都不用改,只需要按照前面的步骤把数据准备好,然后按照pix2pix官方的使用方法训练就可以了:&/p&&p&Torch版pix2pix:&a href=&https://link.zhihu.com/?target=https%3A//github.com/phillipi/pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&phillipi/pix2pix&/a&&/p&&p&pyTorch版pix2pix(Cycle-GAN二合一版):&a href=&https://link.zhihu.com/?target=https%3A//github.com/junyanz/pytorch-CycleGAN-and-pix2pix& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&junyanz/pytorch-CycleGAN-and-pix2pix&/a&&/p&&p&从D盘里随随便便找了几千张图片,用来执行了一下自动打码和pix2pix训练(默认参数),效果是下面这样:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-9f52b17c0e1296767cbfbfafc290a5bd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&814& data-rawheight=&691& class=&origin_image zh-lightbox-thumb& width=&814& data-original=&https://pic2.zhimg.com/v2-9f52b17c0e1296767cbfbfafc290a5bd_r.jpg&&&/figure&&p&什么?你问说好给女优去马赛克呢?女优照片呢?&/p&&figure&&img src=&https://pic4.zhimg.com/v2-480fb8a4dcfc7a4f92ec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&75& data-rawheight=&60& class=&content_image& width=&75&&&/figure&&p&还是要说一下,在真人照片上的效果比蘑菇和花强。&/p&&h2&对偶学习(Dual Learning)&/h2&&p&去马赛克已经讲完了,接下来就是给女孩穿(tuo)衣服了,动手之前,还是先讲一下铺垫:&b&对偶学习&/b&和&b&Cycle-GAN&/b&。&/p&&p&对偶学习是MSRA于2016年提出的一种用于机器翻译的增强学习方法[8],目的是解决海量数据配对标注的难题,个人觉得算是一种弱监督方法(不过看到大多数文献算作无监督)。以机器翻译为例,对偶学习基本思想如下图[9]:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c4b1eeda364fb6c9bada02f3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&866& data-rawheight=&399& class=&origin_image zh-lightbox-thumb& width=&866& data-original=&https://pic3.zhimg.com/v2-c4b1eeda364fb6c9bada02f3_r.jpg&&&/figure&&p&左边的灰衣男只懂英语,右边的黑衣女只懂中文,现在的任务就是,要学习如何翻译英语到中文。对偶学习解决这个问题的思路是:给定一个模型&img src=&https://www.zhihu.com/equation?tex=f%3Ax%5Crightarrow+y& alt=&f:x\rightarrow y& eeimg=&1&&一上来无法知道f翻译得是否正确,但是如果考虑上&img src=&https://www.zhihu.com/equation?tex=f& alt=&f& eeimg=&1&&的对偶问题&img src=&https://www.zhihu.com/equation?tex=g%3Ay%5Crightarrow+x& alt=&g:y\rightarrow x& eeimg=&1&&,那么我可以尝试翻译一个英文句子到中文,再翻译回来。这种转了一圈的结果&img src=&https://www.zhihu.com/equation?tex=x%27%3Dg%28f%28x%29%29& alt=&x'=g(f(x))& eeimg=&1&&,灰衣男是可以用一个标准(BLEU)判断x'和x是否一个意思,并且把结果的一致性反馈给这两个模型进行改进。同样的,从中文取个句子,这样循环翻译一遍,两个模型又能从黑衣女那里获取反馈并改进模型。其实这就是强化学习的过程,每次翻译就是一个action,每个action会从环境(灰衣男或黑衣女)中获取reward,对模型进行改进,直至收敛。&/p&&p&也许有的人看到这里会觉得和上世纪提出的Co-training很像,这个在知乎上也有讨论:&/p&&p&&a href=&https://www.zhihu.com/question/& class=&internal&&如何理解刘铁岩老师团队在NIPS 2016上提出的对偶学习(Dual Learning)?&/a&&/p&&p&个人觉得还是不一样的,Co-Training是一种multi-view方法,比如一个输入x,如果看作是两个拼一起的特征&img src=&https://www.zhihu.com/equation?tex=x%3D%28x_1%2Cx_2%29& alt=&x=(x_1,x_2)& eeimg=&1&&,并且假设&img src=&https://www.zhihu.com/equation?tex=x_1& alt=&x_1& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=x_2& alt=&x_2& eeimg=&1&&互相独立,那么这时候训练两个分类器&img src=&https://www.zhihu.com/equation?tex=f_1%28%5Ccdot%29& alt=&f_1(\cdot)& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=f_2%28%5Ccdot%29& alt=&f_2(\cdot)& eeimg=&1&&对于任意样本x应该有&img src=&https://www.zhihu.com/equation?tex=f_1%28x_1%29%3Df_2%28x_2%29& alt=&f_1(x_1)=f_2(x_2)& eeimg=&1&&。这对没有标注的样本是很有用的,相当于利用了同一个样本分类结果就应该一样的隐含约束。所以Co-Training的典型场景是少量标注+大量未标注的半监督场景。并且&img src=&https://www.zhihu.com/equation?tex=f_1& alt=&f_1& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=f_2& alt=&f_2& eeimg=&1&&其实是两个不同,但是domain指向相同的任务。而Dual Learning中&img src=&https://www.zhihu.com/equation?tex=f& alt=&f& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=g& alt=&g& eeimg=&1&&是对偶任务,利用的隐含约束是&img src=&https://www.zhihu.com/equation?tex=x%5Crightarrow+y%5Crightarrow+x& alt=&x\rightarrow y\rightarrow x& eeimg=&1&&的cycle consistency。对输入的特征也没有像Co-Training有那么明确的假设,学习方法上也不一样,Dual Learning算是强化学习。&/p&&h2&CycleGAN和未配对图像翻译(Unpaired Image-to-Image Translation)&/h2&&p&CycleGAN,翻译过来就是:轮着干,是结合了对偶学习和GAN一个很直接而巧妙的想法[10],示意图如下:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-9e7396ebccb7c42302fc97_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&838& data-rawheight=&216& class=&origin_image zh-lightbox-thumb& width=&838& data-original=&https://pic4.zhimg.com/v2-9e7396ebccb7c42302fc97_r.jpg&&&/figure&&p&X和Y分别是两种不同类型图的集合,比如穿衣服的女优和没穿衣服的女优。所以给定一张穿了衣服的女优,要变成没穿衣服的样子,就是个图片翻译问题。CycleGAN示意图中(b)和(c)就是Dual Learning:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-de51cac58b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&347& data-rawheight=&62& class=&content_image& width=&347&&&/figure&&p&在Dual Learning基础上,又加入了两个判别器&img src=&https://www.zhihu.com/equation?tex=D_X& alt=&D_X& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=D_Y& alt=&D_Y& eeimg=&1&&用来进行对抗训练,让翻译过来的图片尽量逼近当前集合中的图片:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-e0ea7a6b38bf2a20cea4ea6f741a4c67_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&442& data-rawheight=&59& class=&origin_image zh-lightbox-thumb& width=&442& data-original=&https://pic3.zhimg.com/v2-e0ea7a6b38bf2a20cea4ea6f741a4c67_r.jpg&&&/figure&&p&全考虑一起,最终的loss是:&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-e6d99e7edea969da3dad_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&357& data-rawheight=&87& class=&content_image& width=&357&&&/figure&&p&也许有人会问,那不加cycle-consistency,直接用GAN学习一个&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&的映射,让生成的Y的样本尽量毕竟Y里本身的样本可不可以呢?这个作者在文中也讨论了,会产生GAN训练中容易发生的mode collapse问题。mode collapse问题的一个简单示意如下[1]:&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-309fce6329592babb784ed_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&842& data-rawheight=&262& class=&origin_image zh-lightbox-thumb& width=&842& data-original=&https://pic1.zhimg.com/v2-309fce6329592babb784ed_r.jpg&&&/figure&&p&上边的是真实分布,下边的是学习到的分布,可以看到学习到的分布只是完整分布的一部分,这个叫做partial mode collapse,是训练不收敛情况中常见的一种。如果是完全的mode collapse,就是说生成模型得到的都是几乎一样的输出。而加入Cycle-consistency会让一个domain里不同的样本都尽量映射到另一个domain里不同的地方,理想情况就是双射(bijection)。直观来理解,如果通过&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&都映射在Y中同一个点,那么这个点y通过&img src=&https://www.zhihu.com/equation?tex=Y%5Crightarrow+X& alt=&Y\rightarrow X& eeimg=&1&&映射回来显然不可能是多个不同的x,所以加入cycle-consistency就帮助避免了mode collapse。这个问题在另一篇和CycleGAN其实本质上没什么不同的方法DiscoGAN中有更详细的讨论[11],有兴趣的话可以参考。&/p&&p&&br&&/p&&p&有一点值得注意的是,虽然名字叫CycleGAN,并且套路也和C-GAN很像,但是其实只有adversarial,并没有generative。因为严格来说只是学习了&img src=&https://www.zhihu.com/equation?tex=X%5Crightarrow+Y& alt=&X\rightarrow Y& eeimg=&1&&和&img src=&https://www.zhihu.com/equation?tex=Y%5Crightarrow+X& alt=&Y\rightarrow X& eeimg=&1&&的mapping,所谓的generative network里并没有随机性。有一个和CycleGAN以及DiscoGAN其实本质上也没什么不同的方法叫DualGAN[12],倒是通过dropout把随机性加上了。不过所有加了随机性产生的样本和原始样本间的cycle-consistency用的还是l1 loss,总觉得这样不是很对劲。当然现在GAN这么热门,其实只要是用了adversarial loss的基本都会取个名字叫XXGAN,也许是可以增加投稿命中率。&/p&&p&另外上节中提到了Co-Training,感觉这里也应该提一下CoGAN[13],因为名字有些相似,并且也可以用于未配对的图像翻译。CoGAN的大体思想是:如果两个Domain之间可以互相映射,那么一定有一些特征是共有的。比如男人和女人,虽然普遍可以从长相区分,但不变的是都有两个眼睛一个鼻子一张嘴等等。所以可以在生成的时候,把生成共有特征和各自特征的部分分开,示意图如下:&br&&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-57eaadc8cec5190bfd30_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&758& data-rawheight=&207& class=&origin_image zh-lightbox-thumb& width=&758& data-original=&https://pic4.zhimg.com/v2-57eaadc8cec5190bfd30_r.jpg&&&/figure&&p&其实就是两个GAN结构,其中生成网络和判别网络中比较高层的部分都采用了权值共享(虚线相连的部分),没有全职共享的部分分别处理不同的domain。这样每次就可以根据训练的domain生成一个样本在两个domain中不同的对应,比如戴眼镜和没戴眼镜:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-356a6118ccf3e8e3bf1c7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&791& data-rawheight=&267& class=&origin_image zh-lightbox-thumb& width=&791& data-original=&https://pic2.zhimg.com/v2-356a6118ccf3e8e3bf1c7_r.jpg&&&/figure&&p&分别有了共有特征和各自domain特征,那么做mapping的思路也就很直接了[14]:&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8ac50600e40feaac345e09bd7e05a83d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&771& data-rawheight=&210& class=&origin_image zh-lightbox-thumb& width=&771& data-original=&https://pic3.zhimg.com/v2-8ac50600e40feaac345e09bd7e05a83d_r.jpg&&&/figure&&p&在GAN前边加了个domain encoder,然后对每个domain能得到三种样本给判别器区分:直接采样,重建采样,从另一个domain中transfer后的重建采样。训练好之后,用一个domain的encoder+另一个domain的generator就很自然的实现了不同domain的转换。用在图像翻译上的效果如下:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-612e9cf5e125fd626be7db_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&444& data-rawheight=&544& class=&origin_image zh-lightbox-thumb& width=&444& data-original=&https://pic2.zhimg.com/v2-612e9cf5e125fd626be7db_r.jpg&&&/figure&&p&还有个巧妙的思路,是把CoGAN拆开,不

我要回帖

更多关于 圣安地列斯steam 的文章

 

随机推荐