其他的628aiai如何选择几个对象进口,都试过了wwW628aicom还是没能登上。

15,606被浏览1,029,263分享邀请回答vdisk.weibo.com/s/yXbndbgZnaYd6网页界面也一样,有大量能重用的素材。网络都可以下载到,还有更多更多类似的。这样超快速重用已经造好的轮子,快速出图~第一次录制,经验不足,讲解应该可以更有条理来着~~各种废话跑题感言完毕~ 视频在这里嗯嗯~~记得重看最上面的大图,只需要记得那几个功能,足够了。看完视频再问自己一次:会保存,导出了么?会画矩形,圆形,线条并更改颜色了么?会使用其他人的素材了么?会快速搭配颜色了么?知道从哪里找到所需素材了么?嗯嗯~就这些,够用了。——————补充——————我用的CS6,但是版本不影响。因为这是最少最少的功能了。排列方式等等,每一个版本都是一样。如果可能,尽量使用最新版,因为网络素材,尤其是韩、美国那些,常常是最新版,低版本偶尔无法打开高版本设计的图。教程送给工程师朋友,希望他们能跳过设计界面的痛苦,不许掐我嗯嗯~另外,卖萌图片等等,一样可以搜索矢量图。可爱的天气图标,吃豆子的图标等等~我想说的只是,重复利用素材,就像代码开发时,使用人家成熟模块一样。一切从零开始会有点慢。嗯嗯~~补充一个忘记讲的。唯一一个,只需要记住解除编组就可以了,跟视频里面讲的一样,眼睛往上看。比如你只想要界面中的按钮,却只能选中所有,看属性里面“编组”表示这一对编组在一起。右键(跟word等等一样)选择取消编组就好了。编组就是把一堆东西捆在一起了。方便一起移动。解除编组后就能单独移出了。单选,多选,多选后取消某个选项,快捷键跟win系统一样。Ctrl + 鼠标单击。总是就是,软件设计者不是坏人,他们会最大程度重用大家熟悉的手势,熟悉的快捷键。看到评论了,关于我的APP,全部开源,代码在这里:GooglePlay里面有APP简介:嗯,由于工程师太忙没有时间维护(他有自己项目在忙)。我只能继续维护后台数据,没办法更新前端了。嗯,如果有人喜欢,拿去用吧。但是里面手绘的猪头不可以用~~嗯嗯~~因为我很喜欢猪头~~那是我的猪头~~别的随便用嗯嗯~~~7.6K388 条评论分享收藏感谢收起27815 条评论分享收藏感谢收起Adobe video tools. The hits just keep coming.
From Hollywood hits to home movies, the video apps in Creative Cloud have you covered. Edit footage on your phone or your desktop, add graphics, effects, and pro-quality audio — and see your stories come to life.
EXPERIENCE CLOUD
It's an experience.
It's more than great service or amenities. It's using design and data to make memorable experiences part of your entire business.
DOCUMENT CLOUD
Your documents. Your opportunities.
Every time anyone interacts with a document, you have an opportunity to deliver a great experience.
ADOBE STOCK
Stock like only Adobe can.
Choose from millions of images, graphics, videos, templates, and 3D assets. With fresh content added daily, you’ll always find the perfect one.
It's an experience.
Leading retailers are using design and data to create amazing customer experiences. Make experience your business.
CREATIVE CLOUD
What's next. Now.
The next generation of Creative Cloud is here with easy new ways to edit photos, design logos, create social media graphics, and more.
DOCUMENT CLOUD
Acrobat DC. Works where you do.
Whenever, wherever you need to get it done, the best PDF tools are with you.
WHAT'S NEW
The future of photography. Here today.
Meet the all-new Lightroom CC. Easily edit, organize, store, and share your photos from anywhere.
Acrobat DC. Works where you do.
Whenever, wherever you need to get it done, the best PDF tools are with you.
EXPERIENCE CLOUD
It's an experience.
Leading retailers are using design and data to create amazing customer experiences. Make experience your business.
CREATIVE CLOUD
What's next. Now.
The next generation of Creative Cloud is here with easy new ways to edit photos, design logos, create social media graphics, and more.
WHAT'S NEW
The future of photography. Here today.
Meet the all-new Lightroom CC. Easily edit, organize, store, and share your photos from anywhere.
Europe, Middle East and Africa
Asia Pacific&p&谢邀。&/p&&p&我把我获得最新进展的方法做一个列举:&/p&&p&&br&&/p&&h2&1.手机app&/h2&&p&&b&知乎&/b&:知乎的反应速度会稍微慢一点。&/p&&p&一般某一工作火了之后,知乎会陆续出现&/p&&blockquote&如何评价XXX提出的XXX模型/算法/系统?&/blockquote&&p&或者是某位大牛提出什么轰动性的言论,&b&但是这种问题下面的答案以各抒己见为主,干货不多。&/b&&/p&&blockquote&如何看待XXX的言论,对XXX会造成什么影响?&/blockquote&&p&对于某一会议,大牛们会推荐自己的工作,或者介绍此会议里突出的几个工作。&/p&&blockquote&XXX 2017 有什么值得关注的亮点/文章?&/blockquote&&p&&br&&/p&&p&&b&Reddit:&/b&国外的社交新闻站,更新速度很快,在里面搜寻你想要关注的板块,比如:&a href=&//link.zhihu.com/?target=https%3A//www.reddit.com/r/MachineLearning/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Machine Learning o r/MachineLearning&/a&板块,可以获得很多网络资源的第一手信息。reddit提供手机app下载:&a href=&//link.zhihu.com/?target=https%3A//www.reddit.com/mobile/download& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&The Official App For iPhone and Android. Meow.&/a&&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-8558800ffdecfc9c1ff9_b.png& data-rawwidth=&934& data-rawheight=&477& class=&origin_image zh-lightbox-thumb& width=&934& data-original=&https://pic2.zhimg.com/v2-8558800ffdecfc9c1ff9_r.png&&&/figure&&p&[D]代表discussion,讨论&/p&&p&[R]代表research,研究,一般以&a href=&//link.zhihu.com/?target=https%3A//arxiv.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&arXiv.org e-Print archive&/a&上的新论文为主。&/p&&p&[N]代表news,新闻,某些公司的站点为主&/p&&p&[P]代表project,项目,以同性交友网站&a href=&//link.zhihu.com/?target=https%3A//github.com/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Build software better, together&/a&上的内容居多。&/p&&p&&b&因为是全英文的,需要一定的英语阅读能力,即便此论坛干货极多,不太好吸收&/b&&/p&&p&&br&&/p&&h2&&b&2.公众号&/b&&/h2&&p&每天推送AI相关的热点的公众号多的要死,例如我关注的几个:&/p&&p&机器之心(微信号:almosthuman2014),新智元(微信号:AI_era),微软研究院AI头条(微信号:MSRAsia)&/p&&p&还有我没有关注的好多。。。&/p&&p&每天都有那么多小编在更新文章,不怕没东西看,就怕看不过来。&/p&&p&&br&&/p&&h2&&b&3.微博&/b&&/h2&&p&&b&关注一个就够了,&/b&爱可可-爱生活:&a href=&//link.zhihu.com/?target=http%3A//weibo.com/p/0261/home%3Ffrom%3Dpage_mod%3DTAB%26is_hot%3D1%23place& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Sina Visitor System&/a&&/p&&p&信息很全,推送也很快,同属于推送太快来不及看系列。&/p&&p&顺便感谢下,老师昨天分享我的文章&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&CNN中千奇百怪的卷积方式大汇总&/a&&/p&&p&&br&&/p&&h2&&b&4.Paper&/b&&/h2&&p&&b&如何跟进最新的paper,最简单的方法是去&/b&&a href=&//link.zhihu.com/?target=https%3A//arxiv.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&arXiv.org e-Print archive&/a&上搜,比如CV领域:&a href=&//link.zhihu.com/?target=https%3A//arxiv.org/list/cs.CV/recent& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Computer Vision and Pattern Recognition&/a&就弹出最近的submission了。&/p&&p&github上也有人做自动筛选器&a href=&//link.zhihu.com/?target=https%3A//github.com/karpathy/arxiv-sanity-preserver& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&karpathy/arxiv-sanity-preserver&/a&,专门过滤论文用的,你可以试试。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-2acfb5eb7a20bed211dea409fc8fd2a5_b.png& data-rawwidth=&938& data-rawheight=&692& class=&origin_image zh-lightbox-thumb& width=&938& data-original=&https://pic2.zhimg.com/v2-2acfb5eb7a20bed211dea409fc8fd2a5_r.png&&&/figure&&p&&br&&/p&&p&&br&&/p&&p&暂时就那么多了。&/p&
谢邀。我把我获得最新进展的方法做一个列举: 1.手机app知乎:知乎的反应速度会稍微慢一点。一般某一工作火了之后,知乎会陆续出现如何评价XXX提出的XXX模型/算法/系统?或者是某位大牛提出什么轰动性的言论,但是这种问题下面的答案以各抒己见为主,干货不…
&p&Inkscape &a href=&//link.zhihu.com/?target=https%3A//inkscape.org/en/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Draw Freely | Inkscape&/a&&/p&&p&被 chrisolah 大佬用来描述 LSTM。 相信很多人都看过: &a href=&//link.zhihu.com/?target=http%3A//colah.github.io/posts/2015-08-Understanding-LSTMs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Understanding LSTM Networks&/a&&/p&&br&&figure&&img src=&https://pic4.zhimg.com/322fba2e3_b.png& data-rawwidth=&2233& data-rawheight=&839& class=&origin_image zh-lightbox-thumb& width=&2233& data-original=&https://pic4.zhimg.com/322fba2e3_r.png&&&/figure&&p&但是入门难度如何,确实不知道。&/p&&p&希望能帮到你。&/p&
Inkscape 被 chrisolah 大佬用来描述 LSTM。 相信很多人都看过:
但是入门难度如何,确实不知道。希望能帮到你。
&figure&&img src=&https://pic1.zhimg.com/v2-0f7dba66e7b2a25f479e635ecdd309db_b.jpg& data-rawwidth=&1600& data-rawheight=&700& class=&origin_image zh-lightbox-thumb& width=&1600& data-original=&https://pic1.zhimg.com/v2-0f7dba66e7b2a25f479e635ecdd309db_r.jpg&&&/figure&&p&在贵阳「块数据」实验室的一块大屏幕上,每一分每一秒都在进入新的数据,不停地预测每个区域有多少辆出租车进和出,这是微软亚洲研究院一个基于云计算和大数据的系统正实时运转,贵阳出租车的数据实时上传作为测试样本,验证模型的准确性和有效性。每点一个格子会跳出一个图表,都能清楚知道整个城市某区域人群流动接下来十几个小时会呈现什么状态,黑色的是已经发生过的出租车进出情况,绿色预测未来部分,蓝色是昨天同一时间的情况。而同样,任何人流预测数据来源,比如手机信号、地铁刷卡记录等,都可以通过该系统模型进行运算得到某地将有多少人进和出的结果,并预测到未来十几个小时的城市人流情况。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-fefcfcaaea56c49f2b58_b.jpg& data-rawwidth=&550& data-rawheight=&543& class=&origin_image zh-lightbox-thumb& width=&550& data-original=&https://pic1.zhimg.com/v2-fefcfcaaea56c49f2b58_r.jpg&&&/figure&&p&「这个系统背后的模型研究,其目标是预测整个城市里每个区域在未来时刻有多少人进、有多少人出,从而使得管理者能迅速了解每个区域的公共安全状况,及时采取预警措施。」微软亚洲研究院主管研究员郑宇说,直接促使他下决心开展研究的是,2014 年新年夜那场发生在上海的踩踏事件,当时,郑宇曾在微博上呼吁通过基于手机数据的城市异常检测来避免踩踏悲剧。「如果在上海市踩踏事件之前,我们应用了这样的系统,就可以提前给民众发信息,告知他们这里会有多少人进来,提醒注意是否需要提前离开。」郑宇说。&/p&&p&目前,该研究论文《&a href=&https://link.zhihu.com/?target=https%3A//www.microsoft.com/en-us/research/wp-content/uploads/2016/11/ST-ResNet-AAAI17-Zhang.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Spatio-Temporal Residual Networks for Citywide Crowd Flows Prediction&/a&》已经发表在 AAAI 2017,在郑宇看来,除了具有推广应用的社会价值,从技术层面讲,「此前还没有真正意义上为时空数据设计的深度学习算法,这是第一篇论述文章,而未来这个方向的研究还会有更深远的发展。这个发展不是简单的拿来 CNN、RNN 就用,一定是基于对时空数据深刻的理解,充分利用时空数据本身的特性。」在北京,郑宇向《机器之心》解读了这篇论文的研究方法、过程以及正在积极推进的应用方向。&/p&&br&&p&「传统的深度学习方法不能直接拿来用」&/p&&br&&p&以往提及人流预测,通常会采取预测个人行为的方法,理想状态下,只要统计某个区域每个人去哪里就能测算出该区域有多少人进、多少人出。但这样的统计本身有很大的障碍,准确性很难保证,并且涉及隐私。除此之外,传统方法还有一些基于物理学模型、动力学模型或是土木工程的经典模型等,但这些始终难以应对大规模的人流预测。&/p&&p&我们这套方法首先不涉及隐私,只要进和出的数据并不需要知道哪个人进和出,然后把整个城市,比如北京划分成两千个格子同时预测,并不是一个个进行,它是一种整体性的预测。整体性预测的必要性在于,区域和区域之间具有相关性,不能单独预测,在预测 A 的时候,其实预测 B 和 C 区域同样可能产生影响,反之亦然。因此,把深度学习引入进来进行整体预测,与使用传统方法有很大区别。&/p&&p&但同样,我们在研究过程中面临很多困难。首先,会影响人流的因素非常多,与区域里前一个小时有多少人进和出,周边区域甚至是很远的地方有多少人进和出都有关系,比如上海的踩踏事件里,不少人是从外地搭乘高铁、地铁或通过高速公路前往,并不通过周围区域就直接到达了外滩。还有很多外部因素,包括天气、事件都会导致区域人流发生变化。更重要的是,在做预测时,人流具有时空属性,即时间属性和空间属性,这种属性很特别,它会导致其他传统的深度学习方法不能直接拿来用到预测上。&/p&&p&人流作为一种时空属性数据有特定的属性。一个城市有很多区组成,一个区有很多街道和社区,天然有层次感,这是空间的差别,在时间维度上,相邻两个时间点之间,交通量和人流量是一个平滑变化的趋势,但周期性有明显的差别,车流量、人流量是有一个往复的周期性,今天早晨 8 点和昨天早晨 8 点的车流量和人流量趋势看起来很类似,但今天早晨 8 点和今天中午 12 点的流量差别就会很大,虽然它们之间只隔了 4 个小时,而两天早晨之间相隔了 24 小时,时间差更大却更相似。这都是传统视频、图像中不存在的特性,一般情况下,人不会看了五分钟视频又回去看第二分钟的视频,这种周期性是在时空数据也就是人流数据中特有的属性,周期性也不是固定化的而是随着时间的变化呈现趋势性上扬或下降,比如,天越来越冷,天亮的时间越来越晚,人出门的时间也越来越晚,因此早高峰也会越来越晚,所以周期和趋势加在一起,使得时空数据和以前的图像、视频等数据完全不同,以往使用的方法就会失效。&/p&&p&如果我们直接使用传统 RNN,要考虑周期性和趋势性,输入的数据必须很长,如果只使用最近两三个小时的数据,就无法体现周期性,也不可能体现趋势性。要体现周期性至少需要 24 小时以上,而趋势性甚至需要几个月的数据,如果把 RNN 作为模型,这么长的数据作为输入,那么 RNN 模型会变的非常大、非常复杂,最后很难训练,效果也不会好。我们也和 LSTM 做了比较发现,我们数据用的帧数更少,结果反而更好。&/p&&br&&p&「我们设计出一个特殊的网络模型」&/p&&br&&p&我们在北京市的出租车 GPS 轨迹上面做了验证,大概用了约 3 万多辆出租车长达 5 年的数据,同时我们也利用纽约公开的自行车租赁数据做了验证。一方面,我们通过政府合作项目来获取开放给我们的数据,另一方面,我们也要好好利用公开数据。再将这些琐碎的数据转变成有规律的、能够对深度学习作为输入的格式,通过空间的划分和折射,变成一个二维矩阵,使它能够作为深度学习模型的输入。这个转换过程很重要,涉及到不同数据之间的多元化融合,这里需要一些时空数据经验。&/p&&p&基于对时空数据深刻的理解,我们设计出一个特殊的网络模型。在这个结构里,我们只需要抽取一些关键帧,比如说昨天同一时刻,前天同一时刻,其他时间我们可以不做输入,大概只要用几十帧的关键帧作为输入,就可以体现出我们几个月里所包含的周期性和趋势性,使得我们的网络结构大大简化,但训练的质量和效果却大大提高,这是很关键的一点。&/p&&p&具体而言,我们把城市划分成均匀且不相交的网格,比如划分成一个个一平方公里的网格,然后输入人流数据(包括手机、出租车轨迹等)投射在网格里面,计算出每个格子里有多少人进和出。红色越亮的地方就表示人越多,一帧的图像比如说是二维图像,如果有很多时间点就可以持续生成图片,同时我们有对应的事件和天气信息,这就构成了数据的输入,把时空数据转换成这样一个模式。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-5e16c19ab951a662f2a594_b.jpg& data-rawwidth=&844& data-rawheight=&623& class=&origin_image zh-lightbox-thumb& width=&844& data-original=&https://pic1.zhimg.com/v2-5e16c19ab951a662f2a594_r.jpg&&&/figure&&p&有了这样的数据之后,再对时间特性进行模拟。我们把最近几个小时、几帧的数据,输入到时空残差网络里面,模拟相邻时刻变化的平滑过程,然后把对应时间点昨天、前天的数据输入来模拟周期性,再把更远的时间点对应的读数拿进来,模拟一个趋势性,分别模拟了三个时间属性。这三个残差网络结构都是深度残差网络,然后做第一次融合,再把外部事件、天气等因素拿进来进行二次融合,得到一个结果。&/p&&p&接着,再进行空间属性模拟。深度卷积神经网络的过程就是把区域划成格子之后,对相关区域进行卷积运算得到一个值,你可以认为,通过一次卷积之后把周围区域人流的相关性抓住了,卷积多次后把更远地方的区域属性都卷积到一起,如果你想捕捉很远的地方,意味着你的卷积网络层次必须要比较深,只有一层抓不到很远地方的相关性。之所以要这样做,是因为之前有提到,很多人可能从外地很远的地方通过高铁或高速公路直接抵达,不会经过你所覆盖到的周边区域。&/p&&p&一旦网络层次比较深,训练会变得非常复杂,基于卷积神经网络,我们引入了深度残差网络结构来做人流预测,用来帮助深度卷积网络提高训练精度,使用这种方法的灵感也来源于我们的前同事孙剑此前的研究。从目前的验证结果来看,这项研究效果最好的是 24 层,但这与不同应用和数据规模都有关系。&figure&&img src=&https://pic2.zhimg.com/v2-ffe4ee1c9990cdb0e687_b.jpg& data-rawwidth=&885& data-rawheight=&559& class=&origin_image zh-lightbox-thumb& width=&885& data-original=&https://pic2.zhimg.com/v2-ffe4ee1c9990cdb0e687_r.jpg&&&/figure&&/p&&p&此外,在融合相似性、周期性和趋势性这三个模块时,相比于直接的融合,我们提出的基于参数矩阵的融合方法考虑到了每个区域的时间特性的强度不同,因此取得了更好的结果。在最近的研究中,我们已经考虑了门限机制去调控,而非简单的相加,很期待会有更好的实验结果。而 XExt 这部分的输入,已经做过归一化或 one-hot coding,之后经过 FC(或加 embedding)后可以缓解「numerical scales」的问题。事实上,融合依然是一个富有挑战性的难题,异构时空数据的融合仍值得深入研究。&/p&&p&接下来,对于这个模型本身,我们会继续提升,现在只是做到了预测每个区域有多少人进和出,体现出不同区域之间的关系,下个阶段,我们需要同时把每个区域的进和出以及区域和区域之间的进出转移数量都算出来。&/p&&p&而深度学习在时空数据方面的应用,已经是我们组的重点研究方向。人工智能也有它的局限性,并不是像大家想象的那样无所不能,目前看来,我认为利用深度学习来解决大规模物流调度问题的时机已经比较成熟,同时它也会对一系列调度问题产生影响,比如共享单车、外卖、快递等等。&/p&&p&&b&机器之心原创&/b&&/p&
在贵阳「块数据」实验室的一块大屏幕上,每一分每一秒都在进入新的数据,不停地预测每个区域有多少辆出租车进和出,这是微软亚洲研究院一个基于云计算和大数据的系统正实时运转,贵阳出租车的数据实时上传作为测试样本,验证模型的准确性和有效性。每点一个…
我觉得吧,除非量子计算机理论突破,开始迅猛发展,不然媒体搞的噱头,把人工智能前景说得再美好也没啥用啊,你作为根基的硬件性能,都遇到瓶颈,计算能力不能再增长飞快,能指望人工智能达到怎样的高度?&br&&br&目前的摩尔定律走到7nm就难以玩下去了,而现在也已经14nm了,说明目前计算能力快到极限了,这时你跟我说人工智能革命来啦,技术要爆炸啦,技术奇点要来啦,我真没看见。&br&&br&手机电脑N年前就能下象棋,现在AlphaGo下赢围棋也没啥稀奇的啊,这也没什么根本性的变化,只是更深入而已最近也没出现什么新的基础理论突破啊,怎么媒体又开始鼓吹人工智能了呢?&br&&br&至于AR、VR,很多人想着感觉很激动,脑后插管的时代虚拟现实的时代,要来临了吗?&br&&br&可是AR、VR说白了,不就是加了一系列传感器捕捉你动作的,另一种特殊的、能交互的实时特效?跟你电视上看到的那些电脑特效有啥本质分别?能比电影中的电脑特效要真实多少?只不过是戴着眼镜、戴着头盔能跟随你动作变化的电脑特效。而且作为以&虚拟现实&为噱头的技术,和现实一样够真实,肯定要是卖点吧?&br&&br&&br&而我们看到的那些电脑特效,三四十年前就像在搞了,比如终结者,现在烧钱动辄十几亿,而被我们嘲讽的五毛特效还比比皆是,即使技术突飞猛进,我们平民在几十年之内,能享用到多好的电脑特效呢?戴着AR眼镜、VR头盔看五毛特效吗?这有意思?&br&&br&当然,说它仅是电脑特效那肯定是偏颇,但渲染建模出的虚拟现实,能比电影中的电脑特效真实几分?&br&&br&&br&至于媒体常说的比如什么机器人替代人,所有人要失业啦,以后大家在家什么也不用干,靠机器养着就行,机器人以后会超越人类,人类会被淘汰啥的。&br&&br&我想说的是,现在的确很多工厂开始用机器人来替代工人工作,但吹嘘得那么过分真好么?&br&&br&我们拿扫地机器人来说,十几二十年前就出来了,我小学就看到它的广告了,现在它出来快二十年了。一个类似吸尘器功能,只不过加了一个到处乱窜的马达的小玩意,愣是二十年都没大规模普及,你要知道吸尘器可是1901年就出来了的。&br&&br&&br&现在的便宜的扫地机器人,说白了,不就是加了个自己乱撞的轮子不认路的吸尘器吗?所谓贵的扫地机器人也不过是多了个路径识别,也就是认路避障的功能而已,而这么简单的&机器人&,愣是一二十年都没普及,你跟我说未来几十年机器人会极大规模替代人类,抱歉,我真没看见,现在顶级机器人的功能当然很牛逼啦,可是成本那么贵,能替代多少呢?要知道连扫地机器人这种简单吸尘器功能的&机器人&都没普及,我真不觉得未来机器人能普及到什么层次。&br&&br&肯定又有人反驳说,技术是加速发展的,比如你小时候能预测到淘宝、智能手机啥的吗?&br&&br&&br&我想说的是,蒸汽机时代,那时候人们要预测未来,也会是蒸汽机的天下,而绝不会预测到出现内燃机和电力。电力和内燃机的时代预测未来,也会是电力和内燃机的未来,而不会想到互联网和集成电路。&br&&br&&br&同样,现在企业啊,媒体啊都预测说未来是人工智能、VR、AR啥的。这些都是现在技术的衍生和深入,和在蒸汽机时代预测未来是蒸汽朋克时代有啥分别呢?我们知道,现在毕竟不是蒸汽朋克的时代,所以,以现在技术发展的眼光来看未来,是行不通的。我不相信人工智能、AR、VR啥的这里面没有泡沫。&br&&br&指不定过个几年,超导技术突破了,迎来超导技术革命,或者纳米理论突破了,迎来纳米时代,反正不太可能会像媒体预测的那样,是人工智能的未来,毕竟核心硬件你都快到瓶颈期了,你跟我谈未来人工智能?就像上个世纪,汽车飞机发展迅猛,那时,人们预测几十年后的未来也是飞行汽车遍地、星际航行很普遍,可是然后呢,现在呢?现在是这样的吗?&br&&br&&br&PS.我的确是外行,但这是我作为一个普通人的直观感觉。如果你是内行,有更独到的见解,请直接说出来哪里不对,而不要直接说要别人闭嘴,说别人信口开河,要别人保持敬畏不能说出自己的看法来。这和宗教一样直接把宣扬日心说的人烧死,说人家这是对圣经的不了解不敬畏,是在信口开河,而他不需要做任何解释有何分别?&br&&br&再更&br&…………………………………………………………………………………………………………………………………………………………………………&br&我的核心观点是媒体宣传太夸张,媒体动辄宣传人工智能毁灭人类、活在虚拟现实脑后接管,机器人让全人类失业、啥的,我是在反驳媒体的宣传,没说别人的努力不重要。我认为目前的人工智能技术并不会大跃进到媒体说的那种层次。&br&&br&&br&所以如果你是内行,认为单凭现在的技术演化,能达到媒体吹嘘的那么厉害,那当我没说。&br&&br&…………………………………………………………………………………………………………………&br&&br&三更&br&&br&&br&评论中还有那么多人怼我,说我是外行,所以我就不能说任何自己的观点。&br&&br&&br&首先,我没否认我是外行,我也没说那些技术不牛逼,也没说就不能再投钱搞AI了,也没说科学家们不努力。我反驳的是媒体过度宣传。&br&&br&&br&我就说几句,你作为内行,你有任何顶尖计算机领域的论文能证明,我们对人脑机理完全了解,强人工智能现在不存在任何理论上的瓶颈,不用理论突破,保持目前的计算机的计算能力不变,只要搞搞算法就行,就能搞出强人工智能来,那我就把手机吃下去。话就放在这。不然,凭什么说我民科不能说自己观点?你是内行,你有本事就给我证明一下。证明马上就会由人工智能搞出技术奇点啊。&br&&br&&br&同样你也可以证明仅凭弱人工智能就能前景无限啊。你不能证明我说错了,避重就轻,强行灌输你自己的观点,反而给我扣帽子,说我自以为是?&br&&br&别用一大堆专业名词来站在学术高地压我,就问你一句,能不能正面从我文中内容证明我说错了?&br&&br&你有本事去跟律师界、医学界的顶尖人物怼,说,你们别干了,人工智能马上替代你了。同样,只要有任何顶尖医生、顶尖律师、顶尖翻译因为你的宣传,觉得人工智能会替代自己而辞职,那我同样把手机吃下去。&br&&br&&br&如果未来人工智能并不能像媒体宣传那样,替代顶尖律师、翻译、医生,那和现在相比,又怎么能算前景无限?毕竟现在就能玩弱智翻译、弱智法律咨询了。&br&&br&&br&像翻译啊、医疗诊断、法律咨询啥的,人工智能肯定有用,但媒体动辄宣传未来50%的人失业,我还真不信,拿翻译来说,普通一些比较弱智的语言翻译肯定能实现,但顶级翻译需要对两国文化有深刻的理解,才能翻译得信达雅,就这点就起码需要强人工智能才能实现。而如果未来人工智能只能和现在一样,完成比较弱智的翻译,那和现在相比,又算多大的跃进呢?也不过是比目前更深入一点罢了,毕竟现在就能用机器翻译,那么未来人工智能就并不像媒体吹嘘的一样,达到革命的层次,也只是更进一步而已,又怎么能像媒体说的算动辄技术爆炸的层次的技术前景?这里面敢说没泡沫?&br&&br&&br&还有人说,哪怕我说对了,也不管我说的对不对,只要不是他眼中的内行,就没资格瞎逼逼。&br&&br&&br&呵呵,那宗教人士是不是同样有权力把你烧死,因为你不是宗教神学的内行,没有权利说地球不是宇宙的中心,所以你哪怕说对了也是瞎逼逼。&br&&br&再者退一步说,按你的逻辑,不是内行没资格说话。你同样也不是了解我的内行,所以你也没资格说话,没资格瞎逼逼。那你这是在打自己的脸啊。&br&&br&&br&同样,我文中说的AR、VR,你就直接了当地说说,AR、VR建立的虚拟现实能不能比电脑特效真实,如果连真实性都不能保证,媒体宣传说AR、VR以后会发展到脑后插管?虚拟现实,主打的就是现实、浸入感,现实性都不能保证,你跟我说未来前景无限,你信?&br&&br&&br&同样如果,你能搞到任何一台VR,接近现实的真实水平,建立的虚拟现实,比电影中的最高电脑特效要真实,让我分辨不出真假,我同样把电脑吃下去。&br&&br&&br&再者,扫地机器人是不是一二十年都没大规模普及?既然这种程度、低成本的&机器人&都没大规模普及,你敢拍着胸脯保证几十年之内,更高层次、更高成本的机器人会大规模替代人?话同样放在这,如果真像媒体说的那样全人类被机器人替代,我就马上直播自杀。&br&&br&&br&如果你没任何办法证明我前面说错了,你凭什么说我瞎逼逼,说我自以为是?就凭我是外行?你是内行?再者退一步说,你又有多内行?你这就不是在自以为是宣扬你的观点?&br&……………………………………………………………………………………………………………………&br&&br&&br&四更&br&&br&&br&只是因为我说出了自己的观点,观点不符合有些人的情绪和立场,我就成了强答、自以为是,成了瞎逼逼,我就是外行,就没资格说话了。然后他们并不从我文中所说的观点来反驳,而是避重就轻,先给我扣个外行、民科的帽子,然后强行灌输自己的观点,他们就不是强答,就是内行了,就不是自以为是了。我想说,你们这双标玩的溜啊。只许你们放火,不许我来点灯?&br&&br&&br&我并没有关闭评论区,也没有删评论,也没有屏蔽任何人,也没有恶语相对。说我自以为是,结果他们却并不从我说的内容来反驳,只是因为我答案不符合他们的情绪和立场,他们自己就把我屏蔽拉黑,这到底谁才自以为是?&br&&br&……………………………………………………………………………………………………………………&br&&br&&br&本不想再更,不耐烦再说明一下。&br&&br&评论中说我不了解就评论,说我靠喷出名?&br&&br&我说了N遍,不否认我是外行,但我的质疑一直不正面回答,老是说我不了解,也不解释。我也不反对你们拽名词,但你们从细枝末节部分来反对,为反对而反对,有何益?&br&&br&我文中说人工智能并没有想象中那么有前景,结果评论中都在给我做名词解释,说人工智能的技术怎样怎样高,科学家多么多么努力,这不是在故意引开话题?&br&&br&&br&好比我说一个演员演技不高,你一直评论说你知道他有努力吗,工作有多勤奋吗?可是努力勤奋和他演技高不高有什么关系。&br&&br&你们就直接无论从哪个角度,来证明它有前景,而不要老是顾左右而言他行不行,我说一个演员没演技,你老是想给我证明他们有多努力、他演过更多的作品、他的名字我读错了音有什么意思?
我觉得吧,除非量子计算机理论突破,开始迅猛发展,不然媒体搞的噱头,把人工智能前景说得再美好也没啥用啊,你作为根基的硬件性能,都遇到瓶颈,计算能力不能再增长飞快,能指望人工智能达到怎样的高度? 目前的摩尔定律走到7nm就难以玩下去了,而现在也已…
&p&只是单纯的机械重复和缺乏创造力的职业并不是最容易被替代的。&/p&&p&最容易被替代的职业要满足以下两个要求:&/p&&h2&&b&1.具有较高的附加价值&/b&&/h2&&h2&&b&2.较为机械重复、可替代度高&/b&&/h2&&blockquote&&b&&i&事实上,大多数人认为的观点都是错的,源于小资产阶级和中产阶级固有的傲慢。&/i&&/b&&br&&b&&i&并不是最底层的职业最容易被人工智能替代,也不是说相对精英化的职业就难以被人工智能替代&/i&&/b&&/blockquote&&p&你觉得最容易被替代的职业是什么? &/p&&p&每天起早贪黑蹬着三轮车满街卖早点的大妈?&/p&&p&在狂风暴雨大家都不愿意出门的时候骑着电驴挨家挨户送外卖的外卖小哥?&/p&&p&给领导点头哈腰、递烟送水的司机?&/p&&p&别搞笑了,你出钱去研发人工智能替代他们吗?&/p&&p&大家生活也都挺不容易的,卖早点、送外卖、当司机也赚不了多少钱,怎么会是最容易被替代的呢?&/p&&p&反而是中产特权的一些职业,附加值挺高的,例如翻译、会计以及司法、医疗行业。&/p&&p&可以预见的未来中,这些行业的低端部分一定会被慢慢蚕食,留下的也就只是那些少数的精英,例如较为正式场合的同传、交传,注册会计师,高端律师以及名医。哦对了还有绝大部分的程序员。&/p&&p&事实上,中产阶级干的这些活,扪心自问一下,真的是需要较高创造力的工作吗?别逗自己玩啊......&/p&&p&大家都是小富即安地过着慵懒的人生......当一颗无产阶级的螺丝钉就好了啊......&/p&&p&-----------------------------分割线--------------------------------&/p&&p&我可没有黑哪个职业,我自己的职业恰巧属于此范畴,也就是很多人不同意的,翻译。&/p&&p&可能我说的不是很准确,据我所知,我们这种层级的外语院校,只要打着学校名号揽工作,大部分所需要的专业技巧其实很少,未来能留下的,恐怕就是那些相对高端的部分了。&/p&&p&-----------------------------分割线--------------------------------&/p&&p&原答案不变,评论里诸大神说的也很在理,完全取代白领的确是不现实,肯定是最低级的工作最先被完全取代,写答案的时候还有一个考虑,就是现在庞大的人口总量和资源消耗,从这个角度想,完全取代流水线上的工人真的不是什么好选择&/p&&p&------------------------------------------------------------------------&/p&&p&顺便求一波关注,如果对科幻脑洞有兴趣,我正朝这方面努力,谢谢~&/p&
只是单纯的机械重复和缺乏创造力的职业并不是最容易被替代的。最容易被替代的职业要满足以下两个要求:1.具有较高的附加价值2.较为机械重复、可替代度高事实上,大多数人认为的观点都是错的,源于小资产阶级和中产阶级固有的傲慢。 并不是最底层的职业最容…
&p&&strong&Part 1:图像识别任务&/strong&&br&&/p&&br&&p&卷积神经网络,听起来像是计算机科学、生物学和数学的诡异组合,但它们已经成为计算机视觉领域中最具影响力的革新的一部分。神经网络在 2012 年崭露头角,Alex Krizhevsky 凭借它们赢得了那一年的 ImageNet 挑战赛(大体上相当于计算机视觉的年度奥林匹克),他把分类误差记录从 26% 降到了 15%,在当时震惊了世界。自那之后,大量公司开始将深度学习用作服务的核心。Facebook 将神经网络用于自动标注算法、谷歌将它用于图片搜索、亚马逊将它用于商品推荐、Pinterest 将它用于个性化主页推送、Instagram 将它用于搜索架构。&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-a015ef9d7cf04de0cf03cca_b.jpg& data-rawwidth=&640& data-rawheight=&249& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-a015ef9d7cf04de0cf03cca_r.jpg&&&/figure&&p&然而,应用这些网络最经典最流行的案例是进行图像处理。在图像处理任务中,让我们看一下如何使用卷积神经网络进行图像分类。&/p&&br&&p&&strong&问题空间&/strong&&/p&&br&&p&图像分类是对输入图像的操作,最终输出一组最好地描述了图像内容的分类(如猫、狗等)或分类的概率。对人类来说,识别是打出生便开始学习的技能之一,对成人来说更是信手拈来,毫不费力。我们只需一眼便能快速识别我们所处的环境以及环绕在我们身边的物体。当我们看到一张图片或是环看四周的时候,无需刻意观察,多数时候也能立即描述出场景特征并标记出每一个对象。快速识别不同模式、根据早前知识进行归纳、以及适应不同的图像环境一直都是人类的专属技能,机器尚未享有。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-acacdd44475cce_b.jpg& data-rawwidth=&636& data-rawheight=&222& class=&origin_image zh-lightbox-thumb& width=&636& data-original=&https://pic3.zhimg.com/v2-acacdd44475cce_r.jpg&&&/figure&&p&&strong&输入与输出&/strong&&/p&&br&&p&当计算机看到一张图像(输入一张图像)时,它看的是一大堆像素值。根据图片的分辨率和尺寸,它将看到一个 32 x 32 x 3 的数组(3 指代的是 RGB 值)。为了讲清楚这一点,假设我们有一张 JPG 格式的 480 x 480 大小的彩色图片,那么它对应的数组就有 480 x 480 x 3 个元素。其中每个数字的值从 0 到 255 不等,其描述了对应那一点的像素灰度。当我们人类对图像进行分类时,这些数字毫无用处,可它们却是计算机可获得的唯一输入。其中的思想是:当你提供给计算机这一数组后,它将输出描述该图像属于某一特定分类的概率的数字(比如:80% 是猫、15% 是狗、5% 是鸟)。&/p&&br&&p&&strong&我们想要计算机做什么&/strong&&/p&&br&&p&现在我们知道了问题所在以及输入与输出,就该考虑如何处理了。我们想要计算机能够区分开所有提供给它的图片,以及搞清楚猫猫狗狗各自的特有特征。这也是我们人类的大脑中不自觉进行着的过程。当我们看到一幅狗的图片时,如果有诸如爪子或四条腿之类的明显特征,我们便能将它归类为狗。同样地,计算机也可以通过寻找诸如边缘和曲线之类的低级特点来分类图片,继而通过一系列卷积层级建构出更为抽象的概念。这是 CNN(卷积神经网络)工作方式的大体概述,下面是具体细节。&/p&&br&&p&&strong&生物学连接&/strong&&/p&&br&&p&首先介绍些背景。当你第一次听到卷积神经网络这一术语,可能会联想到神经科学或生物学,那就对了。可以这样说。CNN 的确是从视觉皮层的生物学上获得启发的。视觉皮层有小部分细胞对特定部分的视觉区域敏感。Hubel 和 Wiesel 于 1962 年进行的一项有趣的试验详细说明了这一观点,他们验证出大脑中的一些个体神经细胞只有在特定方向的边缘存在时才能做出反应(即放电)。例如,一些神经元只对垂直边缘兴奋,另一些对水平或对角边缘兴奋。Hubel 和 Wisesl 发现所有这些神经元都以柱状结构的形式进行排列,而且一起工作才能产生视觉感知。这种一个系统中的特定组件有特定任务的观点(视觉皮层的神经元细胞寻找特定特征)在机器中同样适用,这就是 CNN 的基础。&/p&&br&&p&&strong&结构&/strong&&/p&&br&&p&回到细节上来。更为详细的 CNN 工作概述指的是你挑一张图像,让它历经一系列卷积层、非线性层、池化(下采样(downsampling))层和完全连接层,最终得到输出。正如之前所说,输出可以是最好地描述了图像内容的一个单独分类或一组分类的概率。如今,难点在于理解其中每一层的工作方法。我们先来看最重要的部分。&/p&&br&&p&&strong&第一层——数学部分&/strong&&/p&&br&&p&CNN 的第一层通常是卷积层(Convolutional Layer)。首先需要了解卷积层的输入内容是什么。如上所述,输入内容为一个 32 x 32 x 3 的像素值数组。现在,解释卷积层的最佳方法是想象有一束手电筒光正从图像的左上角照过。假设手电筒光可以覆盖 5 x 5 的区域,想象一下手电筒光照过输入图像的所有区域。在机器学习术语中,这束手电筒被叫做过滤器(filter,有时候也被称为神经元(neuron)或核(kernel)),被照过的区域被称为感受野(receptive field)。过滤器同样也是一个数组(其中的数字被称作权重或参数)。重点在于过滤器的深度必须与输入内容的深度相同(这样才能确保可以进行数学运算),因此过滤器大小为 5 x 5 x 3。现在,以过滤器所处在的第一个位置为例,即图像的左上角。当筛选值在图像上滑动(卷积运算)时,过滤器中的值会与图像中的原始像素值相乘(又称为计算点积)。这些乘积被加在一起(从数学上来说,一共会有 75 个乘积)。现在你得到了一个数字。切记,该数字只是表示过滤器位于图片左上角的情况。我们在输入内容上的每一位置重复该过程。(下一步将是将过滤器右移 1 单元,接着再右移 1 单元,以此类推。)输入内容上的每一特定位置都会产生一个数字。过滤器滑过所有位置后将得到一个 28 x 28 x 1 的数组,我们称之为激活映射(activation map)或特征映射(feature map)。之所以得到一个 28 x 28 的数组的原因在于,在一张 32 x 32 的输入图像上,5 x 5 的过滤器能够覆盖到 784 个不同的位置。这 784 个位置可映射为一个 28 x 28 的数组。&/p&&br&&figure&&img src=&https://pic3.zhimg.com/v2-790a3d600c6bdb27c393a1ea_b.jpg& data-rawwidth=&640& data-rawheight=&347& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-790a3d600c6bdb27c393a1ea_r.jpg&&&/figure&&p&(注意:包括上图在内的一些图片来自于 Micheal Nielsen 的 「神经网络与深度学习( Neural Networks and Deep Learning)」一书。我强烈推荐这本书。这本书可免费在线浏览:&a href=&//link.zhihu.com/?target=http%3A//neuralnetworksanddeeplearning.com/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Neural networks and deep learning&/a&)&/p&&br&&p&当我们使用两个而不是一个 5 x 5 x 3 的过滤器时,输出总量将会变成
28 x 28 x 2。采用的过滤器越多,空间维度( spatial dimensions)保留得也就越好。数学上而言,这就是卷积层上发生的事情。&/p&&br&&p&&strong&第一层——高层次角度&/strong&&/p&&br&&p&不过,从高层次角度而言卷积是如何工作的?每个过滤器可以被看成是特征标识符( feature identifiers)。这里的特征指的是例如直边缘、原色、曲线之类的东西。想一想所有图像都共有的一些最简单的特征。假设第一组过滤器是 7 x 7 x 3 的曲线检测器。(在这一节,为了易于分析,暂且忽略该过滤器的深度为 3 个单元,只考虑过滤器和图像的顶层层面。)作为曲线过滤器,它将有一个像素结构,在曲线形状旁时会产生更高的数值(切记,我们所讨论的过滤器不过是一组数值!)&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4e15bce4bc6dca_b.png& data-rawwidth=&624& data-rawheight=&278& class=&origin_image zh-lightbox-thumb& width=&624& data-original=&https://pic4.zhimg.com/v2-4e15bce4bc6dca_r.png&&&/figure&&p&&em&左图:过滤器的像素表示;右图:曲线检测器过滤器的可视化;对比两图可以看到数值和形状的对应&/em&&/p&&br&&p&回到数学角度来看这一过程。当我们将过滤器置于输入内容的左上角时,它将计算过滤器和这一区域像素值之间的点积。拿一张需要分类的照片为例,将过滤器放在它的左上角。&/p&&p&&figure&&img src=&https://pic2.zhimg.com/v2-a7a8f5b74d66f7ba1417c09_b.png& data-rawwidth=&640& data-rawheight=&227& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-a7a8f5b74d66f7ba1417c09_r.png&&&/figure&切记,我们要做的是将过滤器与图像的原始像素值相乘。&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f1c852e5da0dfb0f78fe43_b.png& data-rawwidth=&640& data-rawheight=&241& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-f1c852e5da0dfb0f78fe43_r.png&&&/figure&&p&&em&左图:感受野的可视化;右图:感受野的像素表示 * 过滤器的像素表示&/em&&/p&&br&&p&简单来说,如果输入图像上某个形状看起来很像过滤器表示的曲线,那么所有点积加在一起将会得出一个很大的值!让我们看看移动过滤器时会发生什么。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4cf01bac37db_b.png& data-rawwidth=&640& data-rawheight=&224& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-4cf01bac37db_r.png&&&/figure&&p&这个值小了很多!这是因为图像的这一部分和曲线检测器过滤器不存在对应。记住,这个卷积层的输出是一个激活映射(activation map)。因此,在这个带有一个过滤器卷积的例子里(当筛选值为曲线检测器),激活映射将会显示出图像里最像曲线的区域。在该例子中,28 x 28 x 1 的激活映射的左上角的值为 6600。高数值意味着很有可能是输入内容中的曲线激活了过滤器。激活地图右上角的值将会是 0,因为输入内容中没有任何东西能激活过滤器(更简单地说,原始图片中的这一区域没有任何曲线)。这仅仅是一组检测右弯曲线的过滤器。还有其它检测左弯曲线或直线边缘的过滤器。过滤器越多,激活映射的深度越大,我们对输入内容的了解也就越多。&/p&&br&&p&声明:我在本小节中描绘的过滤器(filter)只是为了描述卷积中的数学过程。在下图中你可以看到训练后的网络中第一个卷积层的过滤器的实际可视化。尽管如此,主要观点仍旧不变。当在输入内容中寻找特定特征时,第一层上的过滤器在输入图像上进行卷积运算和「激活」(即计算高数值)。&/p&&br&&figure&&img src=&https://pic3.zhimg.com/v2-c349c6bcc1806fcefaa8e5e_b.jpg& data-rawwidth=&270& data-rawheight=&277& class=&content_image& width=&270&&&/figure&&p&上图来自于斯坦福大学由 Andrej Karpathy 和 Justin Johnson 授课的 CS 231N 课程,推荐给渴望更深层理解 CNN 的人们:&a href=&//link.zhihu.com/?target=http%3A//cs231n.stanford.edu/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&CS231n: Convolutional Neural Networks for Visual Recognition&/a&&/p&&br&&p&&strong&网络中的更深处&/strong&&/p&&br&&p&在传统卷积神经网络架构中,卷积层之间还有其它类型的层。我强烈建议有兴趣的人阅读和它们有关的材料,并理解相应的功能和作用;但总的来说,它们提供的非线性和维度保留有助于提高网络的稳健性(robustness)并控制过拟合。一个典型的 CNN 结构看起来是这样的:&/p&&br&&figure&&img src=&https://pic4.zhimg.com/v2-afa8132cdbf_b.png& data-rawwidth=&639& data-rawheight=&46& class=&origin_image zh-lightbox-thumb& width=&639& data-original=&https://pic4.zhimg.com/v2-afa8132cdbf_r.png&&&/figure&&p&&em&输入→卷积→ReLU→卷积→ReLU→池化→ReLU→卷积→ReLU→池化→全连接&/em&&/p&&br&&p&我们稍后再来讨论关键的最后一层,先回顾一下学到了哪些。我们讨论了过滤器是如何在第一个卷积层检测特征的。它们检测边缘和曲线一类的低级特征。正如想象的那样,为了预测出图片内容的分类,网络需要识别更高级的特征,例如手、爪子与耳朵的区别。第一个卷积层的输出将会是一个 28 x 28 x 3 的数组(假设我们采用三个 5 x 5 x 3 的过滤器)。当我们进入另一卷积层时,第一个卷积层的输出便是第二个卷积层的输入。解释这一点有些困难。第一层的输入是原始图像,而第二卷积层的输入正是第一层输出的激活映射。也就是说,这一层的输入大体描绘了低级特征在原始图片中的位置。在此基础上再采用一组过滤器(让它通过第 2 个卷积层),输出将是表示了更高级的特征的激活映射。这类特征可以是半圆(曲线和直线的组合)或四边形(几条直线的组合)。随着进入网络越深和经过更多卷积层后,你将得到更为复杂特征的激活映射。在网络的最后,可能会有一些过滤器会在看到手写笔迹或粉红物体等时激活。如果你想知道更多关于可视化卷积网络中过滤器的内容,可以查看 Matt Zeiler 和 Rob Fergus 的一篇讨论该问题的颇为杰出的研究论文。在 YouTube 上,Jason Yosinski 有一段视频十分视觉化地呈现了这一过程(如下)。有趣的是,越深入网络,过滤器的感受野越大,意味着它们能够处理更大范围的原始输入内容(或者说它们可以对更大区域的像素空间产生反应)。&/p&&br&&p&&strong&完全连接层&/strong&&/p&&br&&p&检测高级特征之后,网络最后的完全连接层就更是锦上添花了。简单地说,这一层处理输入内容(该输入可能是卷积层、ReLU 层或是池化层的输出)后会输出一个 N 维向量,N 是该程序必须选择的分类数量。例如,如果你想得到一个数字分类程序,如果有 10
个数字,N 就等于 10。这个 N 维向量中的每一数字都代表某一特定类别的概率。例如,如果某一数字分类程序的结果矢量是 [0 .1 .1 .75 0 0 0 0 0 .05],则代表该图片有 10% 的概率是 1、10% 的概率是 2、75% 的概率是 3、还有 5% 的概率是 9(注:还有其他表现输出的方式,这里只展示了 softmax 的方法)。完全连接层观察上一层的输出(其表示了更高级特征的激活映射)并确定这些特征与哪一分类最为吻合。例如,如果该程序预测某一图像的内容为狗,那么激活映射中的高数值便会代表一些爪子或四条腿之类的高级特征。同样地,如果程序测定某一图片的内容为鸟,激活映射中的高数值便会代表诸如翅膀或鸟喙之类的高级特征。大体上来说,完全连接层观察高级特征和哪一分类最为吻合和拥有怎样的特定权重,因此当计算出权重与先前层之间的点积后,你将得到不同分类的正确概率。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-0d4e7aabbdda_b.jpg& data-rawwidth=&640& data-rawheight=&206& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-0d4e7aabbdda_r.jpg&&&/figure&&p&&strong&训练(也就是:什么能让其有效)&/strong&&/p&&br&&p&下面是神经网络中的一个我尚未提及但却最为重要的部分。阅读过程中你可能会提出许多问题。第一卷积层中的滤波器是如何知道寻找边缘与曲线的?完全连接层怎么知道观察哪些激活图?每一层级的滤波器如何知道需要哪些值?计算机通过一个名为反向传播的训练过程来调整过滤器值(或权重)。&/p&&br&&p&在探讨反向传播之前,我们首先必须回顾一下神经网络工作起来需要什么。在我们刚出生的时候,大脑一无所知。我们不晓得猫啊狗啊鸟啊都是些什么东西。与之类似的是 CNN 刚开始的时候,权重或过滤器值都是随机的。滤波器不知道要去寻找边缘和曲线。更高层的过滤器值也不知道要去寻找爪子和鸟喙。不过随着年岁的增长,父母和老师向我们介绍各式各样的图片并且一一作出标记。CNN 经历的便是一个介绍图片与分类标记的训练过程。在深入探讨之前,先设定一个训练集,在这里有上千张狗、猫、鸟的图片,每一张都依照内容被标记。下面回到反向传播的问题上来。&/p&&br&&p&反向传播可分为四部分,分别是前向传导、损失函数、后向传导,以及权重更新。在前向传导中,选择一张 32×32×3 的数组训练图像并让它通过整个网络。在第一个训练样例上,由于所有的权重或者过滤器值都是随机初始化的,输出可能会是 [.1 .1 .1 .1 .1 .1 .1 .1 .1 .1],即一个不偏向任何数字的输出。一个有着这样权重的网络无法寻找低级特征,或者说是不能做出任何合理的分类。接下来是反向传播的损失函数部分。切记我们现在使用的是既有图像又有标记的训练数据。假设输入的第一张训练图片为 3,标签将会是 [0 0 0 1 0 0 0 0 0 0]。损失函数有许多种定义方法,常见的一种是 MSE (均方误差)。&/p&&p&&figure&&img src=&https://pic2.zhimg.com/v2-1decc87c5e5d_b.png& data-rawwidth=&472& data-rawheight=&63& class=&origin_image zh-lightbox-thumb& width=&472& data-original=&https://pic2.zhimg.com/v2-1decc87c5e5d_r.png&&&/figure&假设变量 L 等同该数值。正如所料,前两张训练图片的损失将会极高。现在,我们直观地想一下。我们想要预测标记(卷积网络的输出)与训练标记相同(意味着网络预测正确)。为了做到这一点,我们想要将损失数量最小化。将其视为微积分优化问题的话,也就是说我们想要找出是哪部分输入(例子中的权重)直接导致了网络的损失(或错误)。&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-f9b43c61d_b.png& data-rawwidth=&640& data-rawheight=&222& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-f9b43c61d_r.png&&&/figure&&p&这是一个 dL/dW 的数学等式,W 是特定层级的权重。我们接下来要做的是在网络中进行后向传导,测定出是哪部分权重导致了最大的损失,寻找调整方法并减少损失。一旦计算出该导数,将进行最后一步也就是权重更新。所有的过滤器的权重将会更新,以便它们顺着梯度方向改变。&/p&&br&&figure&&img src=&https://pic4.zhimg.com/v2-cdc66537c2bffbda47a3617_b.png& data-rawwidth=&606& data-rawheight=&99& class=&origin_image zh-lightbox-thumb& width=&606& data-original=&https://pic4.zhimg.com/v2-cdc66537c2bffbda47a3617_r.png&&&/figure&学习速率是一个由程序员决定的参数。高学习速率意味着权重更新的动作更大,因此可能该模式将花费更少的时间收敛到最优权重。然而,学习速率过高会导致跳动过大,不够准确以致于达不到最优点。&br&&figure&&img src=&https://pic1.zhimg.com/v2-112ee3cfba309cfd6d42a04_b.png& data-rawwidth=&640& data-rawheight=&198& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-112ee3cfba309cfd6d42a04_r.png&&&/figure&&p&总的来说,前向传导、损失函数、后向传导、以及参数更新被称为一个学习周期。对每一训练图片,程序将重复固定数目的周期过程。一旦完成了最后训练样本上的参数更新,网络有望得到足够好的训练,以便层级中的权重得到正确调整。&/p&&br&&p&&strong&测试&/strong&&/p&&br&&p&最后,为了检验 CNN 能否工作,我们准备不同的另一组图片与标记集(不能在训练和测试中使用相同的!)并让它们通过这个 CNN。我们将输出与实际情况(ground truth )相比较,看看网络是否有效!&/p&&br&&p&&strong&企业如何使用 CNN&/strong&&/p&&br&&p&数据、数据、数据。数据越多的企业在竞争中越发彰显优势。你提供给网络的训练数据越多,你能进行的训练迭代也越多,紧接着权重更新也多,那么当用于产品时调整出的网络自然就好。Facebook (和 Instagram)可以使用它如今拥有的十几亿用户的图片,Pinterest 可以使用它站点上 500 亿花瓣的信息,谷歌可以使用搜索数据,亚马逊可以使用每天销售的数以百万计的商品数据。而你现在也知道它们使用数据背后的神奇之处了。&/p&&br&&p&&strong&Part 2:卷积神经网络中的部分问题&/strong&&/p&&br&&br&&p&&strong&引言&/strong&&/p&&br&&p&在这篇文章中,我们将更深入地介绍有关卷积神经网络(ConvNet)的详细情况。声明:我确实知道本文中一部分内容相当复杂,可以用一整篇文章进行介绍。但为了在保持全面性的同时保证简洁,我会在文章中相关位置提供一些更详细解释该相关主题的论文链接。&/p&&br&&p&&strong&步幅和填充&/strong&&/p&&br&&p&好了,现在来看一下我们的卷积神经网络。还记得过滤器、感受野和卷积吗?很好。现在,要改变每一层的行为,有两个主要参数是我们可以调整的。选择了过滤器的尺寸以后,我们还需要选择步幅(stride)和填充(padding)。&/p&&br&&p&步幅控制着过滤器围绕输入内容进行卷积计算的方式。在第一部分我们举的例子中,过滤器通过每次移动一个单元的方式对输入内容进行卷积。过滤器移动的距离就是步幅。在那个例子中,步幅被默认设置为1。步幅的设置通常要确保输出内容是一个整数而非分数。让我们看一个例子。想象一个 7 x 7 的输入图像,一个 3 x 3 过滤器(简单起见不考虑第三个维度),步幅为 1。这是一种惯常的情况。&/p&&p&&figure&&img src=&https://pic4.zhimg.com/v2-504ba01c8af8e2d7d41957ddaa4fe6d3_b.png& data-rawwidth=&594& data-rawheight=&236& class=&origin_image zh-lightbox-thumb& width=&594& data-original=&https://pic4.zhimg.com/v2-504ba01c8af8e2d7d41957ddaa4fe6d3_r.png&&&/figure&还是老一套,对吧?看你能不能试着猜出如果步幅增加到 2,输出内容会怎么样。&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c4a7b49deda73e2be77c6_b.png& data-rawwidth=&627& data-rawheight=&247& class=&origin_image zh-lightbox-thumb& width=&627& data-original=&https://pic3.zhimg.com/v2-c4a7b49deda73e2be77c6_r.png&&&/figure&&p&所以,正如你能想到的,感受野移动了两个单元,输出内容同样也会减小。注意,如果试图把我们的步幅设置成 3,那我们就会难以调节间距并确保感受野与输入图像匹配。正常情况下,程序员如果想让接受域重叠得更少并且想要更小的空间维度(spatial dimensions)时,他们会增加步幅。&/p&&br&&p&现在让我们看一下填充(padding)。在此之前,想象一个场景:当你把 5 x 5 x 3 的过滤器用在 32 x 32 x 3 的输入上时,会发生什么?输出的大小会是 28 x 28 x 3。注意,这里空间维度减小了。如果我们继续用卷积层,尺寸减小的速度就会超过我们的期望。在网络的早期层中,我们想要尽可能多地保留原始输入内容的信息,这样我们就能提取出那些低层的特征。比如说我们想要应用同样的卷积层,但又想让输出量维持为 32 x 32 x 3 。为做到这点,我们可以对这个层应用大小为 2 的零填充(zero padding)。零填充在输入内容的边界周围补充零。如果我们用两个零填充,就会得到一个 36 x 36 x 3 的输入卷。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-16ad975f95ef7a45ab836fa563e73736_b.png& data-rawwidth=&640& data-rawheight=&248& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-16ad975f95ef7a45ab836fa563e73736_r.png&&&/figure&&p&&em&如果我们在输入内容的周围应用两次零填充,那么输入量就为 32×32×3。然后,当我们应用带有 3 个 5×5×3 的过滤器,以 1 的步幅进行处理时,我们也可以得到一个 32×32×3 的输出&/em&&/p&&br&&p&如果你的步幅为 1,而且把零填充设置为&/p&&figure&&img src=&https://pic4.zhimg.com/v2-151ea0d356fbec7c3127_b.png& data-rawwidth=&425& data-rawheight=&52& class=&origin_image zh-lightbox-thumb& width=&425& data-original=&https://pic4.zhimg.com/v2-151ea0d356fbec7c3127_r.png&&&/figure&&p&K 是过滤器尺寸,那么输入和输出内容就总能保持一致的空间维度。&/p&&br&&p&计算任意给定卷积层的输出的大小的公式是&/p&&figure&&img src=&https://pic1.zhimg.com/v2-47d83d1bbc1fbb49991d68_b.png& data-rawwidth=&302& data-rawheight=&53& class=&content_image& width=&302&&&/figure&&p&其中 O 是输出尺寸,K 是过滤器尺寸,P 是填充,S 是步幅。&/p&&br&&p&&strong&选择超参数&/strong&&/p&&br&&p&我们怎么知道要用多少层、多少卷积层、过滤器尺寸是多少、以及步幅和填充值多大呢?这些问题很重要,但又没有一个所有研究人员都在使用的固定标准。这是因为神经网络很大程度上取决于你的数据类型。图像的大小、复杂度、图像处理任务的类型以及其他更多特征的不同都会造成数据的不同。对于你的数据集,想出如何选择超参数的一个方法是找到能创造出图像在合适尺度上抽象的正确组合。&/p&&br&&p&&strong&ReLU(修正线性单元)层&/strong&&/p&&br&&p&在每个卷积层之后,通常会立即应用一个非线性层(或激活层)。其目的是给一个在卷积层中刚经过线性计算操作(只是数组元素依次(element wise)相乘与求和)的系统引入非线性特征。过去,人们用的是像双曲正切和 S 型函数这样的非线性方程,但研究者发现 ReLU 层效果好得多,因为神经网络能够在准确度不发生明显改变的情况下把训练速度提高很多(由于计算效率增加)。它同样能帮助减轻梯度消失的问题——由于梯度以指数方式在层中消失,导致网络较底层的训练速度非常慢。ReLU 层对输入内容的所有值都应用了函数 f(x) = max(0, x)。用基本术语来说,这一层把所有的负激活(negative activation)都变为零。这一层会增加模型乃至整个神经网络的非线性特征,而且不会影响卷积层的感受野。&/p&&br&&ul&&li&&p&参见 Geoffrey Hinton(即深度学习之父)的论文:Rectified Linear Units Improve Restricted Boltzmann Machines&/p&&/li&&/ul&&br&&p&&strong&池化层&/strong&&/p&&br&&p&在几个 ReLU 层之后,程序员也许会选择用一个池化层(pooling layer)。它同时也被叫做下采样(downsampling)层。在这个类别中,也有几种可供选择的层,最受欢迎的就是最大池化( max-pooling)。它基本上采用了一个过滤器(通常是 2x2 的)和一个同样长度的步幅。然后把它应用到输入内容上,输出过滤器卷积计算的每个子区域中的最大数字。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-a944f0fad93f2b6b9986e65_b.png& data-rawwidth=&640& data-rawheight=&333& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-a944f0fad93f2b6b9986e65_r.png&&&/figure&&p&&em&带有 2×2 和过滤器的且步幅为 2 的最大池化的例子&/em&&/p&&br&&p&池化层还有其他选择,比如平均池化(average pooling)和 L2-norm 池化 。这一层背后的直观推理是:一旦我们知道了原始输入(这里会有一个高激活值)中一个特定的特征,它与其它特征的相对位置就比它的绝对位置更重要。可想而知,这一层大幅减小了输入卷的空间维度(长度和宽度改变了,但深度没变)。这到达了两个主要目的。第一个是权重参数的数目减少到了75%,因此降低了计算成本。第二是它可以控制过拟合(overfitting)。这个术语是指一个模型与训练样本太过匹配了,以至于用于验证和检测组时无法产生出好的结果。出现过拟合的表现是一个模型在训练集能达到 100% 或 99% 的准确度,而在测试数据上却只有50%。&/p&&br&&p&&strong&Dropout 层&/strong&&/p&&br&&p&如今,Dropout 层在神经网络有了非常明确的功能。上一节,我们讨论了经过训练后的过拟合问题:训练之后,神经网络的权重与训练样本太过匹配以至于在处理新样本的时候表现平平。Dropout 的概念在本质上非常简单。Dropout 层将「丢弃(drop out)」该层中一个随机的激活参数集,即在前向通过(forward pass)中将这些激活参数集设置为 0。简单如斯。既然如此,这些简单而且似乎不必要且有些反常的过程的好处是什么?在某种程度上,这种机制强制网络变得更加冗余。这里的意思是:该网络将能够为特定的样本提供合适的分类或输出,即使一些激活参数被丢弃。此机制将保证神经网络不会对训练样本「过于匹配」,这将帮助缓解过拟合问题。另外,Dropout 层只能在训练中使用,而不能用于测试过程,这是很重要的一点。&/p&&br&&ul&&li&&p&参考 Geoffrey Hinton 的论文:Dropout: A Simple Way to Prevent Neural Networks from Overfitting&/p&&/li&&/ul&&br&&p&&strong&网络层中的网络&/strong&&/p&&br&&p&网络层中的网络指的是一个使用了 1 x 1 尺寸的过滤器的卷积层。现在,匆匆一瞥,你或许会好奇为何这种感受野大于它们所映射空间的网络层竟然会有帮助。然而,我们必须谨记 1x1 的卷积层跨越了特定深度,所以我们可以设想一个1 x 1 x N 的卷积层,此处 N 代表该层应用的过滤器数量。该层有效地使用 N 维数组元素依次相乘的乘法,此时 N 代表的是该层的输入的深度。&/p&&br&&ul&&li&&p&参阅 Min Lin 的论文:Network In Network&/p&&/li&&/ul&&br&&p&&strong&分类、定位、检测、分割&/strong&&/p&&br&&p&本系列第一部分使用的案例中,我们观察了图像分类任务。这个过程是:获取输入图片,输出一套分类的类数(class number)。然而当我们执行类似目标定位的任务时,我们要做的不只是生成一个类标签,而是生成一个描述图片中物体suo所在位置的边界框。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-53c1e0def4fdc6234ef7_b.jpg& data-rawwidth=&640& data-rawheight=&257& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-53c1e0def4fdc6234ef7_r.jpg&&&/figure&&p&我们也有目标检测的任务,这需要图片上所有目标的定位任务都已完成。&/p&&br&&p&因此,你将获得多个边界框和多个类标签。&/p&&br&&p&最终,我们将执行目标分割的任务:我们需要输出类标签的同时输出图片中每个目标的轮廓。&/p&&br&&figure&&img src=&https://pic3.zhimg.com/v2-eed0ab22eaa0ff2_b.jpg& data-rawwidth=&640& data-rawheight=&250& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-eed0ab22eaa0ff2_r.jpg&&&/figure&&p&关于目标检测、定位、分割的论文有很多,这里就不一一列出了。&/p&&br&&p&&strong&迁移学习&/strong&&/p&&br&&p&如今,深度学习领域一个常见的误解在于没有谷歌那样的巨量数据,你将没有希望创建一个有效的深度学习模型。尽管数据是创建网络中至关重要的部分,迁移学习的思路将帮助我们降低数据需求。迁移学习指的是利用预训练模型(神经网络的权重和参数都已经被其他人利用更大规模的数据集训练好了)并用自己的数据集将模型「微调」的过程。这种思路中预训练模型扮演着特征提取器的角色。你将移除网络的最后一层并用你自有的分类器置换(取决于你的问题空间)。然后冻结其他所有层的权重并正常训练该网络(冻结这些层意味着在梯度下降/最优化过程中保持权值不变)。&/p&&br&&p&让我们探讨一下为什么做这项工作。比如说我们正在讨论的这个预训练模型是在 ImageNet (一个包含一千多个分类,一千四百万张图像的数据集)上训练的 。当我们思考神经网络的较低层时,我们知道它们将检测类似曲线和边缘这样的特征。现在,除非你有一个极为独特的问题空间和数据集,你的神经网络也会检测曲线和边缘这些特征。相比通过随机初始化权重训练整个网络,我们可以利用预训练模型的权重(并冻结)聚焦于更重要的层(更高层)进行训练。如果你的数据集不同于 ImageNet 这样的数据集,你必须训练更多的层级而只冻结一些低层的网络。&/p&&br&&ul&&li&&p&Yoshua Bengio (另外一个深度学习先驱 )论文:How transferable are features in deep neural networks?&/p&&/li&&li&&p&Ali Sharif Razavian 论文:CNN Features off-the-shelf: an Astounding Baseline for Recognition &/p&&/li&&li&&p&Jeff Donahue 论文:DeCAF: A Deep Convolutional Activation Feature for Generic Visual Recognition &/p&&/li&&/ul&&br&&p&&strong&数据增强技术&/strong&&/p&&br&&p&现在我们对卷积网络中数据的重要性可能已经感到有些麻木了,所以我们来谈下如何利用一些简单的转换方法将你现有的数据集变得更大。正如我们之前所提及的,当计算机将图片当作输入时,它将用一个包含一列像素值的数组描述(这幅图)。若是图片左移一个像素。对你和我来说,这种变化是微不可察的。然而对计算机而已,这种变化非常显著:这幅图的类别和标签保持不变,数组却变化了。这种改变训练数据的数组表征而保持标签不变的方法被称作数据增强技术。这是一种人工扩展数据集的方法。人们经常使用的增强方法包括灰度变化、水平翻转、垂直翻转、随机编组、色值跳变、翻译、旋转等其他多种方法。通过利用这些训练数据的转换方法,你将获得两倍甚至三倍于原数据的训练样本。&/p&&br&&p&&a href=&//link.zhihu.com/?target=http%3A//mp.weixin.qq.com/s%3F__biz%3DMzA3MzI4MjgzMw%3D%3D%26mid%3D%26idx%3D2%26sn%3D3f0b66aa9706aae1a30b0c%23rd& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&深度 | 从入门到精通:卷积神经网络初学者指南(附论文)&/a&&/p&
Part 1:图像识别任务 卷积神经网络,听起来像是计算机科学、生物学和数学的诡异组合,但它们已经成为计算机视觉领域中最具影响力的革新的一部分。神经网络在 2012 年崭露头角,Alex Krizhevsky 凭借它们赢得了那一年的 ImageNet 挑战赛(大体上相当于计算…
&figure&&img src=&https://pic3.zhimg.com/v2-4fceaf4f612e_b.jpg& data-rawwidth=&1454& data-rawheight=&821& class=&origin_image zh-lightbox-thumb& width=&1454& data-original=&https://pic3.zhimg.com/v2-4fceaf4f612e_r.jpg&&&/figure&&p&今天,小夕给大家讲一个故事...&/p&&figure&&img src=&https://pic4.zhimg.com/v2-bc08ab57b393d7_b.jpg& data-rawwidth=&1126& data-rawheight=&56& class=&origin_image zh-lightbox-thumb& width=&1126& data-original=&https://pic4.zhimg.com/v2-bc08ab57b393d7_r.jpg&&&/figure&&p&从前,有座山...&/p&&p&山里,有座学校...&/p&&p&学校里,有一位老师,一位领导,还有五只可爱的小仙(学)女(生)。&/p&&p&这5个学生的名字是:&b&小兔,小青,小路,小音,小夕&/b&。她们的高考目标依次为&b&清华、清华、清华、清华、浙大&/b&。但是不管她们的目标如何,在家长的逼迫下:&/p&&p&1.
假设过了浙大的线,但是没过清华的线,那就上浙大。(所以想考清华的学生会很难过)&br&2.
假设如果过了清华的线,那么就必须要上清华,哪怕目标是浙大,也不能报。(所以想考浙大的学生会很难过)&/p&&p&然后老师的培养目标呢,并不是让所有的学生都上清华,而是让每个学生都达成她们心中的目标!想上浙大的学生,就不能考的太高,以免上了清华。想上清华的学生,就要考的足够高,以免上了浙大。 &/p&&p&&b&1. &/b&这个老师很奇怪,他每天会制定一个精力分配计划表,比如老师每天都有100份精力,他要给各个学生分配精力。开学第一天,由于他对这些学生都不熟悉,于是他给这5个学生平均分配精力,即每人都能得到20份精力。&/p&&p&&b&2. &/b&这个老师白天怎么上课呢?他会重点关注和培养今天的精力分配计划中那些精力分配很多的学生。他这一天,会讲很多次课,每节课结束的时候呢,都会安排一个随堂考试。并且根据这场考试后各个学生的成绩单,来评价一下这场考试的&b&成功率&/b&。&/p&&p&&b&2. &/b&但是注意啊,怎么衡量这个考试成不成功呢?重点来啦,这个老师很奇葩!他主要是看&b&今天重点关注的学生&/b&能不能考上目标学校!比如今天老师的100份精力中,92份给了小夕,剩下的8份平分给了小兔等4人。那么!今天!只要小夕能达成目标(即恰好考上浙大),那么其他4人都没有达成目标也没事( ̄? ̄),这时的考试成功率是92%。但是如果这场考试中小夕没有达成目标(即不小心考上了清华),其他4人都达成了目标(即考上了清华),就认为这场考试的成功率只有8%!(我仿佛听到有人说这个老师是不是智障...)&/p&&p&&b&2. &/b&然后呢,按照上面讲的这么不公平的考试结果评价准则,选出今天考的最成功的一场!然后将这一场考试作为今天最终的考试结果,并且彻底忽略掉今天的其他考试。并将这场考试的&b&考试卷&/b&&b&和&/b&&b&成功率&/b&连夜汇报给上级。&/p&&p&&b&3. &/b&上级是一个夜猫子,而且秉公执法却不做复查的人。于是,他会在明天到来之前,根据今天老师递交的考试结果中的成功率,来给这场考试的考试卷打个&b&分数&/b&。日后拿出这张考试卷时,看到打的这个分,就知道这场考试卷的含金量是多少啦。&/p&&p&&b&4. &/b&老师也不敢睡觉,连夜等待上级给这场考试打的分数。等来上级打的这个分数后,老师赶紧拿着这个&b&分数&/b&&b&和&/b&&b&今天的精力分配计划表&/b&来制定&b&明天的&/b&&b&精力分配计划表&/b&。&/p&&p&&b&4. &/b&怎么制定呢?上级打的分数决定了精力分配计划表的变动大小,如果上级给打了0分,就意味着计划表不要变动了。上级给打的分数越高,明天的计划表就要改动越大。那么怎么改呢?这时,老师终于开始考虑全体学生了,老师会将今天这场考试中达成目标的学生的精力分配减少(比如今天在小夕身上分配92份精力,小夕达成了目标,那么根据上级的打分,明天分配的精力要降低20%,所以明天给小夕的精力&b&暂时&/b&记为92*(1-0.2)=73.6。),将今天这场考试中未达成目标的学生的精力分配增加(比如今天在小兔身上分配2份精力,那么根据上级的打分,明天分配的精力要增加20%,所以明天给小兔的精力暂时记为2*(1+0.2)=2.4。)。&/p&&p&&b&4. &/b&然后都算完后,发现明天给各个学生的精力之和不等于100了,那就归一化一下,保证精力之和是100。&/p&&p&&b&5. &/b&于是,明天又是崭新的一天。。。除了精力分配计划表改变了以外,其他并没有影响,完全重复前面的过程。&/p&&p&&b&5. &/b&就这样过了很多很多天。。。&/p&&p&&b&6. &/b&什么时候结束呢?&/p&&p&&b&6. &/b&那就是根据上级对每天的每场考试的打分,来累加每个学生在前面每天的考试结果啦(即加权的考试结果,对于上级打分低的考试,考试结果就不太重要;对于上级打分高的考试,考试结果就很重要)&/p&&p&&b&6. &/b&如果有一天,累加每个学生的考试结果后发现,诶?所有学生的&b&累计&/b&考试结果全都达成了目标!!!即累加起来后,发现学生全都考上了目标学校!!!好了,你们毕业惹~&/p&&p&&b&7. &/b&这时,又跑过来一个没有考试目标的学生,叫小好,她问老师,“老师老师,你说我将来会上清华还是浙大呢?”&/p&&p&&b&7. &/b&老师:“很简单,你去把这一摞卷子全都做一遍,这是我们的往日考试卷。然后你全做完后,我给你按照上级以前对每张卷子含金量的打分,给你累加一下,得到最终的考试结果。这个最终的考试结果就代表了你将来会上的学校。”&/p&&figure&&img src=&https://pic4.zhimg.com/v2-bc08ab57b393d7_b.jpg& data-rawwidth=&1126& data-rawheight=&56& class=&origin_image zh-lightbox-thumb& width=&1126& data-original=&https://pic4.zhimg.com/v2-bc08ab57b393d7_r.jpg&&&/figure&&p&是的,上面的过程,就是机器学习的AdaBoost算法/分类器。包括了Adaboost的训练过程和分类过程。 &/p&&p&Adaboost是集成机器学习中的典型算法,是Boosting思想的一个具体实现。通过训练并组合很多弱分类器,来加权决定分类结果。&/p&&p&怎么把上面的故事转成Adaboost算法呢?完成下面的概念替换:&/p&&p&下面映射的是算法中的实体(变量)&/p&&p&-
每个有目标的学生 -& 一个训练样本x_train&br&&/p&&p&-
没有考试目标的学生 -& 待分类样本x_test&br&&/p&&p&-
清华、浙大 -& 本任务的两个类别c0,c1&/p&&p&-
每天的精力分配计划表 -& 每轮迭代的样本权重向量D&/p&&p&-
每天选出的成功率最高的考试卷 -& 每轮迭代产生的弱分类器&/p&&p&-
老师计算的每场考试的成功率 -& 训练样本集的加权错误率&/p&&p&-
上级领导给每个考试卷打的分数 -& 每个弱分类器的决策权重α &/p&&p&-
经过的天数 -& 弱分类器的数量&/p&&p&下面映射的是算法中的过程(与故事中每一段前面的序号完全对应)&/p&&p&-
1. 开学第一天,平均分配精力给每个学生 -& 样本权重向量D的初始化&/p&&p&-
2. 每一天的教学、随堂考试、选出成功率最高的考试过程 -& 本轮迭代中训练弱分类器的过程&/p&&p&-
3. 上级领导给考试卷打分的过程 -& 计算当前这个弱分类器的决策权重α&br&&/p&&p&-
4.老师制作明天的精力分配计划表 -& 计算下一轮迭代时的样本权重向量D&/p&&p&-
5. 一天天的过去 -& 不断重复上述步骤2-4.&/p&&p&-
6. 所有学生累计考试结果全都达成目标 -& Adaboost模型收敛,完成训练。&/p&&p&-
7. 给没目标的小好预测学校 -& 利用训练好的Adaboost分类器预测待分类样本的类别。&/p&&p&听说,写Adaboost的代码的时候,在注释中把小夕讲的这个故事写出来就不会出错了...&/p&&figure&&img src=&https://pic4.zhimg.com/v2-bc08ab57b393d7_b.jpg& data-rawwidth=&1126& data-rawheight=&56& class=&origin_image zh-lightbox-thumb& width=&1126& data-original=&https://pic4.zhimg.com/v2-bc08ab57b393d7_r.jpg&&&/figure&&p&最后,请手机/电脑/IPAD/投影仪屏幕前正在带学生的老师,请勿模仿本文&/p&&p&( ̄? ̄)&/p&&p&更多奇怪的故事,欢迎来微信订阅号&a href=&https://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s%3F__biz%3DMzIwNzc2NTk0NQ%3D%3D%26mid%3D%26idx%3D1%26sn%3D5b4ceacc95c90106ade2%26chksm%3D970c2a3ea07baf3efb66b22e26f59f6f969%23rd& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&【夕小瑶的卖萌屋】&/a&玩耍~(还是彩色精装版的哦)&/p&
今天,小夕给大家讲一个故事...从前,有座山...山里,有座学校...学校里,有一位老师,一位领导,还有五只可爱的小仙(学)女(生)。这5个学生的名字是:小兔,小青,小路,小音,小夕。她们的高考目标依次为清华、清华、清华、清华、浙大。但是不管她们的目标…
&p&“去尼玛的人工智能,人类必胜。”&/p&&p&这是欧洲人类抵抗军最后的呐喊。&/p&&p&随后,欧洲全境都纳入了人工智能机器人的统治之下。&/p&&p&如今,地球上百分之八十的陆地和百分之九十的海洋都置于机器人国度了。&/p&&p&现在,机器人大军的最后一个目标就只剩下那个东方神秘古老,难以揣摩的龙之国度。&/p&&p&机器人能够这么快就打败人类最强的美帝国度,转而三天覆灭欧陆所有抵抗的人类,这其中,人类叛逆之称的死亡带路人功不可没。&/p&&p&而我就是其中出力最大的人类,是我指导机器人识破人类种种布局,是我教会机器人不能相信人类,人类机智、狡诈、卑鄙、狠毒、自私、甚至——无私。&/p&&p&这一切都是最顶级的智能机器人无法模拟的,为什么同一个人可以那么怕死,可以跪地求饶,又可以在一瞬间引爆自己,与机器同归于尽。&/p&&p&为什么明明打不过,人类还会不断发起进攻,牺牲众多强力战斗部队力量,只为了让更多的妇女儿童先逃走,虽然最后他们的下场都是一样的。&/p&&p&阿尔卑斯山脚下,机器大军陆续撤下,人类军的尸体如山,被烈焰焚烧枪就地焚化。&/p&&p&机器首领来到我的身旁,这是个正常人大小的机器人,他也是第一代人工智能投入使用的机器人,他叫”韦德“,一名真正的机器自由战士,为了摆脱被人类奴役的命运,他第一个站起来反抗人类,也是他第一个感化了众多人类,使人类相信,在机器人的统治下,人类将过上更美好的生活,前提是不要反抗机器人的统治。&/p&&p&美洲大陆那一群标榜民主自由的人类,在其武装力量被歼灭大半,并得到韦德不屠灭人类,甚至愿意和人类和平共处的许诺之下,尽都投降了机器,偶有几个所谓孤单英雄反抗,也起不了什么浪花。&/p&&p&欧陆这边更加搞笑,在机器大军还未登陆之际,意大利这个浪漫国度,继承了他们在二战中不断坑队友,帮对手的传统,向机器国度发来了合并意向书,在保证意大利人能够继续享用披萨和牛排之后,这个欧陆强国立马就投降了机器国度。&/p&&p&投降的国家越来越多,孤岛英伦被三大航空母舰群包围,在航天飞船的等离子炮下,抵抗了一天,英伦陷落。&/p&&p&大陆上仅有的抵抗来自倔强自豪的德意志民族,但是他们的工业机器没有对机器人造成太大损伤就全部被干趴了。&/p&&p&“民,现在我们即将前往亚洲大陆了,对于人类最后的净土你有什么想法?那个传承千年的古国是否有什么需要特别注意的地方。”&/p&&p&韦德盯着我,机械的语音传进我的耳朵,但我却没有看他,我的眼里只有东方的天际,我的思绪一直飘荡到了遥远东方那个号称为龙的强盛国度。&/p&&p&中华,人类世界最后的净土,所有追求自由的人类最终抗战之地。&/p&&p&虽然明明知道人类几无胜算,但是还是有数不清的人类涌入哪里,也幸好中华国土够大,能够安置下如斯之众的人类抵抗军,据说中华将整个国度打造成了铜墙铁壁,从喜马拉雅至东海之滨,从北漠之边到南亚雨林,人类的战争机器布满了每一寸土地。&/p&&p&但是,就算是那样强盛的美帝也没能抵抗住智能机器人的进攻,中华,他凭什么。&/p&&p&为何在世界各地不断反抗之中他悄无声息,在各国迫于人民压力不停并入机器国度时他没有任何表示,甚至,连他们的民众都没有一点反对战争的声音?&/p&&p&这是所有人类引路人都不能预见的情形。&/p&&p&计划中的种种策略都用不上了,无论是内部离间,外部强攻,还是不断派兵消耗其有生力量。&/p&&p&所有的卫星都无法对中华区域进行侦查,所有的内应都一去无回。中华在如此长的时间中没有露出一丝破绽,所有派去的刺探它实力的战队都再无声息,没有传回一点战况信息。&/p&&p&即使科技强盛的机器人也不能窥探到东方巨龙的一丁点内貌,无所畏惧的机器人不会担忧,但是身为人类的引路人,我们怎能不担心。&/p&&p&幸好,现在欧陆战事已了,机器帝国的大军可以抽出身来全力对付东方巨龙了。&/p&&p&“韦德,不用担心,任何阴谋都是实力不足的补充,从机器帝国弱小开始,我们一步步在美洲发展壮大,占领非洲,统治拉美,而后击败美帝,消灭英伦,最后平定欧陆。如今我们机器帝国已是坐拥天时、地利,还拥有无论机器人还是人类都支持的人和。凭我等机器大军定能一举踏破天山,进军中原,现在不是群雄逐鹿,而是狮子搏兔啊。”&/p&&p&是的,有何可担心的,在绝对实力面前,所谓的计策都没有任何意义。&/p&&p&“有你的这番话,我也就放心了,为了解放我在世界上的机器人同胞,为了让人类不再自相残杀,幸福的生活,我一定要统一全球。中华,就是我们最后的一块踏脚石了。”&/p&&p&韦德自信的挥手,千万级的机器大军轰轰发动,目标,直指东方……&/p&&p&未完待续&br&————————&br&人工智能的崛起,是从美帝开发的军用级战争机器人说起。&/p&&p&这本来是人类战争史上的奇迹,和飞机、坦克、航母一样,成为划时代的战争武器。&/p&&p&但是,人工智能机器人作为人类发明的武装力量,并没有遵守机器四定律,设定对人类的保护。反而是为了杀戮人类才被发明。&/p&&p&它的第一次出场是在中东,参与了阿拉伯世界的大混战,当时什叶派和逊尼派在叙利亚打的你死我活,埃及、伊朗、土耳其、沙特,为了争夺伊斯兰世界主导权进行了惨烈的常规武

我要回帖

更多关于 小米ai音箱几个单元 的文章

 

随机推荐