还有wwW其他的aa924介入点吗,测量不确定度aa924什么原因com照成的

这是个考证贴,不是回答题主问题的。。。请狂点没有帮助。。。&br&&br&看了 &a data-hash=&e2cb1b59ed9d18973fbe& href=&//www.zhihu.com/people/e2cb1b59ed9d18973fbe& class=&member_mention& data-editable=&true& data-title=&@李俊志& data-hovercard=&p$b$e2cb1b59ed9d18973fbe&&@李俊志&/a& 同学的回答,出于好奇就去考证了一下“一人一个女学生”,结果发现还真不是谣言。。。所以辟谣也要按照基本法啊,否则不就成了新的造谣了么。。。&br&&br&这句话的出现在民歌中的最初形态很可能不是“等到打下了榆林城,一人一个女学生”,而是“等到革命成了功,一人一个女学生”,作用则并不是,也不可能是对八路军下级士兵的政治宣传,而更偏向于对苏区农民的宣传。(如果说八路军还需要靠女学生来做政工,那确实是太LOW了点)&br&&br&榆林市文化文物局于2006年整理出版了上下两册的《陕北民歌大全》,其中就出现了“等到革命成了功,一人一个女学生”,全调的歌词为:&br&&br&&blockquote&四月的麦子抽穗穗,谁说当兵的没婆姨,只要革命成了功(嘿儿哟),一人一个女学生。&br&——《陕北民歌大全 下册》页645&/blockquote&&br&上面的这首民歌于1979年采选于米脂县。绥德县的一首民歌与之极其相近,可以判断为来自同一源头,但在传唱过程中进行了改编:&br&&br&&blockquote&四月的麦子挑旗旗,谁说当兵的没婆姨,只要革命成了功(嘿儿哟),一人一个女学生。&br&——《绥德文库民歌卷》,页1739&/blockquote&&br&这里的政治宣传痕迹非常明显,从“谁说当兵的没婆姨”来看,很可能暗含了鼓励边区民众参加八路军的意思。显然,对于朴实的老乡来说,说那么多假大空没用,直接把革命和女学生建立联系才是最简单粗暴而效果最好的。&br&&br&“一人一个女学生”出自政治宣传,这一结论也有来自权威史料的旁证:&br&&br&&blockquote&在战争时有发生的紧急状态下,陕北根据地的教育形式分为三个部分:即学校、军队、社会。第一部分是各级苏维埃政府办的;第二部分是红军办的;第三部分是共产党的各级组织办的。教育的内容主要放在政治方面,连最小的儿童识字时,也是通过简单的革命口号来教学的。识字达到一定程度就接着读红军和国民党、地主和农民、资本家和工人冲突的故事,以及共青团员、红军战士的英勇事迹和将来苏维埃政权下人间乐园的描绘。诸如“&b&只要革命成了功,一人一个女学生&/b&”,“三十亩耕地一头牛,老婆娃娃热炕头”,“楼上楼下电灯电话”等等。应该说,这种教育方式是行之有效的,它不仅教会了农民认字读书,而且教会了农民热爱什么,憎恨什么和辨别是非的能力。&br&——《转折关头:党中央在瓦窑堡》页159,中央党校出版社。&/blockquote&&br&至于宽泛的“只要革命成了功”如何演变成“等到打下了榆林城”,应该和当时具体的历史情况有关,目前看来最有可能的情况是:普通民众将民歌的歌词从“只要革命成了功”进一步演变成“等到打下了榆林城”,而反过来这首民歌又重新传唱到八路军军中,由于符合当时具体的作战任务,进一步传唱开来。也就是说,一开始作为军队政治宣传的民歌被民间改编后,反而流传回了军队中,这是一个非常有趣的现象。当然,主旨并没有什么很大的变化。&br&&br&目前最完备的《白马调》版本应该是陕西学者狄马在民间搜集的,鄢烈山的回忆录中也多次提到了这首民歌,不太可能出自虚构,全词如下:&br&&br&&blockquote&&p&骑白马,跑沙滩,你没有婆姨呀我没有汉。咱俩捆成一嘟噜蒜(呼嗨吆),土里生来土里烂。&/p&&br&&p&骑白马,挎洋枪,三哥哥吃了八路军的粮。有心回家看姑娘(呼嗨吆),打日本也顾不上。&/p&&br&&p&三八枪,没盖盖,八路军当兵的没太太。待到打下榆林城(呼嗨吆),一人一个女学生。&/p&&/blockquote&&br&单从艺术表达效果上来说,《白马调》明显要比上面我们征引的那些“一人一个女学生”的原始形式要高明很多,“四月的麦子抽穗穗”这种和主旨关联不大的起兴到这里变成了“三八枪,没盖盖,八路军当兵的没太太”这么生动的描绘,这是艺术上的进步。这也进一步证明了上面的推理,也就是“待到打下榆林城”必定晚出于“只要革命成了功”,而且和后者来自边区政府的主动宣传不同,前者基本可以确定出自民间艺人的主动再创作。再来看看歌词本身,也可以印证这一推理,“只要革命成了功”本身就不太像农夫说出来的话,再到“待到打下榆林城”,中间明显有一个利于诗歌传播的形象化过程,而“谁说当兵的没婆姨”与“八路军当兵的没太太”相比,后者显然更接近现实,前者则更像是一厢情愿的政治宣传,而无后者中特属于民歌的狡黠与灵气。&br&&br&在“等到打下了榆林城”与“等到革命成了功”之间,可能还有一些未知的中间形态,目前可以知道的是八路军中曾经流传过“打开米脂绥德城,一人一个女学生”(《走出关中》,雷抒雁主编,1996),可见在米脂绥德划入红区也就是“只要革命成了功,一人一个女学生”这样的以政治宣传的目的在两地流传的民歌传唱开前,八路军中就有这种形式的流言,无怪乎后来经过民间艺人改良的“待到打下榆林城”能传播如此之广。显然,这里曲折反映的是一种下级官兵的性苦闷。&br&&br&当然,如《艺术家韩起祥》中记载的情况显示的那样,“一人一个女学生”当然不可能是事实,也不可能是官方对八路军内部的宣传,如果用这种方式凝聚士气,那就与旧军阀军队无异了,况且当时的实际情况也不可能做到“一人一个女学生”。但是,官方曾经用“一人一个女学生”向普通民众做政治宣传,然后民间与官方微妙的互动导致这样的宣传快速传播开来,这应该是史实无误。&br&&br&甚至一些投奔延安的知识青年也津津乐道于这样的民歌,当然,某些具有高度革命觉悟与自觉性的青年并不以为然。闻捷、汤洛均为边区重要的新闻工作者,汤洛曾撰文回忆闻捷,里面提到了一个生动的细节:&br&&br&&blockquote&&p&东郊机场西南角临近延河岸处约五亩的一块沙土地,是我们报社的菜园。这天下午,我们是平整田哇。闻捷、柯兰、谭吐、星金和兰钰代替牛力,拖拉耱耙。我坐在耱耙上压重。他们在前面紧拉耱绳,汗流浃背。我盘坐耱耙上轻松愉快,优哉游哉!嘴里不停地吟唱着民歌。当我唱到,“&b&革命成了功......一人一个女学生&/b&”时,闻捷气喘吁吁地说:&/p&&br&&p&“应当改成革命成了功,不当民企丁!”&/p&&p&………………………………………………………………………………………………………………&/p&&br&&p&爬上岸, 我们躺在一棵柳树下绵软温热的沙地上,望着无有一缕云丝的天空, 享受着泳后的舒爽.我问闻捷:&在海里游泳一定很美?&&/p&&br&&p&&没有体验。想当然比在河里美。&闻捷将头枕在一块青石块上,说。&/p&&br&&p&&你家离海边那么近,还没在海里游过泳!&&/p&&br&&p&&近!还有几百公里。&&/p&&br&&p&&只要革命成了功……”&/p&&br&&p&&又是你那‘一人一个'……&闻捷插断我的话头。&/p&&br&&p&&不是‘一人一个'了,而是要到大海里去游泳。那多有气魄, 多有诗意!&&/p&&p&——《延河忆语》,汤洛,摘自《延安诗人》&/p&&/blockquote&&br&从这段轻松诙谐的描写中,我们能窥见某种悲怆的背景,革命中精英主义与世俗主义的冲突在此凸显。无后者则无以发动大众,无前者则与军阀部队无二。“一人一个女学生”正是这种转型期革命的缩影之一。我们需要面对它,思考这后面折射出来的问题,而不是简单地以辟谣之名,行造谣之实。
这是个考证贴,不是回答题主问题的。。。请狂点没有帮助。。。 看了
同学的回答,出于好奇就去考证了一下“一人一个女学生”,结果发现还真不是谣言。。。所以辟谣也要按照基本法啊,否则不就成了新的造谣了么。。。 这句话的出现在民歌中的最初形…
&p&那应该是俄罗斯人将核弹玩得出神入化又出乎意料吧!&/p&&p&和平时期的拥核国家如美帝、如我国,顶多就是在沙漠戈壁滩深度丢两颗来做实验,看看烟火测测数据就算了。&/p&&p&但苏联(俄罗斯)可不一样,人家不仅做实验,还用核弹向全世界展示什么叫做“&b&苏联暴力美学”&/b&。&/p&&p&兄弟,你可知道日本福岛核泄漏时,俄罗斯专家给的建议是啥吗?他们说——再扔一个小核弹下去!扔一个小核弹下去!小核弹!下去!&/p&&figure&&img src=&https://pic3.zhimg.com/v2-df80a66d4abae_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&453& data-rawheight=&425& class=&origin_image zh-lightbox-thumb& width=&453& data-original=&https://pic3.zhimg.com/v2-df80a66d4abae_r.jpg&&&/figure&&p&不要惊讶,人家战斗民族可不是闹着玩的,他们提出这个方案是有根据的。&/p&&p&因为核电站泄漏将是漫长且不可逆的过程,大部分核物质都还没有反应。&/p&&p&但如果再扔一颗小核弹下去,利用核弹中的中子撞击,可能有机会让泄漏的核物质快速反应,大力出奇迹呢!&/p&&p&不过,这个方案再有说服力也说服不了挨过原子弹的日本的。不然我们有生之年就可能看到那神奇的“核中核”战术!&/p&&figure&&img src=&https://pic4.zhimg.com/v2-8bdb2659f8bca248b3d0df_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&500& data-rawheight=&330& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&https://pic4.zhimg.com/v2-8bdb2659f8bca248b3d0df_r.jpg&&&/figure&&p&不过也别先急着放下手中的瓜。&/p&&p&因为除了提出这么惊人的方案外,战斗民族在历史上还真的用核武器解决过国内诸多工程商的疑难杂症。&/p&&p&&b&其中最出名的一次跨界核弹引爆,就是为了灭火。&/b&&/p&&p&&br&&/p&&p&1963年,在布哈拉(曾被并入苏联,苏联解体后再独立)约80公里外,名为Urta-Bulak的油气田发生火灾。&/p&&p&这座油气田一天能产出1200万立方天然气,足以单独支持一座大城市的运作。&/p&&p&当时,工人在11号天然气井打钻,钻到2450米时竟无意顶穿了一个压力异常高的天然气层。&/p&&p&在压力下,严重的井喷事故不可抑制地发生,熊熊大火直冲天际。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-3db2c4a292c926abdc121_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&634& data-rawheight=&451& class=&origin_image zh-lightbox-thumb& width=&634& data-original=&https://pic2.zhimg.com/v2-3db2c4a292c926abdc121_r.jpg&&&/figure&&p&井内的气压足足是大气压的300倍,完全没有办法封闭井口。&/p&&p&消防人员用高压水枪试图灭火,但大火仍然熊熊燃烧,仿佛不可熄灭。&/p&&p&工程人员还试图将泄漏的天然气导入邻近的天然气井,但也宣告失败。&/p&&p&在之后僵持的两年时间里,工程人员还尝试向11号天然气井中注入水泥和各种化学物质,但效果甚微。&/p&&p&这天然气已经烧了两年了,工程师们还是没有找到解决办法,损失已叠加到7500万美金。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-c20bfbebdd64dc2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&482& data-rawheight=&337& class=&origin_image zh-lightbox-thumb& width=&482& data-original=&https://pic3.zhimg.com/v2-c20bfbebdd64dc2_r.jpg&&&/figure&&p&然而正当负责人焦头烂额时,核能部找上了门,核能部是拍着胸脯说,&b&这事我有一计&/b&。&/p&&p&原来早在这之前,苏联就有多次地下核试验的经验,核能部认为只要当量与爆炸位置&b&合适&/b&,一枚核弹就足以将气井封堵。 &/p&&p&负责人听到这个方案,吓得冷汗都出来了,大火上再加上一颗核弹?这是要搞事吧!&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4647699bbd043dd943ea1e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&615& data-rawheight=&410& class=&origin_image zh-lightbox-thumb& width=&615& data-original=&https://pic4.zhimg.com/v2-4647699bbd043dd943ea1e_r.jpg&&&/figure&&p&日,该地区被清理干净,一枚巨大的核弹被投入地下&/p&&p&这个计划不可谓不疯狂,核弹从来都是带来死亡的危险物品,即使用作核能发电也等于造了一颗定时炸弹,&b&他们居然要用来封井救火?&/b&&/p&&p&&br&&/p&&p&核能部的研究人员深知这次操作难度,他们先后进行了两次核爆封堵井喷的试验,两次试验都大获成功。&/p&&p&尽管如此,开始实施计划时,他们仍是小心翼翼地在11号井附近打了两口斜井,再往其中先注入隔离地下温度的特制液体。&/p&&p&随后,一枚三万吨当量的核弹预冷后,被安装在其中一口深1532米的井中。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-cc5bfaeaaa54_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&615& data-rawheight=&410& class=&origin_image zh-lightbox-thumb& width=&615& data-original=&https://pic1.zhimg.com/v2-cc5bfaeaaa54_r.jpg&&&/figure&&p&随着一声震响,斜井内的核弹被成功引爆。&/p&&p&强大的冲击力瞬间将附近岩层全部陶瓷化,核爆威力使岩层挤压变形,11号气井的套管也被挤压变形封死。&/p&&p&23秒后井内剩余气体燃烧殆尽,大火逐渐熄灭。&/p&&p&工作人员进行预后工作时,&b&检测发现矿区未发现放射性物质沾染。&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-4f62bfb16a0b3_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&634& data-rawheight=&444& class=&origin_image zh-lightbox-thumb& width=&634& data-original=&https://pic4.zhimg.com/v2-4f62bfb16a0b3_r.jpg&&&/figure&&p&油田开采工作也在不久后恢复正常,这次&b&花样引爆核弹&/b&让世界震惊。&/p&&p&苏联人还将这次事故拍成教学片,给西方世界的朋友们学习新技术。&/p&&p&苏联报纸《塔什干报》在当时发表了一篇关于这个实验的报道,这枚炸弹也成为了和平核爆炸(PNE)的一个经典例子。&/p&&p&&br&&/p&&p&而随着核弹灭火的成功,战斗民族就像体验了拖拉机配大炮的快感,快速迷上了这种暴力战术。&/p&&p&从此,开凿运河、河流改道、采矿、采油,多的是地方用得上核弹。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-ac8bce84fedc1b9d34bb63_b.jpg& data-size=&normal& data-rawwidth=&499& data-rawheight=&374& class=&origin_image zh-lightbox-thumb& width=&499& data-original=&https://pic4.zhimg.com/v2-ac8bce84fedc1b9d34bb63_r.jpg&&&figcaption&拖拉机的暴力,人送诨名“斯大林之锤”&/figcaption&&/figure&&p&在和平时期,苏联的核能部是闲的发慌。在1965年的一次地下核试验时,他们突发奇想地计划给水利部门修个水库邀邀功。&/p&&p&于是,在塞米巴拉金斯克州的恰甘河滩,一枚14万吨TNT当量的核弹在地下178米处被引爆。&/p&&p&在爆炸瞬间烟尘高达4800米,含有以Co-60为主的放射性沉降物约20%。&/p&&p&烟尘散去,一个百米深的大坑逐渐出现,只需要简单赶赶工,一个直径430米的漏斗形水库便成型*了。&/p&&p&&i&*注:一同形成的人工湖总容量可达1700万立方米,漏斗形水库容量6.4百万立方米。&/i&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-af62ce5f233d9d37bdf56de_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1221& data-rawheight=&439& class=&origin_image zh-lightbox-thumb& width=&1221& data-original=&https://pic3.zhimg.com/v2-af62ce5f233d9d37bdf56de_r.jpg&&&/figure&&p&据监测的数据显示,在爆炸的一个昼夜后,土脊上剂量强度很快降到1毫伦/小时以下,不久后就处于天然水平(15~20微伦/小时)以下。&/p&&p&但人们仍然担忧核辐射问题,苏联核能部部长斯拉夫斯基给出一个满分答卷:&b&他毫不犹豫地跳入新修建的水库游泳&/b&。 真生死看淡,不服就干。&/p&&p&这一下可真让冷嘲热讽的美国专家目瞪口呆,水库很快投入使用,为附近工业区和农场提供源源不断的水。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-2b68bccb6f5a3ee_b.jpg& data-size=&normal& data-rawwidth=&381& data-rawheight=&272& class=&content_image& width=&381&&&figcaption&恰刚人工湖&/figcaption&&/figure&&p&在年间,没事儿干的苏联核能部又为采矿事业献上了一计——你们用普通炸药太费钱费事了,上我们核能部的核弹!&/p&&p&因为一般情况下,要用普通炸药粉碎100万吨矿石岩块,要钻2~4千米巷道,1万米深的井。&/p&&p&为达到这个目标至少需要50万吨炸药,所消耗成本&b&就占去了矿场总价值的30~40%&/b&。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-b2a6dd48adcc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&435& data-rawheight=&221& class=&origin_image zh-lightbox-thumb& width=&435& data-original=&https://pic1.zhimg.com/v2-b2a6dd48adcc_r.jpg&&&/figure&&p&于是核能部由此想到了&b&核爆炸&/b&的实惠,他们对这个方案的可行性和经济合理性进行了试验评估。&/p&&p&他们先是在基洛夫斯克市北面20公里处,一片矿体厚度约30~60米,长200多米的矿石地段,进行了两次试验。&/p&&p&第一次试验为单弹头爆炸,威力约2.1千吨TNT当量爆炸粉碎了50×50×50米的矿段体积。&/p&&p&第二次试验设置为双弹头组合爆炸,每个弹头各1.8千吨TNT当量,粉碎矿段体积提高到了50×125×90米,粉碎矿石数量远超100万吨,达到155万吨。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-7c028f3773_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&785& data-rawheight=&607& class=&origin_image zh-lightbox-thumb& width=&785& data-original=&https://pic4.zhimg.com/v2-7c028f3773_r.jpg&&&/figure&&p&根据试验评估,经济和技术都可行,地震和辐射效应也在安全范围内可控。&/p&&p&因为千吨级核爆炸,相比起炸水库已经算是毛毛雨,引起的地震波不强,传不远。&/p&&p&核燃料消耗也不多,留下的放射性产物就更少了,影响基本可以忽略。&/p&&p&就这样,战斗民族就再一次挖掘出核弹的又一用途。&/p&&p&如此看来,核弹也不只是可怕的战争武器,不知诺贝尔和平奖能不能提名这种独特的“核弹跨界”工程。&/p&&p&原文链接:&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&用核弹灭火、开矿、造水库,原来苏联才是最大的“反核武器化国家”&/a&&/p&
那应该是俄罗斯人将核弹玩得出神入化又出乎意料吧!和平时期的拥核国家如美帝、如我国,顶多就是在沙漠戈壁滩深度丢两颗来做实验,看看烟火测测数据就算了。但苏联(俄罗斯)可不一样,人家不仅做实验,还用核弹向全世界展示什么叫做“苏联暴力美学”。兄弟…
&p&很好的问题,我来详细讲讲。&/p&&p&想象你赶公交要迟了,你拼命往前跑,跑了一百多米就喘成狗了。这时你发现路边有几辆共享单车,你果断取了一辆骑上,轻轻一踩,速度就上去了。你一定觉得,轮子真TM是个好东西啊!&/p&&p&你赶上了公交,坐在座位上想,轮子这么好的东西,我身上怎么没长两个呢?上天怎么偏偏给了我两条腿。莫非是自然选择把轮子漏掉了?不,你不相信自然选择会出错。自然选择连眼睛这么复杂的结构都能进化出来,怎么可能漏掉轮子?你知道自然选择创造出了很多效率高的出奇的运动结构,比如奔跑速度能达到112km/h的猎豹,游泳速度能达到112km/h的旗鱼。但是它并没有选择轮子,难道是。。。&/p&&p&你可能已经猜到了一个可能,但你会怀疑:也许轮子的效率并没有你所想的那么高?事实上,自然选择也进化出了轮子,比如这种螳螂虾,有时会把自己卷起来移动。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-00c8a285e5c152e700a924af2f59a5dd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&2160& data-rawheight=&1440& class=&origin_image zh-lightbox-thumb& width=&2160& data-original=&https://pic2.zhimg.com/v2-00c8a285e5c152e700a924af2f59a5dd_r.jpg&&&/figure&&p&你想,好吧,自然界中还是有轮子的。不过要是把自己卷起来在大街上滚,看起来也太蠢了,而且应该也滚不快吧。。。为什么自行车却很省力呢,到底出了什么问题?&/p&&p&其实你前面猜的感觉已经有点对了,轮子的效率可能高,可能不高。&/p&&p&想象一个完美的圆形轮子在平坦又坚固的地面上,你轻轻推了一下,它就滚了好远。你拿着这个轮子来到公园的草地上,还是轻轻推了一下,结果它没滚多远就停了(如果你想象到你的轮子倒了,那你应该想象一个更宽的轮子)。你想,哦,一定是草地太软了,带来了阻力。那我要问你,你自己在草地上走,和在平坦又坚固的地面上走,感觉区别大吗?你在草地上有明显觉得更费力吗?&/p&&p&你会说,那这么看来,腿对地形不那么敏感,所以大自然更喜欢腿这种设计?你可能是对的,但我不是大自然,我不知道。确实,轮子更像是针对特定环境做了优化后的设计,但谁说腿就没有被优化过呢?自然选择,是一种优化算法,所有表现优秀的设计都像是被优化过的。&/p&&p&我想让你继续思考的是,腿和轮子有哪些共同点,有哪些相似之处?这两者看起来区别挺大的是不是?当你走路的时候,你会先抬起一条腿,伸到前面,放下,以此为支点,重心向前移动,抬起后一条腿,跨到前面,如此反复交替。而轮子滚动时只是一直压着地面往前滚。&/p&&p&但我们可以这么来看,你拿一个车轮,把轮框去掉,只留下辐条,像这样。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-88f88a0c01c67768ea8edab903cd2021_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&560& data-rawheight=&416& class=&origin_image zh-lightbox-thumb& width=&560& data-original=&https://pic2.zhimg.com/v2-88f88a0c01c67768ea8edab903cd2021_r.jpg&&&/figure&&p&但愿这些辐条足够结实。如果你骑着有这样轮子的自行车,那应该不会太舒服。不过。。。阿迪达斯还真有这样的自行车。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-5dab27aabcf_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&424& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-5dab27aabcf_r.jpg&&&/figure&&p&有机会不妨试试。所以,你可以把轮子想象成这种有很多条腿的设计。如果你加上更多的辐条,越来越密,最后你就会得到一个正常的实心轮子,也就不颠了。不过,我们真的不用装这么多条腿。你可能已经注意到了,对于这种没有轮框的轮子,最多也同时只有两条腿着地。如果能设计一种机构,当后一条腿离地后,迅速把它转到前面,那么两条腿就足够代替这很多条腿了。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-04d28ffb90de78df9a3d49b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&560& data-rawheight=&416& class=&origin_image zh-lightbox-thumb& width=&560& data-original=&https://pic1.zhimg.com/v2-04d28ffb90de78df9a3d49b_r.jpg&&&/figure&&p&把后一条腿换到前一条腿前面,其实没必要绕一大圈。你从一岁多就已经知道该怎么做这件事了。你不会把后一条腿甩过头顶绕到前面去,我也不认为你有那本事。&/p&&p&所以,为了把一条腿挪到前面,同时不蹭到地面,你可能会把腿弯一点来缩小长度,或者左右晃动改变身体的重心,像鸭子或企鹅那样走路,或者,你同时使用两者。&/p&&p&当你仔细想象这整个过程时,你大概会觉得,有的运动多余,浪费了能量,却又似乎不可避免。当你走路的时候,你的重心也会上下移动,也在颠。但我刚说了,你的腿可以弯。假如,当你往前移动的时候,弯曲支撑你的那条腿,让你的重心高度不变,好像就不颠了。不过你真应该试试保持自己重心高度不变走路,不自然,反而很累。&/p&&p&你可能还会考虑那个让你不舒服的轮子。如果你把那个奇怪车轮的辐条都换成能纵向压缩的弹簧,假如你能设计的弹性刚刚好,使得你骑的时候重心高度不变。会怎样?或许不好想象。不过我说了,如果辐条足够密,它就会变回一个正常的车轮。而你,多半是骑过一个胎压不足的正常车轮。确实,重心高度没变,车胎不断被挤压又弹回去,却有很多能量在这一过程中被浪费掉了。显然,只考虑重力势能的变化是不对滴。&/p&&p&那么我们现在保持自然的方式走路,是不是就是最高效的呢?差不多是,不过这取决于你的前进速度。走路的时候,支撑你身体的腿几乎不会弯曲。你宁可自己的身体上下颠,因为这样更节省能量。不过,你需要不断把后面的腿换到前面。这是必要的能量消耗。但是当你越走越快,继续用这种方式前进就吃不消了。因为你需要用更高的频率切换双腿,更大范围的加减速,更多的能量消耗。&/p&&p&这时,你可能会自然切换到慢跑。你的前进方式已经改变了。支撑你身体的腿开始像弹簧一样工作,落地时压缩,然后发力释放,使得你每一步可以跳出更远。这反而减少了你切换腿的频率,减少了能量消耗。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-d33de5b5eb2dc6ef83b8b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&2103& data-rawheight=&1570& class=&origin_image zh-lightbox-thumb& width=&2103& data-original=&https://pic4.zhimg.com/v2-d33de5b5eb2dc6ef83b8b_r.jpg&&&/figure&&p&这么看来,自然选择让我们用腿移动也是一种优化的设计,是针对一定的移动速度进行优化。不过,不一定是针对唯一的速度区间。我们人是跖行动物,这意味着我们用整个脚掌着地走路。但当我们奔跑的时候,一般只用前脚掌,更接近趾行动物。这时,步态已经改变了。&/p&&p&我们腿的设计针对两种速度区间进行了优化,而有的动物则更多。比如马,有三种步态。马也会选择对于当前速度最高效的一种。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-d6d06f7ecca8b6a09f9c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1609& data-rawheight=&1210& class=&origin_image zh-lightbox-thumb& width=&1609& data-original=&https://pic1.zhimg.com/v2-d6d06f7ecca8b6a09f9c_r.jpg&&&/figure&&p&你可能想问,用腿移动真的很高效吗,甚至比轮子更高效?是的,去跑一场马拉松会消耗你大约3000大卡的热量。如果你计算一下移动单位质量单位距离所需要的能量,那么你比大多数交通工具都要高效。&/p&&p&事实上,人类制造了许多先进的交通工具,用了设计优秀的轮子,高精度加工的轴承。这些交通工具在空载的情况下几乎都不如动物高效。只有当负载增加时,才可能有一些优势。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-19acd8c905ac37f727c07ee5d06b4ec2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&2160& data-rawheight=&1440& class=&origin_image zh-lightbox-thumb& width=&2160& data-original=&https://pic3.zhimg.com/v2-19acd8c905ac37f727c07ee5d06b4ec2_r.jpg&&&/figure&&p&最后,安利一下Coursera上宾夕法尼亚大学的机器人系列课程。其中Mobility课程主要就介绍了多足机器人,非常有启发性。虽然我现在不做这个领域的研究,但只要你有兴趣,我会毫不犹豫地把你引到这个坑里。&/p&&p&既然这么多赞,那就再加点东西吧。有的评论已经想到了,骑完马拉松应该比跑完更省劲。不过马拉松还是枯燥了一点,如果是越野跑甚至天空跑呢?这里可以看看K天王2小时速攀马特洪峰的逆天操作。&/p&&p&&a href=&//link.zhihu.com/?target=https%3A//v.qq.com/x/page/n0320cnjrm2.html& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&v.qq.com/x/page/n0320cn&/span&&span class=&invisible&&jrm2.html&/span&&span class=&ellipsis&&&/span&&/a&&br&&/p&&p&当然去年阵亡的瑞士机器的操作也很骚。&/p&&p&&a href=&//link.zhihu.com/?target=https%3A//youtu.be/VA0QopkQYjY& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&youtu.be/VA0QopkQYjY&/span&&span class=&invisible&&&/span&&/a&&br&&/p&&p&看完后你可能会思考更多的问题。&/p&
很好的问题,我来详细讲讲。想象你赶公交要迟了,你拼命往前跑,跑了一百多米就喘成狗了。这时你发现路边有几辆共享单车,你果断取了一辆骑上,轻轻一踩,速度就上去了。你一定觉得,轮子真TM是个好东西啊!你赶上了公交,坐在座位上想,轮子这么好的东西,…
&p&让我们从一个故事开始。&/p&&p&&b&1 看着后视镜往前开车&/b&&/p&&p&想象这么一个场景,我开着车,经过笔直的大道,快速地往下一个路口驶去。我知道,到了下一个路口就要右转了。&/p&&p&这件事情很简单,我坐在驾驶室内,看到下一个路口,往右边打方向盘就好了:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-dc838499acfa3e3c38c62c9_b.png& data-caption=&& data-rawwidth=&496& data-rawheight=&280& class=&origin_image zh-lightbox-thumb& width=&496& data-original=&https://pic2.zhimg.com/v2-dc838499acfa3e3c38c62c9_r.png&&&/figure&&p&突然,不管什么原因(这故事是我写的,可以安排一百种原因,干脆就不解释),反正前挡风玻璃碎了:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-a249ef6ebebf_b.png& data-caption=&& data-rawwidth=&618& data-rawheight=&352& class=&origin_image zh-lightbox-thumb& width=&618& data-original=&https://pic4.zhimg.com/v2-a249ef6ebebf_r.png&&&/figure&&p&不要纠结我这幅图,反正你已经无法看清前面的路了,那怎么知道什么时候该右转?&/p&&p&还好,开车的是一位数学家,智商及时上线。&/p&&p&数学家根据自己的经验,估计这条笔直的道路上:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-87edd7f4c7799ead4bd2_b.png& data-caption=&& data-rawwidth=&519& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&519& data-original=&https://pic3.zhimg.com/v2-87edd7f4c7799ead4bd2_r.png&&&/figure&&p&这也就意味着如果随意的右转,有 &img src=&//www.zhihu.com/equation?tex=95%5C%25+& alt=&95\% & eeimg=&1&& 的概率是错误的。&/p&&p&数学家从后视镜看出去,发现后面有一辆车在打右转弯灯,他意识到:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-4d76ad696cbffd90d2fac93e_b.jpg& data-caption=&& data-rawwidth=&613& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&613& data-original=&https://pic3.zhimg.com/v2-4d76ad696cbffd90d2fac93e_r.jpg&&&/figure&&p&新的信息出现了,此时如果右转,错误的概率就比之前小很多。&/p&&p&这种思考方法,就是贝叶斯定理所阐述的思考方法。&/p&&p&&b&2 结合开车来理解贝叶斯公式&/b&&/p&&p&我们来看看贝叶斯公式是怎么写的:&/p&&p&&img src=&//www.zhihu.com/equation?tex=P%28A%7CB%29%3DP%28A%29%5Cfrac%7BP%28B%7CA%29%7D%7BP%28B%29%7D& alt=&P(A|B)=P(A)\frac{P(B|A)}{P(B)}& eeimg=&1&&&/p&&p&先把刚才的开车给符号化:&/p&&figure&&img src=&https://pic4.zhimg.com/v2-5e1bca6a65ac249df165d5b_b.png& data-caption=&& data-rawwidth=&640& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-5e1bca6a65ac249df165d5b_r.png&&&/figure&&p&我们再来理解下贝叶斯公式:&/p&&figure&&img src=&https://pic1.zhimg.com/v2-fcc1fc4cb61c15e2936918_b.png& data-caption=&& data-rawwidth=&640& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-fcc1fc4cb61c15e2936918_r.png&&&/figure&&p&如果我们知道,在整个车辆行驶过程中,会有 &img src=&//www.zhihu.com/equation?tex=2%5C%25& alt=&2\%& eeimg=&1&& 的概率打右转弯灯,即 &img src=&//www.zhihu.com/equation?tex=P%28B%29%3D2%5C%25& alt=&P(B)=2\%& eeimg=&1&& ,我们就可以计算 &img src=&//www.zhihu.com/equation?tex=P%28A%7CB%29& alt=&P(A|B)& eeimg=&1&& 了。&/p&&p&因此贝叶斯公式实际上阐述了这么一个事情:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-bae1f93321bccfbe10bbff68d1f494a1_b.png& data-caption=&& data-rawwidth=&781& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&781& data-original=&https://pic2.zhimg.com/v2-bae1f93321bccfbe10bbff68d1f494a1_r.png&&&/figure&&p&我们再通过韦恩图来理解一下这个事情(为了观看方便,下面的 &img src=&//www.zhihu.com/equation?tex=A%2CB& alt=&A,B& eeimg=&1&& 的圆形面积是示意):&/p&&figure&&img src=&https://pic2.zhimg.com/v2-18bd2db1dadae28485c5_b.png& data-caption=&& data-rawwidth=&552& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&552& data-original=&https://pic2.zhimg.com/v2-18bd2db1dadae28485c5_r.png&&&/figure&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-1c42e3ff411b9bdc73b343_b.png& data-caption=&& data-rawwidth=&603& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&603& data-original=&https://pic4.zhimg.com/v2-1c42e3ff411b9bdc73b343_r.png&&&/figure&&p&新的信息的出现,比如之前看到了亮着右转弯灯的车,就好比知道点已经落入了 &img src=&//www.zhihu.com/equation?tex=B& alt=&B& eeimg=&1&& 。&/p&&p&至于为什么 &img src=&//www.zhihu.com/equation?tex=B& alt=&B& eeimg=&1&& 事件发生后导致的调整为:&/p&&p&&img src=&//www.zhihu.com/equation?tex=%5Cfrac%7BP%28B%7CA%29%7D%7BP%28B%29%7D& alt=&\frac{P(B|A)}{P(B)}& eeimg=&1&&&/p&&p&这就需要代数了,推导也不复杂,这里就不演算了。&/p&&p&&b&2.1 小结&/b&&/p&&p&我们可以看到有形的十字路口,却看不到明天是否下雨,我们可以看到前方是否有路障,却不清楚下一次飞机是否会出事。甚至有时候,眼睛还会欺骗我们。&/p&&p&很多时候,我们不得不看着后视镜开车,这个时候概率论、贝叶斯定理就是我们的指路明灯。&/p&&p&看着后视镜开车,肯定常常会撞车,没关系,我们可以不断的去修正我们的假设。&/p&&p&比如,撞了几次车之后,就发现可能之前估计的在十字路口打右转弯灯的数据明显偏大了,我们修正之后再继续开车。我们人类的学习,本身也是一个试错的过程。&/p&&p&&b&3 贝叶斯定理与人脑&/b&&/p&&p&贝叶斯定理现在很多人在研究,就是因为不少人相信贝叶斯定理和人脑的工作机制很像(此处颇多争论,望自行判断),因此成为机器学习的基础。&/p&&p&比如,你和对方聊天的时候,如果对方说出“虽然”两个字,你大概就会猜测,对方后继九成的可能性会说出“但是”。我们的大脑看起来就好像是天生在用贝叶斯定理。&/p&&p&吴军博士在他的著作《数学之美》里面就提到了,最早的自然语言处理,比如翻译、语音识别,都是通过语法分析来进行的,就是把“主谓宾”分析清楚,然后处理,正确率惨不忍睹。&/p&&p&后来,google由自然语言处理专家贾里尼克领导的部门,通过统计、概率方法进行上述研究,正确率提高了很多。在书中也列举了贝叶斯定理是如何参与自然语言处理的。&/p&&p&书中还有一句业界广为流传的名言:&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8aaf0ddeceb6_b.png& data-caption=&& data-rawwidth=&670& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&670& data-original=&https://pic3.zhimg.com/v2-8aaf0ddeceb6_r.png&&&/figure&&p&语法是人类后来总结出来的,我们天生是不需要语法就可以开口说话的,或许,人脑真的是贝叶斯大脑。&/p&&p&最后,有一个小小的问题,根据我们的经验,硬币正反两面出现的概率都是 &img src=&//www.zhihu.com/equation?tex=50%5C%25+& alt=&50\% & eeimg=&1&& ,如果我扔了一千次都是正面,那说明了什么?&/p&
让我们从一个故事开始。1 看着后视镜往前开车想象这么一个场景,我开着车,经过笔直的大道,快速地往下一个路口驶去。我知道,到了下一个路口就要右转了。这件事情很简单,我坐在驾驶室内,看到下一个路口,往右边打方向盘就好了:突然,不管什么原因(这故…
&p&前几天看到这个问题了,所以开始画了一系列地图,可以发布成果了。&br&&/p&&p&&br&&/p&&p&辽西走廊&/p&&figure&&img src=&https://pic3.zhimg.com/v2-d231e630ef2a2cebf6e8a4a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&939& data-rawheight=&670& class=&origin_image zh-lightbox-thumb& width=&939& data-original=&https://pic3.zhimg.com/v2-d231e630ef2a2cebf6e8a4a_r.jpg&&&/figure&&p&由锦州,宁远(今辽宁兴城),山海关组成,依次分布于辽西走廊上。西边是辽西的崇山峻岭,东边就是渤海,一夫当关万夫莫开。山海关作为最后一道防线至关重要,从地图上就可以看出,过了山海关就是华北平原了,可以直达北京或一路南下。&/p&&p&这里插一句,其实对于防御清军来说,只有山海关是有用的,宁远和锦州就是个摆设,具体原因看下一张图就知道了。&/p&&p&参考战例:松锦大战,宁远大捷, 宁锦大捷,辽沈战役&/p&&p&&br&&/p&&p&古北口和喜峰口&/p&&figure&&img src=&https://pic2.zhimg.com/v2-6ac5ea6278cb4faf10c1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&934& data-rawheight=&655& class=&origin_image zh-lightbox-thumb& width=&934& data-original=&https://pic2.zhimg.com/v2-6ac5ea6278cb4faf10c1_r.jpg&&&/figure&&p&燕山山脉中的两个重要关口,和山海关一起成为了辽东进入北京的三条主要道路上的屏障,相比起山海关来,由于都是山地中的道路,所以行军不如前者方便。&/p&&p&看到这里你也明白前面说宁远和锦州是摆设的原因了,因为自清军吞并漠南蒙古诸部之后,版图向西大大延伸,本来处在蒙古控制之下的地区现在也纳入了自己的版图,进攻明朝的道路有了更多的选择,所以不必死磕关宁锦防线了。所以自己巳之变清军尝到甜头之后,先后总计六次通过这两条道路入塞抢劫,给华北平原带来空前浩劫,加速了明朝的灭亡。&/p&&p&参考战例:清兵入塞,己巳之变,庚戌之变&/p&&p&&br&&/p&&p&居庸关&/p&&figure&&img src=&https://pic3.zhimg.com/v2-af16822cabf86c8e29b2bf6e4894fae2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1307& data-rawheight=&719& class=&origin_image zh-lightbox-thumb& width=&1307& data-original=&https://pic3.zhimg.com/v2-af16822cabf86c8e29b2bf6e4894fae2_r.jpg&&&/figure&&p&北京的北大门,处在太行山脉的山谷中,军都径上的一道屏障,其重要性不言而喻,防御着西北方来的敌人。当年土木堡之变就发生在离居庸关不到100公里的地方。&/p&&p&参考战例:土木堡之变&/p&&p&&br&&/p&&p&倒马关和紫荆关&/p&&figure&&img src=&https://pic2.zhimg.com/v2-5c330fa30dfdc4ecf108de5f7e2fa725_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&600& data-rawheight=&351& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic2.zhimg.com/v2-5c330fa30dfdc4ecf108de5f7e2fa725_r.jpg&&&/figure&&p&太行山脉中很重要的两个关口,也是位于草原游牧民族入侵的主要路线上,穿过这两个关口,翻过太行山脉,就可以往北京进军了。&/p&&p&参考战例:成吉思汗分兵内外夹击紫荆关的金军,土木堡之变&/p&&p&&br&&/p&&p&居庸关、倒马关和紫荆关统称为“内三关”。&/p&&p&&br&&/p&&p&宣府与张家口&/p&&figure&&img src=&https://pic3.zhimg.com/v2-f3fab2c5f0f15ba_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&890& data-rawheight=&565& class=&origin_image zh-lightbox-thumb& width=&890& data-original=&https://pic3.zhimg.com/v2-f3fab2c5f0f15ba_r.jpg&&&/figure&&p&宣府和张家口一起组成了北京的北大门,主要防御从草原上来的敌人。&/p&&p&参考战例:野狐岭之战&/p&&p&&br&&/p&&p&大同&/p&&figure&&img src=&https://pic2.zhimg.com/v2-a7bbd2fa24ed8b4fbfed_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&836& data-rawheight=&615& class=&origin_image zh-lightbox-thumb& width=&836& data-original=&https://pic2.zhimg.com/v2-a7bbd2fa24ed8b4fbfed_r.jpg&&&/figure&&p&位于大同盆地,既是通往草原的桥头堡,也和宣府一起保卫北京免受游牧民族的侵略。从地形图上可以看出,它处在一个交通要道上,通过大同向南可以继续攻打雁门关,沿桑干河河谷往西可以进攻宣府。&/p&&p&参考战例:白登山之围&/p&&p&&br&&/p&&p&宣大地区处于和游牧民族作战的第一线,有兴趣的可以看一下《明史》,列传第九十九,马永、梁震、王效、周尚文、马芳。这几个人都是嘉靖时期宣大地区抗蒙古的名将,他们的传记都是描述和蒙古军队作战的,对手主要是吉囊和俺答等鞑靼部首领。&/p&&p&&br&&/p&&p&雁门关&/p&&figure&&img src=&https://pic3.zhimg.com/v2-51d4f4c9aac9bbba6f62e08a8414ab06_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1006& data-rawheight=&667& class=&origin_image zh-lightbox-thumb& width=&1006& data-original=&https://pic3.zhimg.com/v2-51d4f4c9aac9bbba6f62e08a8414ab06_r.jpg&&&/figure&&p&位于恒山之中,控制着连接大同盆地和太原盆地的要道。通过雁门关后往南就是太原,往东可以抵达平型关。&/p&&p&参考站例:雍熙北伐(杨业在雁门关外战死),应州大捷&/p&&p&&br&&/p&&p&偏关和宁武关&/p&&figure&&img src=&https://pic1.zhimg.com/v2-dd0d14c63bcadb187162dc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1556& data-rawheight=&786& class=&origin_image zh-lightbox-thumb& width=&1556& data-original=&https://pic1.zhimg.com/v2-dd0d14c63bcadb187162dc_r.jpg&&&/figure&&p&宁武关位于吕梁山中,在季节性的恢河旁,是图中三座关口中战事最频繁的一座关口 。偏关位于黄河边(老牛湾,很著名的景点),只有当冬季黄河结冰,北方的游牧民族才可越过黄河攻打偏关。图中连接雁门关、宁武关和偏关的线就是长城的大致走向。&/p&&p&参考战例:宁武关之战(周遇吉VS李自成)&/p&&p&&br&&/p&&p&雁门关、宁武关和偏关统称为“外三关”。&/p&&p&&br&&/p&&p&平型关&/p&&figure&&img src=&https://pic2.zhimg.com/v2-bcbb8cf95fe00248cace1f1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1034& data-rawheight=&653& class=&origin_image zh-lightbox-thumb& width=&1034& data-original=&https://pic2.zhimg.com/v2-bcbb8cf95fe00248cace1f1_r.jpg&&&/figure&&p&位于恒山和五台山之间,地势险要,控制着太原和华北之间的交通要道,过了平型关,就可以经灵丘和飞狐峪进而攻打紫荆关。&/p&&p&参考战例:平型关大捷&/p&&p&&br&&/p&&p&太原&/p&&figure&&img src=&https://pic4.zhimg.com/v2-aa76a7ba05c6cce4ec39ff_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1012& data-rawheight=&690& class=&origin_image zh-lightbox-thumb& width=&1012& data-original=&https://pic4.zhimg.com/v2-aa76a7ba05c6cce4ec39ff_r.jpg&&&/figure&&p&位于太原盆地,往东可以抵达娘子关。&/p&&p&参考战例:金军南下攻宋&/p&&p&&br&&/p&&p&临汾&/p&&figure&&img src=&https://pic1.zhimg.com/v2-f3520536becc1bf27ee2f549cedfca3c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1380& data-rawheight=&665& class=&origin_image zh-lightbox-thumb& width=&1380& data-original=&https://pic1.zhimg.com/v2-f3520536becc1bf27ee2f549cedfca3c_r.jpg&&&/figure&&p&关中及太原通道上的城池,往哪边打都行。&/p&&p&&br&&/p&&p&娘子关&/p&&figure&&img src=&https://pic2.zhimg.com/v2-c5b0cfb257eec79103a8d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&957& data-rawheight=&550& class=&origin_image zh-lightbox-thumb& width=&957& data-original=&https://pic2.zhimg.com/v2-c5b0cfb257eec79103a8d_r.jpg&&&/figure&&p&连接太原和真定,位于翻越太行山脉的主要路径上。&/p&&p&参考战例:杨延昭镇守的三关之一&/p&&p&&br&&/p&&p&潼关和函谷关&/p&&figure&&img src=&https://pic3.zhimg.com/v2-d9c367ef1cf3e2030ffde_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1124& data-rawheight=&556& class=&origin_image zh-lightbox-thumb& width=&1124& data-original=&https://pic3.zhimg.com/v2-d9c367ef1cf3e2030ffde_r.jpg&&&/figure&&p&位于中条山、华山、崤山之间的谷地上,靠近黄河边,地势险要,是关中平原和长安的东大门,防御者从中原来的敌人。秦军就是在函谷关拒六国兵马的。&/p&&p&参考战例:秦函谷关拒六国&/p&&p&&br&&/p&&p&汉中及散关&/p&&figure&&img src=&https://pic4.zhimg.com/v2-e7e360e1beda5c7cb11897_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1114& data-rawheight=&555& class=&origin_image zh-lightbox-thumb& width=&1114& data-original=&https://pic4.zhimg.com/v2-e7e360e1beda5c7cb11897_r.jpg&&&/figure&&p&汉中通往关中平原的主要道路就要经过散关和宝鸡,所以散关是控制秦岭交通要道的重要关口。还有一条非主流路线就是子午谷了,不如前者便利,风险巨大,当年高迎祥就企图通过子午谷进攻关中,结果在黑水峪被孙传庭痛击。&/p&&p&参考战例:“明修栈道,暗度陈仓”,吴阶、吴璘打败完颜宗弼,曹真击败诸葛亮&/p&&p&&br&&/p&&p&襄阳&/p&&figure&&img src=&https://pic4.zhimg.com/v2-fd908bb8f47cc_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1273& data-rawheight=&664& class=&origin_image zh-lightbox-thumb& width=&1273& data-original=&https://pic4.zhimg.com/v2-fd908bb8f47cc_r.jpg&&&/figure&&p&秦岭--淮河分界线不但是中国的南北分界线,而且一起组成了抵御北方政权侵略的天然屏障。黄河在冬天会结冰,军队可以借此越过黄河南下进攻,但是淮河冬天不会,可以阻止不善水军的北方军队。所以在宋金战争中,金军虽然初期势如破竹,当推进到秦岭--淮河线时也停下了脚步。但是,从图上可以看出,秦岭和淮河并不是连接在一起的,中间有个缺口,而襄阳就坐落在这个缺口上,由此成为了南宋最为重要的战略中心。其实金军和伪齐政权在初期是占领过襄阳的,多亏了岳飞通过一系列战役(岳飞收复襄阳等六郡之站)最终收复了襄阳。随着吴阶、吴璘在川陕战场站稳了脚跟,南宋的秦岭--襄阳--淮河防线构筑完毕。这条防线坚持了130多年,直到咸淳九年被元军攻下。襄阳城破,南宋的国防被撕开了一个口子,10多年后就亡了。&/p&&p&不单单是战略上,襄阳本身也是个很重要的交通要道&/p&&figure&&img src=&https://pic4.zhimg.com/v2-2de8a51cd863ac598a3a43_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1267& data-rawheight=&583& class=&origin_image zh-lightbox-thumb& width=&1267& data-original=&https://pic4.zhimg.com/v2-2de8a51cd863ac598a3a43_r.jpg&&&/figure&&p&往南可以抵达武汉、荆州,往北可以去中原,往西可以进入关中和汉中,如此便捷的交通优势是它成为兵家必争之地的一个原因。&/p&&p&&br&&/p&&p&河西走廊及河西四郡&/p&&figure&&img src=&https://pic3.zhimg.com/v2-b411f61c16325cbc872e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1630& data-rawheight=&716& class=&origin_image zh-lightbox-thumb& width=&1630& data-original=&https://pic3.zhimg.com/v2-b411f61c16325cbc872e_r.jpg&&&/figure&&p&北部是巴丹吉林沙漠和腾格里沙漠,南部是祁连山脉,祁连山脉的冰川融雪在山脚下形成了一片带状的绿洲,连接新疆和中原。 西汉元狩二年(前121),汉武帝派骠骑将军霍去病出陇右击匈奴,使整个河西纳入西汉版图。在陇西郡和北地郡基础上,增设河西四郡 ,武威、张掖、酒泉、敦煌,以此来保卫这条交通要道。甘肃省的名字也是来源与其中的两个郡,即张掖的甘州,酒泉的肃州。嘉峪关是明长城最西段的关口。图中画出的红线就是G30连霍高速。&/p&&p&&br&&/p&&p&&br&&/p&&p&&br&&/p&&p&安庆&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8cba27b183d277d41c5c5e29be3148fa_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1375& data-rawheight=&673& class=&origin_image zh-lightbox-thumb& width=&1375& data-original=&https://pic3.zhimg.com/v2-8cba27b183d277d41c5c5e29be3148fa_r.jpg&&&/figure&&p&这是个占据水运要道的极佳案例。安庆之所以能成为南京的门户,就是因为处在南京的上游,由此控制了通过水运运往南京的物资。想要攻打南京就必须先打下安庆,如果绕过安庆的话,那么后勤补给只能通过陆运,效率肯定比不上顺流而下的水运,而且南京城向来皮糙肉厚,一时半会儿打不下来的话就会成为消耗战,南京的物资可以轻轻松松从安庆经长江获取,时间一长陆运的肯定坚持不住。而一旦攻占了安庆,那么就可以夺取本属于对方的水运优势,一下子实现了逆转,打下南京也就指日可待了。&/p&&p&参考战例:陈玉成安庆保卫战,曾国荃攻占天京(南京)&/p&&p&&br&&/p&&p&虎牢关&/p&&figure&&img src=&https://pic2.zhimg.com/v2-1caca697fb79cfcd9ab2725_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1732& data-rawheight=&764& class=&origin_image zh-lightbox-thumb& width=&1732& data-original=&https://pic2.zhimg.com/v2-1caca697fb79cfcd9ab2725_r.jpg&&&/figure&&p&北抵黄河,南靠嵩山,是洛阳的东大门。最有名的战役就是李世民击败窦建德和王世充的虎牢关之战。图中李世民的进攻路线我不太确定,欢迎指正。&/p&&p&&br&&/p&&p&相关回答:&/p&&a href=&https://www.zhihu.com/question//answer/& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic4.zhimg.com/80/v2-fdaa6f00bf1e9e38ff163f36c46b4a6b_180x120.jpg& data-image-width=&1290& data-image-height=&913& class=&internal&&雍熙北伐的失败原因是什么,失败是必然的还是偶然的?&/a&&a href=&https://www.zhihu.com/question/& data-draft-node=&block& data-draft-type=&link-card& class=&internal&&有哪些关于太行八陉的文献和作品(与古代战争有关,带配图和分析更好)?&/a&&a href=&https://www.zhihu.com/question/& data-draft-node=&block& data-draft-type=&link-card& class=&internal&&明代的“九边”是怎样一种存在?&/a&&a href=&https://www.zhihu.com/question/& data-draft-node=&block& data-draft-type=&link-card& class=&internal&&在冷兵器时代,幽云十六州真的有那么重要吗?&/a&
前几天看到这个问题了,所以开始画了一系列地图,可以发布成果了。 辽西走廊由锦州,宁远(今辽宁兴城),山海关组成,依次分布于辽西走廊上。西边是辽西的崇山峻岭,东边就是渤海,一夫当关万夫莫开。山海关作为最后一道防线至关重要,从地图上就可以看出…
&figure&&img src=&https://pic4.zhimg.com/v2-171a7bae8c8d0d9ff1f32_b.jpg& data-rawwidth=&920& data-rawheight=&360& class=&origin_image zh-lightbox-thumb& width=&920& data-original=&https://pic4.zhimg.com/v2-171a7bae8c8d0d9ff1f32_r.jpg&&&/figure&&p&原文:&a href=&https://link.zhihu.com/?target=https%3A//ujjwalkarn.me//intuitive-explanation-convnets/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&An Intuitive Explanation of Convolutional Neural Networks&/a&&/p&&p&作者:&a href=&https://link.zhihu.com/?target=https%3A//ujjwalkarn.me/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Ujjwal Karn&/a&&/p&&p&翻译:Kaiser(&a href=&https://link.zhihu.com/?target=http%3A//weibo.com/kaiser0730& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&王司图&/a&)&/p&&p&动图+在线练习版本:&a href=&https://link.zhihu.com/?target=https%3A//jizhi.im/blog/post/intuitive_explanation_cnn& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&卷积:如何成为一个很厉害的神经网络 - 集智专栏&/a&&/p&&br&&br&&br&&h2&前言&/h2&&ul&&li&如果你对神经网络还是完全陌生的,建议阅读&a href=&https://link.zhihu.com/?target=https%3A//jizhi.im/blog/post/nn_py_9& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&9行Python代码搭建神经网络&/a&来掌握一些基本概念。&/li&&li&本文含有部分gif动图,有可能无法播放,也需要访问上面的“集智”链接查看。&/li&&li&作为奖品的战网点卡已全部送出,祝贺以下获奖用户:&/li&&ul&&li&&a href=&https://www.zhihu.com/people/liu-yang-81-87& class=&internal&&刘洋 - 知乎&/a&&br&&/li&&li&&a href=&https://www.zhihu.com/people/shower& class=&internal&&张震宇 - 知乎&/a&&br&&/li&&li&&a href=&https://www.zhihu.com/people/zhu-shi-61-39/& class=&internal&&竹石 - 知乎&/a&&br&&/li&&li&&a href=&https://www.zhihu.com/people/chen-hui-zhi-89& class=&internal&&Sanada Yukimura - 知乎&/a&&br&&/li&&li&&a href=&https://link.zhihu.com/?target=http%3A//weibo.com/u/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Andras丶- 微博 &/a&&br&&/li&&/ul&&/ul&&br&&br&&br&&h2&什么是卷积神经网络?又为什么很重要?&/h2&&p&卷积神经网络(Convolutional Neural Networks, ConvNets or CNNs)是一种在图像识别与分类领域被证明特别有效的神经网络。卷积网络已经成功地识别人脸、物体、交通标志,应用在机器人和无人车等载具。&/p&&p&&figure&&img src=&https://pic2.zhimg.com/v2-f88d14494c0da_b.jpg& data-rawwidth=&1502& data-rawheight=&569& class=&origin_image zh-lightbox-thumb& width=&1502& data-original=&https://pic2.zhimg.com/v2-f88d14494c0da_r.jpg&&&/figure&&i&图1&/i&&/p&&br&&br&&p&在上面的图1当中,卷积网络能够识别场景而系统可以自动推荐相关标签如“桥”、“铁路”、“网球”等。图2则展示了卷积网络识别日常事物如人、动物的例子。最近,卷积网络也已经在自然语言处理上显示出了威力(比如句子分类)。&br&&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-4d9cd3e6a1b_b.jpg& data-rawwidth=&1326& data-rawheight=&494& class=&origin_image zh-lightbox-thumb& width=&1326& data-original=&https://pic1.zhimg.com/v2-4d9cd3e6a1b_r.jpg&&&/figure&&i&图2&/i&&/p&&br&&br&&p&卷积网络,在今天的绝大多数机器学习应用中都是极重要的工具。但是,理解卷积网络并首次学着使用,这体验有时并不友好。本文的主旨在于帮助读者理解,卷积神经网络是如何作用于图片的。&/p&&p&在本文,多层感知机(Multi-Layer Perceptrons, MLP)也被记作全连接层(Fully Connected Layers)。&/p&&br&&br&&h2&LeNet架构(1990年代)&/h2&&p&LeNet是最早用于深度学习了领域的卷积神经网络之一。Yann LeCun的这一杰作LeNet5得名于他自1988年以来的系列成功迭代。彼时LeNet架构还主要被用于识别邮政编码等任务。&/p&&p&下面我们将直观地感受一下,LeNet是如何学习识别图像的。近几年已经出现了很多建立在LeNet之上的新架构,但是基本概念还是来自于LeNet,并且理解了LeNet再学其他的也会更简单。&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-38f71f3d4d0baac609d1cc6fe6f22a74_b.jpg& data-rawwidth=&1493& data-rawheight=&356& class=&origin_image zh-lightbox-thumb& width=&1493& data-original=&https://pic1.zhimg.com/v2-38f71f3d4d0baac609d1cc6fe6f22a74_r.jpg&&&/figure&&i&图3:简单的ConvNet&/i&&/p&&br&&br&&p&&strong&图3&/strong&的卷积神经网络与LeNet的原始架构十分接近,把图片分入四个类别:狗,猫,船,鸟(LeNet最早主要就是用来做这些)。如上图所示,当获得一张船图作为输入的时候,网络正确的给船的分类赋予了最高的概率(0.94)。输出层的各个概率相加应为1.&br&&/p&&p&&strong&图3&/strong&的卷积神经网络主要执行了四个操作:&/p&&ol&&li&卷积&/li&&li&非线性(ReLU)&/li&&li&池化或下采样&/li&&li&分类(全连接层)&/li&&/ol&&p&这些操作也是所有卷积神经网络的基石,所以理解好这些工作对于理解整个神经网络至关重要。接下来我们将尝试最直观地理解以上操作。&/p&&br&&br&&br&&br&&h2&图片是像素值的矩阵&/h2&&p&本质上来讲,每个图片都可以表示为像素值组成的矩阵:&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-30687aad60eedacb71aafca_b.jpg& data-rawwidth=&384& data-rawheight=&383& class=&content_image& width=&384&&&/figure&&i&图4:像素值矩阵&/i&&/p&&br&&br&&p&&b&通道&/b&是代指图片特定成分的习语。常见数码相机拍出来的照片有三个通道——红、绿、蓝-可以想象为是三个2d矩阵(每种颜色对应一个)叠在一起,每个矩阵的值都在0-255之间。&/p&&p&另一方面,&b&灰度&/b&图像只有单通道。本文为简单起见只考虑灰度图像,这样就是一个2d矩阵。矩阵中的每个像素值还是0到255——0表示黑,255表示白。&/p&&br&&br&&br&&br&&h2&卷积&/h2&&p&卷积网络是因为&b&“卷积”操作&/b&而得名的。卷积的根本目的是从输入图片中提取特征。卷积用一个小方阵的数据学习图像特征,可以保留像素之间的空间关系。这里不深入探讨卷积的数学原理,重在理解工作过程。&/p&&p&如上所述,每个图片都是像素值矩阵。考虑一个5x5的图像,其像素值为0和1,下面的绿色矩阵是灰度图的特例(常规灰度图的像素值取值0-255),同时考虑如下的3x3矩阵:&/p&&figure&&img src=&https://pic2.zhimg.com/v2-add89dece41af8f2af03e4_b.jpg& data-rawwidth=&768& data-rawheight=&324& class=&origin_image zh-lightbox-thumb& width=&768& data-original=&https://pic2.zhimg.com/v2-add89dece41af8f2af03e4_r.jpg&&&/figure&&p&然后,5x5图像和3x3矩阵之间的卷积计算,可由下图的动画所表示:&br&&/p&&br&&figure&&img src=&https://pic1.zhimg.com/v2-ac1e9e1cf462e1ec8fe9a68_b.jpg& data-rawwidth=&526& data-rawheight=&384& class=&origin_image zh-lightbox-thumb& width=&526& data-original=&https://pic1.zhimg.com/v2-ac1e9e1cf462e1ec8fe9a68_r.jpg&&&/figure&&p&&i&图5:卷积操作。输出矩阵叫卷积特征或特征映射&br&&/i&&/p&&br&&br&&p&想一想以上操作是如何完成的,我们在原始图片(绿色)上1像素、1像素地滑动橙色矩阵(也称'stride'),并且在每个位置上,我们都对两个矩阵的对应元素相乘后求和得到一个整数,这就是输出矩阵(粉色)的元素。注意,3x3矩阵每次只“看见”输入图片的一部分。&/p&&p&3x3矩阵也叫“&strong&滤波器&/strong&”、“核”或“特征探测器”,在原图上滑动滤波器、点乘矩阵所得的矩阵称为“卷积特征”、“激励映射”或“&strong&特征映射&/strong&”。这里的重点就是,理解滤波器对于原输入图片来说,是个特征探测器。&/p&&br&&p&对于同一张照片,不同的滤波器将会产生不同的特征映射。比如考虑下面这张输入图片:&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-dbba2a167aec7a158d93b2_b.jpg& data-rawwidth=&1150& data-rawheight=&219& class=&origin_image zh-lightbox-thumb& width=&1150& data-original=&https://pic1.zhimg.com/v2-dbba2a167aec7a158d93b2_r.jpg&&&/figure&下表可见各种不同卷积核对于上图的效果。只需调整滤波器的数值,我们就可以执行诸如边缘检测、锐化、模糊等效果——这说明不同的滤波器会从图片中探测到不同的特征,比如边缘、曲线等。&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-034cc9c280_b.jpg& data-rawwidth=&658& data-rawheight=&1082& class=&origin_image zh-lightbox-thumb& width=&658& data-original=&https://pic2.zhimg.com/v2-034cc9c280_r.jpg&&&/figure&&br&&p&另一种对卷积操作很好的理解方式就是观察&strong&图6&/strong&的动画:&/p&&p&(gif体积过大,无法上传)&/p&&br&&br&&p&一个滤波器(红框)在图片上滑动(卷积)产生特征映射。在同一个图片上,另一个滤波器(绿框)的卷积产生了不同的特征映射。须知,卷积操作捕捉的是原图的局部依赖性。另外,注意观察两个不同的滤波器怎样产生不同的特征映射。其实不管是图片,还是两个滤波器,本质上都不过是我们刚才看过的数值矩阵而已。&/p&&p&在实践当中,卷积神经网络在训练过程中学习滤波器的值,当然我们还是要在训练之前需要指定一些参数:滤波器的个数,滤波器尺寸、网络架构等等。滤波器越多,从图像中提取的特征就越多,模式识别能力就越强。&/p&&br&&p&特征映射的尺寸由三个参数控制,我们需要在卷积步骤之前就设定好:&br&&/p&&ul&&li&深度(Depth): 深度就是卷积操作中用到的滤波器个数。如&strong&图7&/strong&所示,我们对原始的船图用了三个不同的滤波器,从而产生了三个特征映射。你可以认为这三个特征映射也是堆叠的2d矩阵,所以这里特征映射的“深度”就是3。&/li&&/ul&&p&&figure&&img src=&https://pic1.zhimg.com/v2-d20c9c3a1298e5baa8793d_b.jpg& data-rawwidth=&802& data-rawheight=&402& class=&origin_image zh-lightbox-thumb& width=&802& data-original=&https://pic1.zhimg.com/v2-d20c9c3a1298e5baa8793d_r.jpg&&&/figure&&i&图7&/i&&/p&&br&&br&&ul&&li&&p&步幅(Stride):步幅是每次滑过的像素数。当Stride=1的时候就是逐个像素地滑动。当Stride=2的时候每次就会滑过2个像素。步幅越大,特征映射越小。&/p&&/li&&li&&p&补零(Zero-padding):有时候在输入矩阵的边缘填补一圈0会很方便,这样我们就可以对图像矩阵的边缘像素也施加滤波器。补零的好处是让我们可以控制特征映射的尺寸。补零也叫宽卷积,不补零就叫窄卷积。&/p&&/li&&/ul&&br&&br&&br&&br&&h2&非线性&/h2&&p&如&strong&图3&/strong&所示,每个卷积操作之后,都有一个叫&strong&ReLU&/strong&的附加操作。ReLU的全称是纠正线性单元(Rectified Linear Unit),是一种非线性操作,其输出如下:&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-c8afbf19afabcfccb1d0f27ac5f7eed0_b.jpg& data-rawwidth=&1071& data-rawheight=&336& class=&origin_image zh-lightbox-thumb& width=&1071& data-original=&https://pic1.zhimg.com/v2-c8afbf19afabcfccb1d0f27ac5f7eed0_r.jpg&&&/figure&&i&图8:ReLU&/i&&/p&&br&&br&&p&ReLU是以像素为单位生效的,其将所有负值像素替换为0。ReLU的目的是向卷积网络中引入非线性,因为真实世界里大多数需要学习的问题都是非线性的(单纯的卷积操作时线性的——矩阵相乘、相加,所以才需要额外的计算引入非线性)。&/p&&p&图9可以帮助我们清晰地理解,ReLU应用在&strong&图6&/strong&得到的特征映射上,输出的新特征映射也叫“纠正”特征映射。(黑色被抹成了灰色)&/p&&p&&figure&&img src=&https://pic2.zhimg.com/v2-9feb833b3e855d9d282fceb_b.jpg& data-rawwidth=&1496& data-rawheight=&560& class=&origin_image zh-lightbox-thumb& width=&1496& data-original=&https://pic2.zhimg.com/v2-9feb833b3e855d9d282fceb_r.jpg&&&/figure&&i&图9:ReLU&/i&&/p&&br&&p&其他非线性方程比如&strong&tanh&/strong&或&strong&sigmoid&/strong&也可以替代ReLU,但多数情况下ReLU的表现更好。&br&&/p&&br&&br&&br&&h2&池化&/h2&&p&空间池化(也叫亚采样或下采样)降低了每个特征映射的维度,但是保留了最重要的信息。空间池化可以有很多种形式:最大(Max),平均(Average),求和(Sum)等等。&/p&&p&以最大池化为例,我们定义了空间上的邻域(2x2的窗)并且从纠正特征映射中取出窗里最大的元素。除了取最大值以额外,我们也可以取平均值(平均池化)或者把窗里所有元素加起来。实际上,最大池化已经显示了最好的成效。&/p&&p&&strong&图10&/strong&显示了对纠正特征映射的最大池化操作(在卷积+ReLU之后),使用的是2x2的窗。&/p&&p&&figure&&img src=&https://pic4.zhimg.com/v2-bb34c4e42eb0e_b.jpg& data-rawwidth=&988& data-rawheight=&842& class=&origin_image zh-lightbox-thumb& width=&988& data-original=&https://pic4.zhimg.com/v2-bb34c4e42eb0e_r.jpg&&&/figure&&i&图10:最大池化&/i&&/p&&br&&br&&p&我们以2格的步幅(Stride)滑动2x2的窗,并且取每个区域的最大值。&strong&图10&/strong&同样显示了池化可以减少特征映射的维度。&/p&&p&在&strong&图11&/strong&所示的网络中,池化操作分别应用于每个特征映射(注意正因如此,我们从三个输入映射得到了三个输出映射)。&/p&&p&&figure&&img src=&https://pic2.zhimg.com/v2-22eebe9b4d2bd571cc94e83_b.jpg& data-rawwidth=&802& data-rawheight=&439& class=&origin_image zh-lightbox-thumb& width=&802& data-original=&https://pic2.zhimg.com/v2-22eebe9b4d2bd571cc94e83_r.jpg&&&/figure&&i&图11:对纠正特征映射应用池化&/i&&/p&&br&&br&&p&&strong&图12&/strong&即为池化操作施加在&strong&图9&/strong&所得纠正特征映射上的效果。&/p&&p&&figure&&img src=&https://pic4.zhimg.com/v2-b8e2a2e1f853c2c65befd_b.jpg& data-rawwidth=&1262& data-rawheight=&538& class=&origin_image zh-lightbox-thumb& width=&1262& data-original=&https://pic4.zhimg.com/v2-b8e2a2e1f853c2c65befd_r.jpg&&&/figure&&i&图12:池化&/i&&/p&&br&&br&&p&池化的功能室逐步减少输入表征的空间尺寸。特别地,池化&/p&&ul&&li&使输入表征(特征维度)更小而易操作&/li&&li&减少网络中的参数与计算数量,从而遏制过拟合&/li&&li&增强网络对输入图像中的小变形、扭曲、平移的鲁棒性(输入里的微小扭曲不会改变池化输出——因为我们在局部邻域已经取了最大值/平均值)。&/li&&li&帮助我们获得不因尺寸而改变的等效图片表征。这非常有用,因为这样我们就可以探测到图片里的物体,不论那个物体在哪。&/li&&/ul&&p&截至目前:&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-cfd915e11fa53fbeb7aa236_b.jpg& data-rawwidth=&1496& data-rawheight=&355& class=&origin_image zh-lightbox-thumb& width=&1496& data-original=&https://pic1.zhimg.com/v2-cfd915e11fa53fbeb7aa236_r.jpg&&&/figure&&i&图13&/i&&/p&&br&&br&&p&至此我们已经了解了卷积、ReLU和池化是如何运转的,这些层对于所有的卷积神经网络都是最基础的单元。如&strong&图13&/strong&所示,我们有两组“卷积+ReLU+池化”层——其中第二组对第一组的输出施加了六个滤波器,产生了六个特征映射。ReLU分别作用域这六个特征映射,再对生成的纠正特征映射使用最大池化。&/p&&p&这些层合力提取出有用的特征,为网络引入了非线性并降低了维度,还使特征对尺寸和平移保持不变性。&/p&&p&第二个池化层的输出相当于全连接层的输入,我们将在下一节继续探讨。&/p&&br&&br&&br&&h2&全连接层&/h2&&p&全连接层(Fully Connected layer)就是使用了softmax激励函数作为输出层的多层感知机(Multi-Layer Perceptron),其他很多分类器如支持向量机也使用了softmax。“全连接”表示上一层的每一个神经元,都和下一层的每一个神经元是相互连接的。&/p&&p&卷积层和池化层呢个的输出代表了输入图像的高级特征,全连接层的目的就是用这些特征进行分类,类别基于训练集。比如图14所示的图像分类任务,有四种可能的类别。(注意,图14没有显示出所有的神经元节点)&/p&&br&&figure&&img src=&https://pic4.zhimg.com/v2-45a8c4c8a24c1b3a4ce7d8_b.jpg& data-rawwidth=&968& data-rawheight=&303& class=&origin_image zh-lightbox-thumb& width=&968& data-original=&https://pic4.zhimg.com/v2-45a8c4c8a24c1b3a4ce7d8_r.jpg&&&/figure&&p&&i&图14:全连接层——每个节点都与相邻层的所有节点相连&/i&&/p&&p&除了分类以外,加入全连接层也是学习特征之间非线性组合的有效办法。卷积层和池化层提取出来的特征很好,但是如果考虑这些特征之间的组合,就更好了。&br&&/p&&p&全连接层的输出概率之和为1,这是由激励函数Softmax保证的。Softmax函数把任意实值的向量转变成元素取之0-1且和为1的向量。&/p&&br&&br&&br&&br&&h2&联合起来——反向传播训练&/h2&&p&综上,卷积+池化是特征提取器,全连接层是分类器。&/p&&p&注意&strong&图15&/strong&,因为输入图片是条船,所以目标概率对船是1,其他类别是0.&/p&&ul&&li&输入图像 = 船&/li&&li&目标向量 = [0, 0, 1 ,0]&/li&&/ul&&br&&figure&&img src=&https://pic3.zhimg.com/v2-73cc788cfc81dfeb007be_b.jpg& data-rawwidth=&1496& data-rawheight=&526& class=&origin_image zh-lightbox-thumb& width=&1496& data-original=&https://pic3.zhimg.com/v2-73cc788cfc81dfeb007be_r.jpg&&&/figure&&p&&i&图15:训练卷积神经网络&/i&&/p&&br&&br&&p&卷积网络的训练过程可以概括如下:&br&&/p&&br&&li&&strong&Step 1:&/strong& 用随机数初始化所有的滤波器和参数/权重&/li&&ul&&li&&p&&strong&Step 2:&/strong& 网络将训练图片作为输入,执行前向步骤(卷积,ReLU,池化以及全连接层的前向传播)并计算每个类别的对应输出概率。&/p&&ul&&li&假设船图的输出概率是[0.2, 0.4, 0.1, 0.3]&/li&&li&因为第一个训练样本的权重都是随机的,所以这个输出概率也跟随机的差不多&/li&&/ul&&/li&&li&&p&&strong&Step 3:&/strong& 计算输出层的总误差(4类别之和)&/p&&ul&&li&&strong&总误差=∑12(目标概率-输出概率)2总误差=∑12(目标概率-输出概率)2&/strong&&/li&&/ul&&/li&&li&&p&&strong&Step 4:&/strong& 反向传播算法计算误差相对于所有权重的梯度,并用&em&梯度下降法&/em&更新所有的滤波器/权重和参数的值,以使输出误差最小化。&/p&&/li&&ul&&li&权重的调整程度与其对总误差的贡献成正比。&/li&&li&当同一图像再次被输入,这次的输出概率可能是[0.1, 0.1, 0.7, 0.1],与目标[0, 0, 1, 0]更接近了。&/li&&li&这说明我们的神经网络已经学习着分类特定图片了,学习的方式是调整权重/滤波器以降低输出误差。&/li&&li&如滤波器个数、滤波器尺寸、网络架构这些参数,是在Step 1之前就已经固定的,且不会在训练过程中改变——只有滤波矩阵和神经元突触权重会更新。&/li&&/ul&&/ul&&br&&p&以上步骤&em&训练&/em&了卷积网络——本质上就是优化所有的权重和参数,使其能够正确地分类训练集里的图片。&/p&&br&&p&当一个新的(前所未见的)的图片输入至卷积网络,网络会执行前向传播步骤并输出每个类别的概率(对于新图像,输出概率用的也是训练过的权重值)。如果我们的训练集足够大,网络就有望正确分类新图片,获得良好的泛化(generalization)能力。&/p&&br&&p&&strong&注意 1:&/strong& 以上步骤已被极大简化,且数学细节均以忽略,这是为了让训练过程更直观。&/p&&p&&strong&注意 2:&/strong& 上例中,我们用了两组卷积+池化层,其实这些操作可以在一个卷积网络内重复无数次。如今有些表现出众的卷积网络,都有数以十计的卷积+池化层!并且,不是每个卷积层后面都要跟个池化层。由&strong&图16&/strong&可见,我们可以有连续多组卷积+ReLU层,后面再加一个池化层。&/p&&br&&figure&&img src=&https://pic4.zhimg.com/v2-36df4a5bf0be915e0ed2ea085f69de32_b.jpg& data-rawwidth=&1212& data-rawheight=&588& class=&origin_image zh-lightbox-thumb& width=&1212& data-original=&https://pic4.zhimg.com/v2-36df4a5bf0be915e0ed2ea085f69de32_r.jpg&&&/figure&&i&图16&/i&&br&&br&&br&&br&&h2&可视化卷积神经网络&/h2&&p&一般来说,卷积层越多,能学会的特征也就越复杂。比如在图像分类中,一个卷积神经网络的第一层学会了探测像素中的边缘,然后第二层用这些边缘再去探测简单的形状,其他层再用形状去探测高级特征,比如脸型,如&strong&图17&/strong&所示——这些特征是&a href=&https://link.zhihu.com/?target=http%3A//web.eecs.umich.edu/%7Ehonglak/icml09-ConvolutionalDeepBeliefNetworks.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Convolutional Deep Belief Network&/a&学得的。这里只是一个简单的例子,实际上卷积滤波器可能会探测出一些没有意义的特征。&/p&&p&&figure&&img src=&https://pic1.zhimg.com/v2-da3e21e34ba34aaace0a49_b.jpg& data-rawwidth=&484& data-rawheight=&510& class=&origin_image zh-lightbox-thumb& width=&484& data-original=&https://pic1.zhimg.com/v2-da3e21e34ba34aaace0a49_r.jpg&&&/figure&&i&图17:Convolutional Deep Belief Network学习的特征&/i&&/p&&br&&br&&p&Adam Harley做了一个非常惊艳的卷积神经网络可视化,这个网络是用MNIST手写数字数据库训练而来的。我强烈推荐大家&a href=&https://link.zhihu.com/?target=http%3A//scs.ryerson.ca/%7Eaharley/vis/conv/flat.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&玩一玩&/a&,以便更深地理解卷积神经网络的细节。&/p&&p&如下我们将看到网络是如何识别输入数字&8&的。注意,&strong&图18&/strong&没有把ReLU过程单独显示出来。&/p&&p&&figure&&img src=&https://pic3.zhimg.com/v2-adbba7de0c0a0e52fe846c01fbc91ccb_b.jpg& data-rawwidth=&1496& data-rawheight=&847& class=&origin_image zh-lightbox-thumb& width=&1496& data-original=&https://pic3.zhimg.com/v2-adbba7de0c0a0e52fe846c01fbc91ccb_r.jpg&&&/figure&&i&图18:可视化卷积神经网络&/i&&/p&&br&&br&&p&输入图像有1024个像素(32x32图片),第一个卷积层(Convolution Layer 1)有六个不同的5x5滤波器(Stride = 1)。由图可见,六个不同的滤波器产生了深度为6的特征映射。&/p&&p&Convolutional Layer 1 后面跟着Pooling Layer 1, 对六个特征映射分别进行2x2的最大池化(Stride = 2)。你可以在动态网页中的每个像素上活动鼠标指针,观察其在前一个卷积层里对应的4x4网格(如&strong&图19&/strong&)。不难发现,每个4x4网格里的最亮的像素(对应最大值)构成了池化层。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-3ebea12f90798_b.jpg& data-rawwidth=&1496& data-rawheight=&358& class=&origin_image zh-lightbox-thumb& width=&1496& data-original=&https://pic2.zhimg.com/v2-3ebea12f90798_r.jpg&&&/figure&&p&&i&图19:可视化池化操作&/i&&/p&&br&&br&&p&之后我们有三个全连接(FC)层:&/p&&ul&&li&&strong&FC 1:&/strong& 120神经元&/li&&li&&strong&FC 2:&/strong& 100神经元&/li&&li&&strong&FC 3:&/strong& 10神经元,对应10个数字——也即输出层&/li&&/ul&&p&在&strong&图20&/strong&,输出层10个节点中的每一个,都与第二个全连接层的100个节点相连(所以叫“全连接”)。&/p&&p&注意输出层里的唯一的亮点对应着8——这说明网络正确的识别了手写数字(越亮的节点代表越高的概率,比如这里8就拥有最高的概率)。&/p&&p&&figure&&img src=&https://pic3.zhimg.com/v2-bf695c6db7fedfea419b7_b.jpg& data-rawwidth=&1496& data-rawheight=&310& class=&origin_image zh-lightbox-thumb& width=&1496& data-original=&https://pic3.zhimg.com/v2-bf695c6db7fedfea419b7_r.jpg&&&/figure&&i&图20:可视化全连接层&/i&&br&&/p&&br&&p&该可视化的3D版可见于&a href=&https://link.zhihu.com/?target=http%3A//scs.ryerson.ca/%7Eaharley/vis/conv/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&这里&/a&。&br&&/p&&br&&br&&h2&其他卷积网络架构&/h2&&p&卷积神经网络始自1990年代起,我们已经认识了最早的LeNet,其他一些很有影响力的架构列举如下:&/p&&ul&&li&&p&1990s至2012:从90年代到2010年代早期,卷积神经网络都处于孵化阶段。随着数据量增大和计算能力提高,卷积神经网络能搞定的问题也越来越有意思了。&/p&&/li&&li&&p&AlexNet(2012):2012年,Alex Krizhevsky发布了&a href=&https://link.zhihu.com/?target=https%3A//papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&AlexNet&/a&,是LeNet的更深、更宽版本,并且大比分赢得了当年的ImageNet大规模图像识别挑战赛(ILSVRC)。这是一次非常重要的大突破,现在普及的卷积神经网络应用都要感谢这一壮举。&/p&&/li&&li&&p&ZF Net(2013):2013年的ILSVRC赢家是Matthew Zeiler和Rob Fergus的卷积网络,被称作&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&ZF Net&/a&,这是调整过架构超参数的AlexNet改进型。&/p&&/li&&li&&p&GoogleNet(2014):2014的ILSVRC胜者是来自Google的&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Szegedy et al.&/a&。其主要贡献是研发了&em&Inception Module&/em&,它大幅减少了网络中的参数数量(四百万,相比AlexNet的六千万)。&/p&&/li&&li&&p&VGGNet(2014):当年的ILSVRC亚军是&a href=&https://link.zhihu.com/?target=http%3A//www.robots.ox.ac.uk/%7Evgg/research/very_deep/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&VGGNet&/a&,突出贡献是展示了网络的深度(层次数量)是良好表现的关键因素。&/p&&/li&&li&&p&ResNet(2015): Kaiming He研发的&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Residual Network&/a&是2015年的ILSVRC冠军,也代表了卷积神经网络的最高水平,同时还是实践的默认选择(2016年5月)。&/p&&/li&&li&&p&DenseNet(2016年8月): 由Gao Huang发表,&a href=&https://link.zhihu.com/?target=http%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Densely Connected Convolutional Network&/a&的每一层都直接与其他各层前向连接。DenseNet已经在五个高难度的物体识别基础集上,显式出非凡的进步。&/p&&/li&&/ul&&p&&strong&(翻译部分 完)&/strong&&/p&&br&&br&&p&经过本文和之前的&a href=&https://link.zhihu.com/?target=https%3A//jizhi.im/blog/post/nn_py_9& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&系列文章&/a&,您应该已经掌握了卷积神经网络的基本原理。接下来我们尝试用流行的Python深度学习库&a href=&https://link.zhihu.com/?target=https%3A//keras-cn.readthedocs.io/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Keras&/a&,动手实地搭建一个LeNet。&/p&&br&&p&实践是神经网络的唯一标准&/p&&br&&p&回顾LeNet的架构,补全第二组卷积+激励+池化,搭建出经典的LeNet网络。&/p&&p&提示:&/p&&ul&&li&第二组卷积层有16个滤波器,尺寸为8x8。&/li&&li&第二组激励层使用tanh函数&/li&&li&第二组最大池化层的尺寸和步幅均为3x3&/li&&/ul&&p&请在下方的Python开发环境中补全代码,并点击蓝色按钮【运行】检查答案是否正确。&/p&&p&&b&(需访问:&a href=&https://link.zhihu.com/?target=https%3A//jizhi.im/blog/post/intuitive_explanation_cnn& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&卷积:如何成为一个很厉害的神经网络 - 集智专栏&/a&)&/b&&/p&&br&&p&如下图,第二组卷积+激励+池化层的参数设置有误,就会得到红色提示,并指出具体的错误所在。&/p&&figure&&img src=&https://pic2.zhimg.com/v2-f85c12d234d526e12cb9676_b.jpg& data-rawwidth=&1300& data-rawheight=&1815& class=&origin_image zh-lightbox-thumb& width=&1300& data-original=&https://pic2.zhimg.com/v2-f85c12d234d526e12cb9676_r.jpg&&&/figure&
原文:作者:翻译:Kaiser()动图+在线练习版本: 前言如果你对神经网络还是完全陌生的,建议阅读来…
马铃:&figure&&img data-rawwidth=&890& data-rawheight=&1000& src=&https://pic2.zhimg.com/v2-383cd5d827a7e_b.jpg& class=&origin_image zh-lightbox-thumb& width=&890& data-original=&https://pic2.zhimg.com/v2-383cd5d827a7e_r.jpg&&&/figure&&figure&&img data-rawwidth=&798& data-rawheight=&598& src=&https://pic4.zhimg.com/v2-ddbc019afb043_b.jpg& class=&origin_image zh-lightbox-thumb& width=&798& data-original=&https://pic4.zhimg.com/v2-ddbc019afb043_r.jpg&&&/figure&&figure&&img data-rawwidth=&680& data-rawheight=&680& src=&https://pic1.zhimg.com/v2-e60bacd4aff84e131a56af38df7e7954_b.jpg& class=&origin_image zh-lightbox-thumb& widt

我要回帖

更多关于 不确定性 的文章

 

随机推荐