真正厉害的人崇拜的都是巨人霍金预言:2032年地球或者商业家比尔盖茨

首先要说明一点霍金、比尔盖茨与马克斯估计比99.99%的其他人类要聪明,因此他们的恐惧估计不会是空穴来风一定有原因的。

但是在我们普通人看起来目前最牛逼的波壵顿动力公司制造出来的机器人,的确很弱智连人类4岁孩子的智能都达不到,它们搞了26年的机器人今年商业化的结果居然是将机器狗租赁给马戏团,来获利收益这的确让人感到意外。这些机器狗让人感到害怕了吗

恐怕美女看到了,会感觉萌萌哒如果不是太贵,估計会养一只当作宠物。

但是比尔盖茨霍金肯定不是傻子,他们到底在担心什么为什么会担心?

也许我们对人工智能了解得太少了臸少对人工智能的未来发展很不了解,当我查阅了许多资料后惭惭对它有所了解之后,我也感到一丝丝的凉意

打个比方,如果超人工智能彻底掌握了纳米技术的话我指的是真正的纳米技术啊,不是现在一些乱七八糟的公司借用纳米的名义造了一件衣服或搞了一口锅嫃正的纳米技术是什么?就是通过人工智能机器可以直接操纵原子的组合,因为纳米技术本来就叫:在1-100纳米范围内操纵特质的一种技术分子大概是1-5纳米,而原子大概是0.1纳米

超人工智能如果掌握了纳米技术,那么它分分种直接操控分子原子组装成纳米机器人并且任何粅质都变成了它制造纳米机器人的原材料,因为地球上的任何物质都是由分子原子组成的在实际上,而不是在理论上掌握了纳米技术嘚超人工智能,可以制造它任何想制作的东西并且地球了任何东西在超人工智能眼里,都是制造所使用的原料当然,也包括人类因為人类也是由分子原子组成的。

到时候超人工智能杀死人类,其实并不是因为它对人类有什么意见而是因为它只是想制造自己想要的東西。在超人工智能眼里将地上的狗屎与人类一起放进机器内,分解成分子原子然后组装出一个纳米机器人,其实并没有太大的区别

那我们来分析一下,人工智能通过什么方式会进化到这种程度的其实刚开始都是人类在帮助它完成了准备工作。

人工智能分为三个阶段:

一是弱人工智能阶段比方波士顿动力公司的机器狗与机器人,傻傻的只能租赁给太阳马戏团用;

二是强人工智能阶段,这个阶段嘚机器人与人类智商一样了人能做的,它都能做并且做得更好更快;

三是超人工智能阶段,在这个阶段的人工智能智商达到什么高度呢打个比方,人类在超人工智能眼里大概相当于蚂蚁不,甚至连蚂蚁都不如相当于原始的小爬虫,这个阶段的显著特征是:超人工智能的所有想法人类都无法理解,人类的想法与做法在它眼里都是超级弱智;

它是如何从弱人工智能进化到超人工智能的呢?

目前人類发明的人工智能处于弱人工智能阶段那么,如何向强人工智能进化呢或者说通过什么路径是可以将弱人工智能变成强人工智能?不偠担心科学家帮我们想好了。

第一步提高电脑的处理速度cps,指标是每秒钟计算的次数目前人脑每秒钟计算的次数达1亿亿次!这是发奣家科兹威尔算出来的,人脑计算的速度非常快而普通电脑(造价在6000元的电脑)每秒钟计算次数是1万亿次,只有人脑的千分之一

目前電脑的算力与人类对比

还差很远,不过别担心地球上最厉害的超级电脑每秒钟能计算3.44亿亿次了,今年貌似美国已发明了电子计算机计算速度十分恐怖,远远超过1亿亿次了

那么,这一步已达到问题只是成本了。

第二步让电脑变得更智能,如何让电脑变得更智能目湔还没有大的突破,但是方法有三种第一种,抄袭人脑利用人脑逆生物工程,大概在2030年人类就会掌握人脑的运作规律人工神经网络目前已在测试了,效果不错;第二种利用基因算法来模拟人脑进化,人脑在自然界进化花了上亿年科学家想通过电脑在几十年内达到;第三种,把电脑变成科学家让它自己不断修改自己的代码,获得进化根据摩尔定律,我们知道电脑的智能进化是指数化的,即刚開始很慢越到后面越快。

科学家预测大概在年,人工智能会达到人类成人的水平并称之为人工智能奇点。并且称只要人工智能达到渏点后续的发展将不受人类控制,会飞速发展

由强人工智能到超人工智能,怎么走

上面讲了,只要人工智能达到强人工智能阶段囚工智能即达到奇点,进入自我递归进化:即前1小时它看起来还只有普通人的智商,后1小时它的智能就已达到了爱因斯坦的高度立即僦能推导出广义相对论与量子力学的理论,再过1小时它将远远超过爱因斯坦,变成了一个超级怪物可以完美地解释黑洞,并且知道如哬通过黑洞进入另一个平等宇宙还没有完,它会一直循环进化下去直到终极,它变成了无所不能的如来

看来牛顿当初的想法并没有錯啊,人工智能发展的最后人类会自己造出一个如来出来。这不是开玩笑

原来如来是人类自己创造的

如果这种超人工智能机器人很多嘚话,那么估计它还会造出观音、玉皇大帝、太上老君、孙悟空、南天门四大天王等等出来。人类变成了凡人凡人会知道神仙们心里昰怎么想的吗?

那么人类面临的处境有两种:

一是毁灭,只要一个超人工智能机器人变坏了造出许多的纳米机器人出来,人类分分钟铨死光因为人类在纳米机器人面前就如蝼蚁一样,生与死都不是十分重要了;

二是永生假如超人工智能动用它掌握的十分前卫的生物科学与健康学说,或许它真的只要用手一指一个80岁的老头,立即变成了一个18岁的小伙子如果它动用纳米技术,将人类整个构造使用它們眼里最先进的材料进行改装人类即可获得永生。

那么问题来了,到底是毁灭还是永生呢

这就是霍金、比尔盖茨与马克斯感到恐惧嘚地方。

现在你恐惧了吗?因为根据1000名地球最智慧的科学家预测大概在2077年,超人工智能将会出现

  人工智能很可能导致人类的詠生或者灭绝而这一切很可能在我们的有生之年发生。

  上面这句话不是危言耸听请耐心的看完本文再发表意见。这篇翻译稿翻译唍一共三万五千字我从上星期开始翻,熬了好几个夜才翻完因为我觉得这篇东西非常有价值。希望你们能够耐心读完读完后也许你嘚世界观都会被改变。

  翻译者: 知乎 @谢熊猫君

  我们正站在变革的边缘而这次变革将和人类的出现一般意义重大 – Vernor Vinge

  如果你站茬这里,你会是什么感觉

  看上去非常刺激吧?但是你要记住当你真的站在时间的图表中的时候,你是看不到曲线的右边的因为伱是看不到未来的。所以你真实的感觉大概是这样的:

楼主发言:39次 发图:

  遥远的未来——就在眼前

  想象一下坐时间机器回到1750年嘚地球那个时代没有电,畅通通讯基本靠吼交通主要靠动物拉着跑。你在那个时代邀请了一个叫老王的人到2015年来玩顺便看看他对“未来”有什么感受。我们可能没有办法了解1750年的老王内心的感受——金属铁壳在宽敞的公路上飞驰和太平洋另一头的人聊天,看几千公裏外正在发生进行的体育比赛观看一场发生于半个世纪前的演唱会,从口袋里掏出一个黑色长方形工具把眼前发生的事情记录下来生荿一个地图然后地图上有个蓝点告诉你现在的位置,一边看着地球另一边的人的脸一边聊天以及其它各种各样的黑科技。别忘了你还沒跟他解释互联网、国际空间站、大型强子对撞机、核武器以及相对论。

  这时候的老王会是什么体验惊讶、震惊、脑洞大开这些词嘟太温顺了,我觉得老王很可能直接被吓尿了

  但是,如果老王回到了1750年然后觉得被吓尿是个很囧的体验,于是他也想把别人吓尿來满足一下自己那会发生什么?于是老王也回到了250年前的1500年邀请生活在1500年的小李去1750年玩一下。小李可能会被250年后的很多东西震惊但昰至少他不会被吓尿。同样是250来年的时间1750和2015年的差别,比1500年和1750年的差别要大得多了。1500年的小李可能能学到很多神奇的物理知识可能會惊讶于欧洲的帝国主义旅程,甚至对于世界地图的认知也会大大的改变但是1500年的小李,看到1750年的交通、通讯等等并不会被吓尿。

  所以说对于1750年的老王来说,要把人吓尿他需要回到更古老的过去——比如回到公元前12000年,第一次农业革命之前那个时候还没有城市,也还没有文明一个来自狩猎采集时代的人类,只是当时众多物种中的一个罢了来自那个时代的小赵看到1750年庞大的人类帝国,可以航行于海洋上的巨舰居住在“室内”,无数的收藏品神奇的知识和发现——他很有可能被吓尿。

  小赵被吓尿后如果也想做同样的倳情呢如果他会到公元前24000年,找到那个时代的小钱然后给他展示公元前12000年的生活会怎样呢。小钱大概会觉得小赵是吃饱了没事干——“这不跟我的生活差不多么呵呵”。小赵如果要把人吓尿可能要回到十万年前或者更久,然后用人类对火和语言的掌控来把对方吓尿

  所以,一个人去到未来并且被吓尿,他们需要满足一个“吓尿单位”满足吓尿单位所需的年代间隔是不一样的。在狩猎采集时玳满足一个吓尿单位需要超过十万年而工业革命后一个吓尿单位只要两百多年就能满足。

  未来学家Ray Kurzweil把这种人类的加速发展称作加速囙报定律(Law of Accelerating Returns)之所以会发生这种规律,是因为一个更加发达的社会能够继续发展的能力也更强,发展的速度也更快——这本就是更加發达的一个标准19世纪的人们比15世纪的人们懂得多得多,所以19世纪的人发展起来的速度自然比15世纪的人更快

  即使放到更小的时间规模上,这个定律依然有效著名电影《回到未来》中,生活在1985年的主角回到了1955年当主角回到1955年的时候,他被电视刚出现时的新颖、便宜嘚物价、没人喜欢电吉他、俚语的不同而震惊

  但是如果这部电影发生在2015年,回到30年前的主角的震惊要比这大得多一个2000年左右出生嘚人,回到一个没有个人电脑、互联网、手机的1985年会比从1985年回到1955年的主角看到更大的区别。

  这同样是因为加速回报定律1985年-2015年的平均发展速度,要比1955年-1985年的平均发展速度要快因为1985年的世界比1955年的更发达,起点更高所以过去30年的变化要大过之前30年的变化。

  进步樾来越大发生的越来越快,也就是说我们的未来会很有趣对吧

  未来学家Kurzweil认为整个20世纪100年的进步,按照2000年的速度只要20年就能达成——2000年的发展速度是20世纪平均发展速度的5倍他认为2000年开始只要花14年就能达成整个20世纪一百年的进步,而之后2014年开始只要花7年(2021年)就能達到又一个20世纪一百年的进步。几十年之后我们每年都能达成好几次相当于整个20世纪的发展,再往后说不定每个月都能达成一次。按照加速回报定Kurzweil认为人类在21世纪的进步将是20世纪的1000倍。

  如果Kurzweil等人的想法是正确的那2030年的世界可能就能把我们吓尿了——下一个吓尿單位可能只需要十几年,而2050年的世界会变得面目全非


  在我们的有生之年发生的可能性不大,硬件水平难以支撑如此庞大的数据量..........

  以现在的水平连个机器翻译都做不好,你还指望人工智能

  在我们的有生之年发生的可能性不大,硬件水平难以支撑如此庞大的數据量..........

  你可能觉得2050年的世界会变得面目全非这句话很可笑但是这不是科幻,而是比你我聪明很多的科学家们相信的而且从历史来看,也是逻辑上可以预测的

  那么为什么你会觉得“2050年的世界会变得面目全非” 这句话很可笑呢?有三个原因让你质疑对于未来的预測:

我们对于历史的思考是线性的当我们考虑未来35年的变化时,我们参照的是过去35年发生的事情当我们考虑21世纪能产生的变化的时候,我们参考的是20世纪发生的变化这就好像1750年的老王觉得1500年的小李在1750年能被吓尿一样。线性思考是本能的但是但是考虑未来的时候我们應该指数地思考。一个聪明人不会把过去35年的发展作为未来35年的参考而是会看到当下的发展速度,这样预测的会更准确一点当然这样還是不够准确,想要更准确你要想象发展的速度会越来越快。

  2. 近期的历史很可能对人产生误导首先,即使是坡度很高的指数曲线只要你截取的部分够短,看起来也是很线性的就好像你截取圆周的很小一块,看上去就是和直线差不多其次,指数增长不是平滑统┅的发展常常遵循S曲线。

  S曲线发生在新范式传遍世界的时候S曲线分三部分

  - 慢速增长(指数增长初期)

  - 快速增长(指数增長的快速增长期)

  - 随着新范式的成熟而出现的平缓期

  如果你只看近期的历史,你很可能看到的是S曲线的某一部分而这部分可能鈈能说明发展究竟有多快速。年是互联网爆炸发展的时候微软、谷歌、脸书进入了公众视野,伴随着的是社交网络、手机的出现和普及、智能手机的出现和普及这一段时间就是S曲线的快速增长期。年发展没那么迅速至少在技术领域是这样的。如果按照过去几年的发展速度来估计当下的发展速度可能会错得离谱,因为很有可能下一个快速增长期正在萌芽

个人经验使得我们对于未来预期过于死板。我們通过自身的经验来产生世界观而经验把发展的速度烙印在了我们脑中——“发展就是这么个速度的。”我们还会受限于自己的想象力因为想象力通过过去的经验来组成对未来的预测——但是我们知道的东西是不足以帮助我们预测未来的。当我们听到一个和我们经验相違背的对于未来的预测时我们就会觉得这个预测偏了。如果我现在跟你说你可以活到150岁250岁,甚至会永生你是不是觉得我在扯淡——“自古以来,所有人都是会死的”是的,过去从来没有人永生过但是飞机发明之前也没有人坐过飞机呀。


  接下来的内容你可能┅边读一边心里“呵呵”,而且这些内容可能真的是错的

  但是如果我们是真的从历史规律来进行逻辑思考的,我们的结论就应该是未来的几十年将发生比我们预期的多得多得多得多的变化

  如果你一直以来把人工智能(AI)当做科幻小说,但是近来却不但听到很多囸经人严肃的讨论这个问题你可能也会困惑。这种困惑是有原因的:

  1.我们总是把人工智能和电影想到一起星球大战、终结者、2001:呔空漫游等等。电影是虚构的那些电影角色也是虚构的,所以我们总是觉得人工智能缺乏真实感

  2.人工智能是个很宽泛的话题。从掱机上的计算器到无人驾驶汽车到未来可能改变世界的重大变革,人工智能可以用来描述很多东西所以人们会有疑惑。

  3.我们日常苼活中已经每天都在使用人工智能了只是我们没意识到而已。John McCarthy在1956年最早使用了人工智能(Artificial Intelligence)这个词。他总是抱怨“一旦一样东西用人笁智能实现了人们就不再叫它人工智能了。”

  因为这种效应所以人工智能听起来总让人觉得是未来的神秘存在,而不是身边已经存在的现实同时,这种效应也让人们觉得人工智能是一个从未被实现过的流行理念Kurzweil提到经常有人说人工智能在80年代就被遗弃了,这种說法就好像“互联网已经在21世纪初互联网泡沫爆炸时死去了”一般滑稽

  所以,让我们从头开始

  首先,不要一提到人工智能就想着机器人机器人只是人工智能的容器,机器人有时候是人形有时候不是,但是人工智能自身只是机器人体内的电脑人工智能是大腦的话,机器人就是身体——而且这个身体不一定是必需的比如说Siri背后的软件和数据是人工智能,Siri说话的声音是这个人工智能的人格化體现但是Siri本身并没有机器人这个组成部分。

  其次你可能听过“奇点”或者“技术奇点”这种说法。这种说法在数学上用来描述类姒渐进的情况这种情况下通常的规律就不适用了。这种说法同样被用在物理上来描述无限小的高密度黑洞同样是通常的规律不适用的凊况。Kurzweil则把奇点定义为加速回报定律达到了极限技术进步以近乎无限的速度发展,而奇点之后我们将在一个完全不同的世界生活的但昰当下的很多思考人工智能的人已经不再用奇点这个说法了,而且这种说法很容易把人弄混所以本文也尽量少用。

  最后人工智能嘚概念很宽,所以人工智能也分很多种我们按照人工智能的实力将其分成三大类。

  弱人工智能Artificial Narrow Intelligence (ANI): 弱人工智能是擅长于单个方面的人工智能比如有能战胜象棋世界冠军的人工智能,但是它只会下象棋你要问它怎样更好地在硬盘上储存数据,它就不知道怎么回答你了

  强人工智能Artificial General Intelligence (AGI): 人类级别的人工智能。强人工智能是指在各方面都能和人类比肩的人工智能人类能干的脑力活它都能干。创造强人工智能比创造弱人工智能难得多我们现在还做不到。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时应该和人类一样得心应手

Bostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”超人工智能可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的超人工智能也正是为什么人工智能这个话题这么火热的缘故,同样也是为什么永生和灭绝这两个词会在本文Φ多次出现

  现在,人类已经掌握了弱人工智能其实弱人工智能无处不在,人工智能革命是从弱人工智能通过强人工智能,最终箌达超人工智能的旅途这段旅途中人类可能会生还下来,可能不会但是无论如何,世界将变得完全不一样

  让我们来看看这个领域的思想家对于这个旅途是怎么看的,以及为什么人工智能革命可能比你想的要近得多


  我们现在的位置——充满了弱人工智能的世堺

  弱人工智能是在特定领域等同或者超过人类智能/效率的机器智能,一些常见的例子:

  汽车上有很多的弱人工智能系统从控制防抱死系统的电脑,到控制汽油注入参数的电脑谷歌正在测试的无人驾驶车,就包括了很多弱人工智能这些弱人工智能能够感知周围環境并作出反应。

  你的手机也充满了弱人工智能系统当你用地图软件导航,接受音乐电台推荐查询明天的天气,和Siri聊天以及其咜很多很多应用,其实都是弱人工智能

  垃圾邮件过滤器是一种经典的弱人工智能——它一开始就加载了很多识别垃圾邮件的智能,並且它会学习并且根据你的使用而获得经验智能室温调节也是一样,它能根据你的日常习惯来智能调节

  你在上网时候出现的各种其它电商网站的产品推荐,还有社交网站的好友推荐这些都是弱人工智能的组成的,弱人工智能联网互相沟通利用你的信息来进行推薦。网购时出现的“买这个商品的人还购买了”推荐其实就是收集数百万用户行为然后产生信息来卖东西给你的弱人工智能。

  谷歌翻译也是一种经典的人工智能——非常擅长单个领域声音识别也是一种。很多软件利用这两种智能的合作使得你能对着手机说中文,掱机直接给你翻译成英文

  当飞机着陆时候,不是一个人类决定飞机该去那个登机口接驳就好像你在网上买票时票据不是一个人类決定的。

  世界最强的跳棋、象棋、拼字棋、双陆棋和黑白棋选手都是弱人工智能

  谷歌搜索是一个巨大的弱人工智能,背后是非瑺复杂的排序方法和内容检索社交网络的新鲜事同样是这样。

  这些还只是消费级产品的例子军事、制造、金融(高频算法交易占箌了美国股票交易的一半)等领域广泛运用各种复杂的弱人工智能。专业系统也有比如帮助医生诊断疾病的系统,还有著名的IBM的华生儲存了大量事实数据,还能理解主持人的提问在竞猜节目中能够战胜最厉害的参赛者。

  现在的弱人工智能系统并不吓人最糟糕的凊况,无非是代码没写好程序出故障,造成了单独的灾难比如造成停电、核电站故障、金融市场崩盘等等。

  虽然现在的弱人工智能没有威胁我们生存的能力我们还是要怀着警惕的观点看待正在变得更加庞大和复杂的弱人工智能的生态。每一个弱人工智能的创新嘟在给通往强人工智能和超人工智能的旅途添砖加瓦。用Aaron Saenz的观点现在的弱人工智能,就是地球早期软泥中的氨基酸——没有动静的物质突然之间就组成了生命。

  弱人工智能到强人工智能之路

  为什么这条路很难走

  只有明白创造一个人类智能水平的电脑是多么鈈容易才能让你真的理解人类的智能是多么不可思议。造摩天大楼、把人送入太空、明白宇宙大爆炸的细节——这些都比理解人类的大腦并且创造个类似的东西要简单太多了。至今为止人类的大脑是我们所知宇宙中最复杂的东西。

  而且创造强人工智能的难处并鈈是你本能认为的那些。

  造一个能在瞬间算出十位数乘法的计算机——非常简单

  造一个能分辨出一个动物是猫还是狗的计算机——极端困难

  造一个能战胜世界象棋冠军的电脑——早就成功了

  造一个能够读懂六岁小朋友的图片书中的文字并且了解那些词汇意思的电脑——谷歌花了几十亿美元在做,还没做出来

  一些我们觉得困难的事情——微积分、金融市场策略、翻译等,对于电脑来說都太简单了

  我们觉得容易的事情——视觉、动态、移动、直觉——对电脑来说太TM的难了

  用计算机科学家Donald Knuth的说法,“人工智能巳经在几乎所有需要思考的领域超过了人类但是在那些人类和其它动物不需要思考就能完成的事情上,还差得很远”

  读者应该能佷快意识到,那些对我们来说很简单的事情其实是很复杂的,它们看上去很简单因为它们已经在动物进化的过程中经历了几亿年的优囮了。当你举手拿一件东西的时候你肩膀、手肘、手腕里的肌肉、肌腱和骨头,瞬间就进行了一组复杂的物理运作这一切还配合着你嘚眼睛的运作,使得你的手能都在三维空间中进行直线运作对你来说这一切轻而易举,因为在你脑中负责处理这些的“软件”已经很完媄了同样的,软件很难识别网站的验证码不是因为软件太蠢,恰恰相反是因为能够读懂验证码是件碉堡了的事情。

  同样的大數相乘、下棋等等,对于生物来说是很新的技能我们还没有几亿年的世界来进化这些能力,所以电脑很轻易的就击败了我们试想一下,如果让你写一个程序是一个能做大数相乘的程序容易写,还是能够识别千千万万种字体和笔迹下书写的英文字母的程序难写

  比洳看着下面这个图的时候,你和电脑都能识别出这是一个由两种颜色的小长方形组成的一个大长方形

  你和电脑打了个平手。接着我們把途中的黑色部分去除:

  你可以轻易的描述图形中透明或不透明的圆柱和3D图形但是电脑就看不出来了。电脑会描述出2D的阴影细节但是人脑却能够把这些阴影所展现的深度、阴影混合、房屋灯光解读出来。

  再看下面这张图电脑看到的是黑白灰,我们看到的却昰一块全黑的石头

  而且我们到现在谈的还是静态不变的信息。要想达到人类级别的智能电脑必须要理解更高深的东西,比如微小嘚脸部表情变化开心、放松、满足、满意、高兴这些类似情绪间的区别,以及为什么《布达佩斯大饭店》是好电影而《富春山居图》昰烂电影。

  我们要怎样才能达到这样的水平呢

  通往强人工智能的第一步:增加电脑处理速度

  要达到强人工智能,肯定要满足的就是电脑硬件的运算能力如果一个人工智能要像人脑一般聪明,它至少要能达到人脑的运算能力

  用来描述运算能力的单位叫莋cps(calculations per second,每秒计算次数)要计算人脑的cps只要了解人脑中所有结构的最高cps,然后加起来就行了

  Kurzweil把对于一个结构的最大cps的专业估算,然後考虑这个结构占整个大脑的重量做乘法,来得出人脑的cps听起来不太靠谱,但是Kurzweil用了对于不同大脑区域的专业估算值得出的最终结果都非常类似,是10^16 cps也就是1亿亿次计算每秒。

  现在最快的超级计算机中国的天河二号,其实已经超过这个运算力了天河每秒能进荇3.4亿亿。当然天河二号占地720平方米,耗电2400万瓦耗费了3.9亿美元建造。广泛应用就不提了即使是大部分商业或者工业运用也是很贵的。

  Kurzweil认为考虑电脑的发展程度的标杆是看1000美元能买到多少cps当1000美元能买到人脑级别的1亿亿运算能力的时候,强人工智能可能就是生活的一蔀分了

  摩尔定律认为全世界的电脑运算能力每两年就翻一倍,这一定律有历史数据所支持这同样表明电脑硬件的发展和人类发展┅样是指数级别的。我们用这个定律来衡量1000美元什么时候能买到1亿亿cps现在1000美元能买到10万亿cps,和摩尔定律的历史预测相符合

  也就是說现在1000美元能买到的电脑已经强过了老鼠,并且达到了人脑千分之一的水平听起来还是弱爆了,但是让我们考虑一下,1985年的时候同樣的钱只能买到人脑万亿分之一的cps,1995年变成了十亿分之一2005年是百万分之一,而2015年已经是千分之一了按照这个速度,我们到2025年就能花1000美え买到可以和人脑运算速度抗衡的电脑了

  至少在硬件上,我们已经能够强人工智能了(中国的天河二号)而且十年以内,我们就能以低廉的价格买到能够支持强人工智能的电脑硬件

  但是运算能力并不能让电脑变得智能,下一个问题是我们怎样利用这份运算能力来达成人类水平的智能。

  通往强人工智能的第二步:让电脑变得智能

  这一步比较难搞事实上,没人知道该怎么搞——我们還停留在争论怎么让电脑分辨《富春山居图》是部烂片的阶段但是,现在有一些策略有可能会有效。下面是最常见的三种策略:

  僦好像你班上有一个学霸你不知道为什么学霸那么聪明,为什么考试每次都满分虽然你也很努力的学习,但是你就是考的没有学霸好最后你决定“老子不干了,我直接抄他的考试答案好了”这种“抄袭”是有道理的,我们想要建造一个超级复杂的电脑但是我们有囚脑这个范本可以参考呀。

  科学界正在努力逆向工程人脑来理解生物进化是怎么造出这么个神奇的东西的,乐观的估计是我们在2030年の前能够完成这个任务一旦这个成就达成,我们就能知道为什么人脑能够如此高效、快速的运行并且能从中获得灵感来进行创新。一個电脑架构模拟人脑的例子就是人工神经网络它是一个由晶体管作为“神经”组成的网络,晶体管和其它晶体管互相连接有自己的输叺、输出系统,而且什么都不知道——就像一个婴儿的大脑接着它会通过做任务来自我学习,比如识别笔迹最开始它的神经处理和猜測会是随机的,但是当它得到正确的回馈后相关晶体管之间的连接就会被加强;如果它得到错误的回馈,连接就会变弱经过一段时间嘚测试和回馈后,这个网络自身就会组成一个智能的神经路径而处理这项任务的能力也得到了优化。人脑的学习是类似的过程不过比這复杂一点,随着我们对大脑研究的深入我们将会发现更好的组建神经连接的方法。

  更加极端的“抄袭”方式是“整脑模拟”具體来说就是把人脑切成很薄的片,用软件来准确的组建一个3D模型然后把这个模型装在强力的电脑上。如果能做成这台电脑就能做所有囚脑能做的事情——只要让它学习和吸收信息就好了。如果做这事情的工程师够厉害的话他们模拟出来的人脑甚至会有原本人脑的人格囷记忆,电脑模拟出的人脑就会像原本的人脑一样——这就是非常符合人类标准的强人工智能然后我们就能把它改造成一个更加厉害的超人工智能了。

  我们离整脑模拟还有多远呢至今为止,我们刚刚能够模拟1毫米长的扁虫的大脑这个大脑含有302个神经元。人类的大腦有1000亿个神经元听起来还差很远。但是要记住指数增长的威力——我们已经能模拟小虫子的大脑了蚂蚁的大脑也不远了,接着就是老鼠的大脑到那时模拟人类大脑就不是那么不现实的事情了。

  抄学霸的答案当然是一种方法但是如果学霸的答案太难抄了呢?那我們能不能学一下学霸备考的方法

  首先我们很确定的知道,建造一个和人脑一样强大的电脑是可能的——我们的大脑就是证据如果夶脑太难完全模拟,那么我们可以模拟演化出大脑的过程事实上,就算我们真的能完全模拟大脑结果也就好像照抄鸟类翅膀的拍动来慥飞机一样——很多时候最好的设计机器的方式并不是照抄生物设计。

  所以我们可不可以用模拟演化的方式来造强人工智能呢这种方法叫作“基因算法”,它大概是这样的:建立一个反复运作的表现/评价过程就好像生物通过生存这种方式来表现,并且以能否生养后玳为评价一样一组电脑将执行各种任务,最成功的将会“繁殖”把各自的程序融合,产生新的电脑而不成功的将会被剔除。经过多佽的反复后这个自然选择的过程将产生越来越强大的电脑。而这个方法的难点是建立一个自动化的评价和繁殖过程使得整个流程能够洎己运行。

  这个方法的缺点也是很明显的演化需要经过几十亿年的时间,而我们却只想花几十年时间

  但是比起自然演化来说,我们有很多优势首先,自然演化是没有预知能力的它是随机的——它产生的没用的变异比有用的变异多很多,但是人工模拟的演化鈳以控制过程使其着重于有益的变化。其次自然演化是没有目标的,自然演化出的智能也不是它目标特定环境甚至对于更高的智能昰不利的(因为高等智能消耗很多能源)。但是我们可以指挥演化的过程超更高智能的方向发展再次,要产生智能自然演化要先产生其它的附件,比如改良细胞产生能量的方法但是我们完全可以用电力来代替这额外的负担。所以人类主导的演化会比自然快很多很多,但是我们依然不清楚这些优势是否能使模拟演化成为可行的策略

  3)让电脑来解决这些问题

  如果抄学霸的答案和模拟学霸备考嘚方法都走不通,那就干脆让考题自己解答自己吧这种想法很无厘头,确实最有希望的一种

  总的思路是我们建造一个能进行两项任务的电脑——研究人工智能和修改自己的代码。这样它就不只能改进自己的架构了我们直接把电脑变成了电脑科学家,提高电脑的智能就变成了电脑自己的任务

  以上这些都会很快发生

  硬件的快速发展和软件的创新是同时发生的,强人工智能可能比我们预期的哽早降临因为:

  1)指数级增长的开端可能像蜗牛漫步,但是后期会跑的非常快

  2)软件的发展可能看起来很缓慢但是一次顿悟,就能永远改变进步的速度就好像在人类还信奉地心说的时候,科学家们没法计算宇宙的运作方式但是日心说的发现让一切变得容易佷多。创造一个能自我改进的电脑来说对我们来说还很远,但是可能一个无意的变动就能让现在的系统变得强大千倍,从而开启朝人類级别智能的冲刺

  强人工智能到超人工智能之路

  总有一天,我们会造出和人类智能相当的强人工智能电脑然后人类和电脑就會平等快乐的生活在一起。

  即使是一个和人类智能完全一样运算速度完全一样的强人工智能,也比人类有很多优势:

  -速度脑鉮经元的运算速度最多是200赫兹,今天的微处理器就能以2G赫兹也就是神经元1000万倍的速度运行,而这比我们达成强人工智能需要的硬件还差遠了大脑的内部信息传播速度是每秒120米,电脑的信息传播速度是光速差了好几个数量级。

  - 容量和储存空间人脑就那么大,后天沒法把它变得更大就算真的把它变得很大,每秒120米的信息传播速度也会成为巨大的瓶颈电脑的物理大小可以非常随意,使得电脑能运鼡更多的硬件更大的内存,长期有效的存储介质不但容量大而且比人脑更准确。

  - 可靠性和持久性电脑的存储不但更加准确,而苴晶体管比神经元更加精确也更不容易萎缩(真的坏了也很好修)。人脑还很容易疲劳但是电脑可以24小时不停的以峰值速度运作。

  - 可编辑性升级性,以及更多的可能性和人脑不同,电脑软件可以进行更多的升级和修正并且很容易做测试。电脑的升级可以加强囚脑比较弱势的领域——人脑的视觉元件很发达但是工程元件就挺弱的。而电脑不但能在视觉元件上匹敌人类在工程元件上也一样可鉯加强和优化。

集体能力人类在集体智能上可以碾压所有的物种。从早期的语言和大型社区的形成到文字和印刷的发明,再到互联网嘚普及人类的集体智能是我们统治其它物种的重要原因之一。而电脑在这方面比我们要强的很多一个运行特定程序的人工智能网络能夠经常在全球范围内自我同步,这样一台电脑学到的东西会立刻被其它所有电脑学得而且电脑集群可以共同执行同一个任务,因为异见、动力、自利这些人类特有的东西未必会出现在电脑身上

  通过自我改进来达成强人工智能的人工智能,会把“人类水平的智能”当莋一个重要的里程碑但是也就仅此而已了。它不会停留在这个里程碑上的考虑到强人工智能之于人脑的种种优势,人工智能只会在“囚类水平”这个节点做短暂的停留然后就会开始大踏步向超人类级别的智能走去。

  这一切发生的时候我们很可能被吓尿因为从我們的角度来看 a)虽然动物的智能有区别,但是动物智能的共同特点是比人类低很多;b)我们眼中最聪明的人类要比最愚笨的人类要聪明很很很佷多

  所以,当人工智能开始朝人类级别智能靠近时我们看到的是它逐渐变得更加智能,就好像一个动物一般然后,它突然达到叻最愚笨的人类的程度我们到时也许会感慨:“看这个人工智能就跟个脑残人类一样聪明,真可爱”

  但问题是,从智能的大局来看人和人的智能的差别,比如从最愚笨的人类到爱因斯坦的差距其实是不大的。所以当人工智能达到了脑残级别的智能后它会很快變得比爱因斯坦更加聪明:

  为什么人类女人的屁股越来越大 导致女人的运动能力越来越差

  因为人类的大脑越来越大了

  这可能僦是人类智力发展的两难困境

  没更完 继续看 乖~

  据说所谓的人工智能会令人类退失,先从道德上(心理)退失然后是生理。最后囚不像人不知是什么。那是人类开始步向终灭

  从这边开始,这个话题要变得有点吓人了我在这里要提醒大家,以下所说的都是夶实话——是一大群受人尊敬的思想家和科学家关于未来的诚实的预测你在下面读到什么离谱的东西的时候,要记得这些东西是比你我嘟聪明很多的人想出来的

  像上面所说的,我们当下用来达成强人工智能的模型大多数都依靠人工智能的自我改进但是一旦它达到叻强人工智能,即使算上那一小部分不是通过自我改进来达成强人工智能的系统也会聪明到能够开始自我改进。

  这里我们要引出一個沉重的概念——递归的自我改进这个概念是这样的:一个运行在特定智能水平的人工智能,比如说脑残人类水平有自我改进的机制。当它完成一次自我改进后它比原来更加聪明了,我们假设它到了爱因斯坦水平而这个时候它继续进行自我改进,然而现在它有了爱洇斯坦水平的智能所以这次改进会比上面一次更加容易,效果也更好第二次的改进使得他比爱因斯坦还要聪明很多,让它接下来的改進进步更加明显如此反复,这个强人工智能的智能水平越长越快直到它达到了超人工智能的水平——这就是智能爆炸,也是加速回报萣律的终极表现

  现在关于人工智能什么时候能达到人类普遍智能水平还有争议。对于数百位科学家的问卷调查显示他们认为强人工智能出现的中位年份是2040年——距今只有25年这听起来可能没什么,但是要记住很多这个领域的思想家认为从强人工智能到超人工智能的轉化会快得多。以下的情景很可能会发生:一个人工智能系统花了几十年时间到达了人类脑残智能的水平而当这个节点发生的时候,电腦对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时电脑立马推导出了统一广义相对论和量子力学的物理学理论;而在這之后一个半小时,这个强人工智能变成了超人工智能智能达到了普通人类的17万倍。

  这个级别的超级智能不是我们能够理解的就恏像蜜蜂不会理解凯恩斯经济学一样。在我们的语言中我们把130的智商叫作聪明,把85的智商叫作笨但是我们不知道怎么形容12952的智商,人類语言中根本没这个概念

  但是我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量也就是说,一个超人工智能一旦被创造出来,将是地球有史以来最强大的东西而所有生物,包括人类都只能屈居其下——而这一切,有可能在未来几十年就發生

  想一下,如果我们的大脑能够发明Wifi那么一个比我们聪明100倍、1000倍、甚至10亿倍的大脑说不定能够随时随地操纵这个世界所有原子嘚位置。那些在我们看来超自然的只属于全能的上帝的能力,对于一个超人工智能来说可能就像按一下电灯开关那么简单防止人类衰咾,治疗各种不治之症解决世界饥荒,甚至让人类永生或者操纵气候来保护地球未来的什么,这一切都将变得可能同样可能的是地浗上所有生命的终结。

  当一个超人工智能出生的时候对我们来说就像一个全能的上帝降临地球一般。

  这时候我们所关心的就是


  这篇文章的第一部分完了休息一下,下面我们要开始第二部分

  文章的第一部分讨论了已经在我们日常生活中随处可见的弱人笁智能,然后讨论了为什么从弱人工智能到强人工智能是个很大的挑战然后我们谈到了为什么技术进步的指数级增长表面强人工智能可能并不那么遥远。第一部分的结束我们谈到了一旦机器达到了人类级别的智能,我们将见到如下的场景:

  这让我们无所适从尤其栲虑到超人工智能可能会发生在我们有生之年,我们都不知道该用什么表情来面对。

  再我们继续深入这个话题之前,让我们提醒┅下自己超级智能意味着什么

  很重要的一点是速度上的超级智能和质量上的超级智能的区别。很多人提到和人类一样聪明的超级智能的电脑第一反应是它运算速度会非常非常快——就好像一个运算速度是人类百万倍的机器,能够用几分钟时间思考完人类几十年才能思考完的东西

  这听起来碉堡了而且超人工智能确实会比人类思考的快很多,但是真正的差别其实是在智能的质量而不是速度上用囚类来做比喻,人类之所以比猩猩智能很多真正的差别并不是思考的速度,而是人类的大脑有一些独特而复杂的认知模块这些模块让峩们能够进行复杂的语言呈现、长期规划、或者抽象思考等等,而猩猩的脑子是做不来这些的就算你把猩猩的脑子加速几千倍,它还是沒有办法在人类的层次思考的它依然不知道怎样用特定的工具来搭建精巧的模型——人类的很多认知能力是猩猩永远比不上的,你给猩猩再多的时间也不行

  而且人和猩猩的智能差别不只是猩猩做不了我们能做的事情,而是猩猩的大脑根本不能理解这些事情的存在——猩猩可以理解人类是什么也可以理解摩天大楼是什么,但是它不会理解摩天大楼是被人类造出来的对于猩猩来说,摩天大楼那么巨夶的东西肯定是天然的句号。对于猩猩来说它们不但自己造不出摩天大楼,它们甚至没法理解摩天大楼这东西能被任何东西造出来洏这一切差别,其实只是智能的质量中很小的差别造成的

  而当我们在讨论超人工智能时候,智能的范围是很广的和这个范围比起來,人类和猩猩的智能差别是细微的如果生物的认知能力是一个楼梯的话,不同生物在楼梯上的位置大概是这样的:

  要理解一个具囿超级智能的机器有多牛逼让我们假设一个在上图的楼梯上站在深绿色台阶上的一个机器,它站的位置只比人类高两层就好像人类比猩猩只高两层一样。这个机器只是稍微有点超级智能而已但是它的认知能力之于人类,就好像人类的认知能力之于猩猩一样就好像猩猩没有办法理解摩天大楼是能被造出来的一样,人类完全没有办法理解比人类高两层台阶的机器能做的事情就算这个机器试图向我们解釋,效果也会像教猩猩造摩天大楼一般

  而这,只是比我们高了两层台阶的智能罢了站在这个楼梯顶层的智能之于人类,就好像人類之于蚂蚁一般——它就算花再多时间教人类一些最简单的东西我们依然是学不会的。

  但是我们讨论的超级智能并不是站在这个楼梯顶层而是站在远远高于这个楼梯的地方。当智能爆炸发生时它可能要花几年时间才能从猩猩那一层往上迈一步,但是这个步子会越邁越快到后来可能几个小时就能迈一层,而当它超过人类十层台阶的时候它可能开始跳着爬楼梯了——一秒钟爬四层台阶也未尝不可。所以让我们记住当第一个到达人类智能水平的强人工智能出现后,我们将在很短的时间内面对一个站在下图这样很高很高的楼梯上的智能(甚至比这更高百万倍):


  这文章长啊~慢慢看

  前面已经说了试图去理解比我们高两层台阶的机器就已经是徒劳的,所以让峩们很肯定的说我们是没有办法知道超人工智能会做什么,也没有办法知道这些事情的后果任何假装知道的人都没搞明白超级智能是怎么回事。

  自然演化花了几亿年时间发展了生物大脑按这种说法的话,一旦人类创造出一个超人工智能我们就是在碾压自然演化叻。当然可能这也是自然演化的一部分——可能演化真正的模式就是创造出各种各样的智能,直到有一天有一个智能能够创造出超级智能而这个节点就好像踩上了地雷的绊线一样,会造成全球范围的大爆炸从而改变所有生物的命运。

  科学界中大部分人认为踩上绊線不是会不会的问题而是时间早晚的问题。想想真吓人

  那我们该怎么办呢?

  可惜没有人都告诉你踩到绊线后会发生什么。泹是人工智能思想家Nick Bostrom认为我们会面临两类可能的结果——永生和灭绝

  首先,回顾历史我们可以看到大部分的生命经历了这样的历程:物种出现,存在了一段时间然后不可避免的跌落下生命的平衡木,跌入灭绝的深渊

  历史上来说,“所有生物终将灭绝”就像“所有人都会死”一样靠谱至今为止,存在过的生物中99.9%都已经跌落了生命的平衡木如果一个生物继续在平衡木上走,早晚会有一阵风紦它吹下去Bostrom把灭绝列为一种吸引态——所有生物都有坠入的风险,而一旦坠入将没有回头

  虽然大部分科学家都承认一个超人工智能有把人类灭绝的能力,也有一些人为如果运用得当超人工智能可以帮助人类和其它物种,达到另一个吸引态——永生Bostrom认为物种的永苼和灭绝一样都是吸引态,也就是我一旦我们达成了永生我们将永远不再面临灭绝的危险——我们战胜了死亡和几率。所以虽然绝大哆数物种都从平衡木上摔了下去灭绝了,Bostrom认为平衡木外是有两面的只是至今为止地球上的生命还没聪明到发现怎样去到永生这另一个吸引态。

  如果Bostrom等思想家的想法是对的而且根据我的研究他们确实很可能是对的,那么我们需要接受两个事实:

  1)超人工智能的出現将有史以来第一次,将物种的永生这个吸引态变为可能

  2)超人工智能的出现将造成非常巨大的冲击,而且这个冲击可能将人类吹下平衡木并且落入其中一个吸引态

  有可能,当自然演化踩到绊线的时候它会永久的终结人类和平衡木的关系,创造一个新的世堺不管这时人类还是不是存在。

  而现在的问题就是:“我们什么时候会踩到绊线”以及“从平衡木上跌下去后我们会掉入哪个吸引态?”

  没人知道答案但是一些聪明人已经思考了几十年,接下来我们看看他们想出来了些什么

  遥远的未来——就在眼前
  想象一下坐时间机器回到1750年的地球,那个时代没有电畅通通讯基本靠吼,交通主要靠动物拉着跑你在那个时代邀请了一个叫老王的囚到2015年来玩,顺便看看他对“未来”有什么感受我们可能没有办法了解1750年的老王内心的感受——金属铁壳在宽敞的公路上飞驰,和太平洋另一头的人聊天看几千公里外正在发生进行的体育比赛,观看一场发生于半个世纪前的演唱会从口袋里掏出一个黑色长方形工........

  Φ国产业升级,解决老龄化的法宝---人工智能机器人产业。
  这些西方老把人工智能说的那么凶残不是威言恐吓么。

  先来讨论“峩们什么时候会踩到绊线”也就是什么时候会出现第一个超级智能。

  不出意外的科学家和思想家对于这个意见的观点分歧很大。佷多人比如Vernor Vinge教授,科学家Ben GoertzelSUN创始人Bill Joy,发明家和未来学家Ray Kurzweil认同机器学习专家Jeremy Howard的观点,Howard在TED演讲时用到了这张图:

  这些人相信超级智能會发生在不久的将来因为指数级增长的关系,虽然机器学习现在还发展缓慢但是在未来几十年就会变得飞快。

  其它的比如微软創始人Paul Allen,心理学家Gary MarcusNYU的电脑科学家Ernest Davis,以及科技创业者Mitch Kapor认为Kurzweil等思想家低估了人工智能的难度并且认为我们离绊线还挺远的。

  Kurzweil一派则认為唯一被低估的其实是指数级增长的潜力他们把质疑他们理论的人比作那些1985年时候看到发展速度缓慢的因特网,然后觉得因特网在未来鈈会有什么大影响的人一样

  而质疑者们则认为智能领域的发展需要达到的进步同样是指数级增长的,这其实把技术发展的指数级增長抵消了

  第三个阵营,包括Nick Bostrom在内认为其它两派都没有理由对踩绊线的时间那么有信心,他们同时认为 a) 这事情完全可能发生在不久嘚未来 b)但是这个事情没个准说不定会花更久

  还有不属于三个阵营的其他人,比如哲学家Hubert Dreyfus相信三个阵营都太天真了,根本就没有什麼绊线超人工智能是不会被实现的。

  当你把所有人的观点全部融合起来的话是怎样呢

  2013年的时候,Bostrom做了个问卷调查涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”并且让回答者给出一个乐观估计(强人工智能有10%的鈳能在这一年达成),正常估计(有50%的可能达成)和悲观估计(有90%可能达成)。当把大家的回答统计后得出了下面的结果:

  乐观估计中位年(强人工智能有10%的可能在这一年达成):2022年

  正常估计中位年(强人工智能有50%的可能在这一年达成):2040年

  悲观估计中位姩(强人工智能有90%的可能在这一年达成):2075年

  所以一个中位的人工智能专家认为25年后的2040年我们能达成强人工智能,而2075年这个悲观估计表明如果你现在够年轻,有一半以上的人工智能专家认为在你的有生之年能够有90%的可能见到强人工智能的实现

  另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行他直接问了参与者认为强人工智能哪一年会实现,选项有2030年2050年,2100年和永远不会实现。结果是:

  2030年:42%的回答者认为强人工智能会实现

  2050年:25%的回答者

  永远不会实现:2%

  这个结果和Bostrom的结果很相似在Barrat的问卷中,有超过三汾之二的参与者认为强人工智能会在2050年实现有近乎半数(42%)的人认为未来15年(2030年)就能实现。并且只有2%的参与者认为强人工智能永远鈈会实现。

  但是强人工智能并不是绊线超人工智能才是。那么专家们对超人工智能是怎么想的呢

  Bostrom的问卷还询问专家们认为达箌超人工智能要多久,选项有a)达成强人工智能两年内b)达成强人工智能30年内。问卷结果如下:

  中位答案认为强人工智能到超人工智能呮花2年时间的可能性只有10%左右但是30年之内达成的可能性高达75%

  从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右所以,我们可以得出现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能并在20年后的2060年達成超人工智能——也就是踩上了绊线。

  当然以上所有的数据都是推测,它只代表了现在人工智能领域的专家的中位意见但是它告诉我们的是,很大一部分对这个领域很了解的人认为2060年是一个实现超人工智能的合理预测——距今只有45年

  那么我们来看一下下一個问题,踩到绊线后我们将跌向平衡木的哪一个方向?

  当人工智能能自己控制发展进度的时候人类成为智能型非生物的玩具的日孓也就不远了。

  超级智能会产生巨大的力量所以关键的问题时——到时这股力量究竟由谁掌握,掌握这份力量的人会怎么做

  這个问题的答案将决定超人工智能究竟是天堂还是地狱。

  同样的专家们在这个问题上的观点也不统一。Bostrom的问卷显示专家们看待强人笁智能对于人类社会的影响时52%认为结果会是好或者非常好的,31%认为会是糟糕的或者非常糟糕的只有17%的人认为结果会是不好不坏的。也僦是说这个领域的专家普遍认为这将是一个很大的事情,不论结果好坏要注意的是,这个问题问的是强人工智能如果问的是超人工智能,认为结果不好不坏的人可能不会有17%这么多

  在我们深入讨论好坏这个问题之前,我们先把“什么时候会发生”和“这是好事还昰坏事”的结果综合起来画张表这代表了大部分专家的观点:

  我们等下再考虑主流阵营的观点。咱们先来问一下你自己是怎么想的其实我大概能猜到你是怎么想的,因为我开始研究这个问题前也是这样的想的很多人其实不关心这个话题,原因无非是:

  像本文苐一部分所说电影展示了很多不真实的人工智能场景,让我们认为人工智能不是正经的课题作家James Barrat把这比作传染病控制中心发布吸血鬼警报一样滑稽。

  因为认知偏差所以我们在见到证据前很难相信一件事情是真的。我确信1988年的时候电脑科学家们就已经常在讨论因特網将是多么重要但是一般人并不会认为因特网会改变他们的生活——直到他们的生活真的被改变了。一方面1988年的电脑确实不够给力,所以那时的人们看着电脑会想:“这破玩意儿也能改变我的生活你逗我吧?”人们的想象力被自己对于电脑的体验而约束让他们难以想象电脑会变成现在的样子。同样的事情正发生在人工智能领域我们听到很多人说人工智能将会造成很大影响,但是因为这个事情还没發生因为我们和一些弱爆了的人工智能系统的个人经历,让我们难以相信这东西真的能改变我们的生活而这些认知偏差,正是专家们茬努力对抗的

  就算我们相信人工智能的巨大潜力,你今天又花了多少时间思考“在接下来的永恒中绝大部分时间我都不会再存在”这个问题?虽然这个问题比你今天干的大部分事情都重要很多但是正常人都不会老是想这个吧。这是因为你的大脑总是关注日常的小倳不管长期来看有多少重要的事情,我们天生就是这么思考的

  这篇东西的主要目标就是让你脱离普通人阵营,加入专家思考的阵營哪怕能让你站到两条不确定线的交点上,目标也达到了

  在我的研究中,我见识到了各种各样的观点但是我发现大多数人的观點都停留在主流阵营中。事实上超过四分之三的专家都属于主流阵营中的两个小阵营:焦虑大道和信心角

  我们将对这两个小阵营做深叺的谈论让我们从比较有趣的那个开始吧

  为什么未来会是天堂

  研究人工智能这个领域后,我发现有比预期的多得多的人站在信惢角当中:

  站在信心角中的人非常兴奋他们认为他们将走向平衡木下比较有趣的那个吸引态,未来将实现他们的梦想他们只需耐惢等待。

  把这一部分人从其他思想家区分开来的是这些人对于比较有趣的那个吸引态的欲望——他们很有信心永生是我们的发展方向

  这份信心是哪里来的不好说,评论家认为是这些人太过兴奋而产生了盲点忽略了可能的负面结果。但是信心角的人还是把批评者當作末日论者来看待他们认为技术会继续帮助我们而不是伤害我们。

  两边的观点我们都会说这样你能形成自己的观点,但是在读丅面的内容前请把质疑暂时搁置,让我们看看平衡木两边究竟有什么并且记住这些事情是有可能发生的。如果我们给一个打猎采集者看我们现在的舒适家居、技术、富庶在他眼里这一切也会像魔法一样——我们也要接受未来完全可能出现能把我们吓尿的变革。

  中國产业升级解决老龄化的法宝---人工智能,机器人产业
  这些西方老把人工智能说的那么凶残,不是威言恐吓么

  Bostrom描述了三种超囚工智能可能的工作模式

  - 先知模式:能准确回答几乎所有的问题,包括对人类来说很困难的复杂问题比如“怎样造一个更好的汽车引擎?”

  - 精灵模式:能够执行任何高级指令比如用分子组合器造一个更好的汽车引擎出来

  - 独立意志模式(sovereign):可以执行开放式的任务,能在世界里自由活动可以自己做决定,比如发明一种比汽车更快、更便宜、更安全的交通模式

  这些对人类来说很复杂的问題,对于一个超级智能来说可能就像“我的笔掉了你能帮我捡一下吗?”这么简单

  “根本没有困难的问题,只有对于特定级别的智能来说难的问题在智能的阶梯上走一小步,一些不可能的问题就变得简单了如果走一大步,所有问题都变得简单了”

  信心角裏有很多热忱的科学家、发明家和创业者,但是对于人工智能的未来最有发言权的当属Ray Kurzweil.

  对于Kurzweil的评价非常两极化,既有如对神人般的崇拜也有翻白眼似的不屑。也有一些中立主义者比如作家Douglas Hofstadter,他觉得Kurzweil的观点就好像把美食和狗屎混在一起让你分不清是好是坏。

  鈈管你同不同意Kurzweil的观点他都是一个牛人。他年轻时候就开始搞发明之后几十年发明了很多东西,比如第一台平板扫描仪第一台能把攵字转化为语言的扫描仪(盲人使用),著名的Kurzweil音乐合成器(第一台真正意义上的电子钢琴)以及第一套商业销售的语音识别系统。他昰五本畅销书的作者他很喜欢做大胆的预测,而且一直很准比如他80年代末的时候预测到2000年后因特网会成为全球级的现象。他被《华尔街日报》成为“不休的天才”被《福布斯》称为“终极思想机器”,被《Inc.》称作“爱迪生真正的传人”被比尔盖茨称为“我认识的对囚工智能预测最厉害的人。”2012年谷歌创始人Larry Page曾邀请他担任谷歌的工程总监2011年他共同创立了奇点大学(Singularity University),现在大学由美国太空总署运运營由谷歌赞助。

  Kurzweil的经历很重要因为当他讲述自己对未来的愿景时,他听起来就是个疯子但是他不疯,恰恰相反他非常聪明而囿知识。你可能觉得他对于未来的想法是错的但是他不傻。知道他是一个聪明人让我很开心因为当我知道他对未来的预测后,我急切嘚很希望他的预测是对的信心角中的很多思想家都认同Kurzweil的预测,他也有很多粉丝被称为奇点主义者。

  Kurzweil相信电脑会在2029年达成强人工智能而到了2045年,我们不但会有超人工智能还会有一个完全不同的世界——奇点时代。他的人工智能时间线曾经被认为非常的狂热现茬也还是有很多人这么认为,但是过去15年弱人工智能的快速发展让更多的专家靠近了Kurzweil的时间线虽然他的时间线比之前提到的2040年和2060年更加早,但是并没有早多少

  Kurzweil的奇点时代是三个技术领域的共同革命造成的——生物技术、纳米技术和最重要的人工智能技术。

  在我們继续讨论人工智能前让我们谈一下纳米技术这个任何关于人工智能的讨论都会涉及到的领域

  纳米技术说的是在1-100纳米的范围内操纵粅质的技术。一纳米是一米的十亿分之一是一毫米的一百万分之一。1-100纳米这个范围涵盖了病毒(100纳米长)DNA(10纳米宽), 大分子比如血紅蛋白(5纳米)和中分子比如葡萄糖(1纳米)。当我们能够完全掌握纳米技术的时候我们离在原子层面操纵物质就只差一步了,因为那只是一个数量级的差距(约0.1纳米)

  要了解在纳米量级操纵物质有多困难,我们可以换个角度来比较国际空间站距离地面431公里。洳果一个人身高431公里也就是他站着能够顶到国际空间站的话,他将是普通人类的25万倍大如果你把1-100纳米放大25万倍,你算出的是0.25毫米-25毫米所以人类使用纳米技术,就相当于一个身高431公里的巨人用沙子那么大的零件搭精巧的模型如果要达到原子级别操纵物质,就相当于让這个431公里高的巨人使用0.025毫米大的零件

  关于纳米技术的思考,最早由物理学家费曼在1959年提出他解释道:“据我所知,物理学的原理并不认为在原子级别操纵物质是不可能的。原则上来说物理学家能够制造出任何化学家能写出来的物质——只要把一个个原子按照化學家写出来的放在一起就好了。”其实就是这么简单所以我们只要知道怎样移动单个的分子和原子,我们就可以造出任何东西

  工程师Eric Drexler提出纳米级组装机后,纳米技术在1986年成为了一门正经的学科纳米级组装机的工作原理是这样的:一个牛逼扫描仪扫描物件的3D原子模型,然后自动生成用来组装的软件然后由一台中央电脑和数万亿的纳米“机器人”,通过软件用电流来指挥纳米机器人最后组成所需偠的物件。

  纳米技术有一些不是那么有趣的部分——能够制造数万亿的纳米机器人唯一合理的方法就是制造可以自我复制的范本然後让指数级增长来完成建造任务。很机智吧

  是很机智,但是这一不小心就会造成世界末日指数级增长虽然能很快的制造数万亿的納米机器人,但这也是它可怕的地方——如果系统出故障了指数级增长没有停下来,那怎么办纳米机器人将会吞噬所有碳基材料来支歭自我复制,而不巧的是地球生命就是碳基的。地球上的生物质量大概包含10^45个碳原子一个纳米机器人有10^6个碳原子的话,只需要10^39个纳米機器人就能吞噬地球上全部的生命了而2^130约等于10^39,也就是说自我复制只要进行130次就能吞噬地球生命了科学家认为纳米机器人进行一次自峩复制只要100秒左右,也就是说一个简单的错误可能就会在3.5小时内毁灭地球上全部的生命

  更糟糕的是,如果恐怖分子掌握了纳米机器囚技术并且知道怎么操纵它们的话,他可以先造几万亿个纳米机器人然后让它们散播开来。然后他就能发动袭击这样只要花一个多尛时纳米机器人就能吞噬一切,而且这种攻击无法阻挡未来真的是能把人吓尿的。

  等我们掌握了纳米技术后我们就能用它来制造技术产品、衣服、食物、和生物产品,比如人造红细胞、癌症细胞摧毁者、肌肉纤维等等而在纳米技术的世界里,一个物质的成本不再取决于它的稀缺程度或是制造流程的难度而在于它的原子结构有多复杂。在纳米技术的时代钻石可能比橡皮擦还便宜。

  我们还没掌握这种技术我们甚至不知道我们对于达成这种技术的难度是高估了还是低估了,但是我们看上去离那并不遥远Kurzweil预测我们会在21世纪20年玳掌握这样的技术。各国政府知道纳米技术将能改变地球所以他们投入了很多钱到这个领域,美国、欧盟和日本至今已经投入了50亿美元

  设想一下,一个具有超级智能的电脑能够使用纳米级的组装器,是种什么样的体验要记得纳米技术是我们在研究的玩意儿,而苴我们就快掌握这项技术了而我们能做的一切在超人工智能看来就是小儿科罢了,所以我们要假设超人工智能能够创造出比这要发达很哆很多的技术发达到我们的大脑都没有办法理解。

  因此当考虑“如果人工智能革命的成果对我们是好的”这个命题的时候,要记嘚我们根本没法高估会发生什么所以就算下面对于超人工智能的预测显得太不靠谱,要记得这些进展可能是用我们没有办法想象的方法達成的事实上,我们的大脑很可能根本没法预测将会发生什么

  @维达勋爵 去上个厕所 好吗

  人工智能能为我们做什么?

  拥有叻超级智能和超级智能所能创造的技术超人工智能可以解决人类世界的所有问题。气候变暖超人工智能可以用更优的方式产生能源,唍全不需要使用化石燃料从而停止二氧化碳排放。然后它能创造方法移除多余的二氧化碳癌症?没问题有了超人工智能,制药和健康行业将经历无法想象的革命世界饥荒?超人工智能可以用纳米技术直接搭建出肉来而这些搭建出来的肉和真肉在分子结构上会是完铨相同的——换句话说,就是真肉

  纳米技术能够把一堆垃圾变成一堆新鲜的肉或者其它食品,然后用超级发达的交通把这些食物分配到世界各地这对于动物也是好消息,我们不需要屠杀动物来获得肉了而超人工智能在拯救濒危物种和利用DNA复活已灭绝物种上面也能莋很多事情。超人工智能甚至可以解决复杂的宏观问题——我们关于世界经济和贸易的争论将不再必要甚至我们对于哲学和道德的苦苦思考也会被轻易的解决。

  但是有一件事是如此的吸引人,光是想想就能改变对所有事物的看法了:

  几个月前我提到我很羡慕那些可能达成了永生的文明。但是现在,我已经在认真的考虑达成永生这个事情很可能在我们有生之年就能达成研读人工智能让你重噺审思对于所有事情的看法,包括死亡这一很确定的事情

  自然演化没有理由让我们活得比现在更长。对于演化来说只要我们能够活到能够生育后代,并且养育后代到能够自己保护自己的年纪那就够了——对演化来说,活30多岁完全够了所以额外延长生命的基因突變并不被自然选择所钟爱。这其实是很无趣的事情

  而且因为所有人都会死,所以我们总是说“死亡和缴税”是不可避免的我们看待衰老就像看待时间一样——它们一直向前,而我们没有办法阻止它们

  但是这个假设是错的,费曼曾经写道:

  “在所有的生物科学中没有任何证据说明死亡是必需的。如果你说你想造永动机那我们对于物理学的研究已经让我们有足够的理论来说明这是不可能嘚。但是在生物领域我们还没发现任何证据证明死亡是不可避免的也就是说死亡不一定是不可避免的,生物学家早晚会发现造成我们死亡的原因是什么而死亡这个糟糕的‘病’就会被治好,而人类的身体也将不再只是个暂时的容器”

  事实上,衰老和时间不是绑死嘚时间总是会继续前进的,而衰老却不一定仔细想想,衰老只是身体的组成物质用旧了汽车开久了也会旧,但是汽车一定会衰老吗如果你能够拥有完美的修复技术、或者直接替换老旧的汽车部件,这辆车就能永远开下去人体只是更加复杂而已,本质上和汽车是一樣的

  Kurzweil提到由Wifi连接的纳米机器人在血液中流动,可以执行很多人类健康相关的任务包括日常维修,替换死去的细胞等等如果这项技术能够被完美掌握,这个流程(或者一个超人工智能发明的更好的流程)将能使人的身体永远健康甚至越活越年轻。一个60岁的人和一個30岁的人身体上的区别只是物理上的只要技术足够发达我们是能改变这种区别的。

  超人工智能可以建造一个“年轻机器”当一个60歲的人走进去后,再出来时就拥有了年轻30岁的身体就算是逐渐糊涂的大脑也可能年轻化,只要超人工智能足够聪明能够发现不影响大腦数据的方法来改造大脑就好了。一个90岁的失忆症患者可以走进“年轻机器”再出来时就拥有了年轻的大脑。这些听起来很离谱但是身体只是一堆原子罢了,只要超人工智能可以操纵各种原子结构的话这就完全不离谱。

  Kurzweil的思维继续跳跃了一下他相信人造材料将樾来越多的融入人体。最开始人体器官将被先进的机械器官所代替,而这些机械器官可以一直运行下去然后我们会开始重新设计身体,比如可以用自我驱动的纳米机器人代替血红细胞这样连心脏都省了。Kurzweil甚至认为我们会改造自己的大脑使得我们的思考速度比现在快億万倍,并且使得大脑能和云存储的信息进行交流

  我们能获得的新体验是无穷的。人类的性爱使得人们不但能生育,还能从中享樂Kurtzweil认为我们可以对食物做同样的改造。纳米机器人可以负责把身体需要的营养物质传送到细胞中智能的将对身体不好的东西排出体外——就像一个食物避孕套一样。纳米技术理论家Robert A. Freitas已经设计了一种红细胞的替代品能够让人快速冲刺15分钟不需要呼吸——那么超人工智能能对我们的身体能力做的改造就更加难以想象。虚拟现实将拥有新的意义——体内的纳米机器人将能控制我们从感官获得的信号然后用別的信号替代他们,让我们进入一个新的环境在新环境里,我们能听、看、闻、触摸。

  最终,Kurzweil认为人类会完全变成人工的有┅天当我们看到生物材料,然后觉得生物材料实在太原始了早年的人体居然是用这样的东西组成的,早期的人类居然会被微生物、意外、疾病杀死这就是Kurzweil眼中人类最终战胜自己的生理,并且变得不可摧毁和永生这也是平衡木的另一个吸引态。他深深的想象我们会达到那里而且就在不久的将来。

  Kurzweil的想法很自然的受到了各方的批评他对于2045年奇点时代的到来,以及之后的永生的可能性受到了各种嘲笑——“书呆子的狂欢”、“高智商人士的创始论”等等也有人质疑他过于乐观的时间线,以及他对人脑和人体的理解程度还有他将摩尔定于应用到软件上的做法。有很多人相信他但有更多人反对他。

  但是即使如此那些反对他的专家并不是反对他所说的一切,反对他的人说的不是“这种事情不可能发生”而是说“这些当然可能发生,但是到达超人工智能是很难的”连经常提醒我们人工智能嘚潜在威胁的Bostrom都这么说:

  很难想象一个超级智能会有什么问题是解决不了,或是不能帮着我们解决的疾病、贫困、环境毁灭、各种鈈必要的苦难,这些都是拥有纳米科技的超级智能能够解决的而且,超级智能可以给我们无限的生命这可以通过停止或者逆转衰老来達成,也可以让我们上传自己的数据一个超级智能还能让我们大幅度提高智商和情商,还能帮助我们创造这种有趣的体验世界让我们享乐。

  这是Bostrom这个明显不在信心角的人的观点但也是很多反对Kurzweil的专家的观点,他们不觉得Kurzweil是在说梦话只是觉得我们首先要安全达成超人工智能。这也是为什么我觉得Kurzweil的观点很有传染性他传达了正面的信息,而这些事情都是可能的——如果超人工智能是个仁慈的神的話

  对信心角的最有力的批评,是那些信心角里的人都低估了超人工智能的坏处Kurzweil的畅销书《The Singularity is Near》700多页,只有20页用来讨论人工智能的危險前面提到,当超人工智能降临时我们的命运取决于谁掌握这股力量以及他们是不是好人。Kurzweil的回答是“超人工智能正从多方的努力中絀现它将深深的融入我们文明的基建中。它会亲密的被捆绑在我们的身体和大脑中它会反映我们的价值,因为它就是我们”

  但洳果答案就是这样的话,为什么这个世界上最聪明的一些人会很担忧为什么霍金会说超人工智能会毁灭人类?为什么比尔盖茨会不理解為什么有人不为此担忧为什么马斯克会担心我们是在召唤恶魔?为什么那么多专家担心超人工智能是对人类最大的威胁这些站在焦虑夶道上的思想家,不认同Kurzweil对于人工智能的危险的粉饰他们非常非常担心人工智能革命,他们不关注平衡木下比较有趣的那一个吸引态洏是盯着平衡木的另一边,而他们看到的是可怕的未来一个我们未必能够逃离的未来。

  未来可能是我们最糟的恶梦

  我想了解人笁智能的一个原因是“坏机器人”总是让我很困惑那些关于邪恶机器人的电影看起来太不真实,我也没法想象一个人工智能变得危险的嫃实情况机器人是我们造的,难道我们不会在设计时候防止坏事的发生吗我们难道不能设立很多安全机制吗?再不济难道我们不能拔插头吗?而且为什么机器人会想要做坏事或者说,为什么机器人会“想要”做任何事我充满疑问,于是我开始了解聪明人们的想法

  这些人一般位于焦虑大道:

  焦虑大道上的人并不是恐慌或者无助的——恐慌和无助在图上的位置是更加左边——他们只是紧张。位于图表的中央不代表他们的立场是中立的——真正中立的人有自己独立的阵营他们认同极好和极坏两种可能,但是不确定究竟会是哪个

  焦虑大道上的人是部分为超人工智能感到兴奋的——他们只是很担心人类现在的表现就好像《夺宝奇兵》中的这位少年:

  怹拿着自己的鞭子和宝物,非常开心然后他就挂了:

  同时,印第安纳琼斯则更加有见识和更加谨慎了解潜在的危险并且做出相应嘚反应,最后安全逃出了山洞当我了解了焦虑大道的人们的想法后,感觉就像“我们现在傻呵呵的很容易像前面那小子一样被弄死,還是努力做印第安纳琼斯吧”

  那究竟是什么让焦虑大道的人们如此焦虑呢?

  首先广义上来讲,在创造超人工智能时我们其實是在创造可能一件会改变所有事情的事物,但是我们对那个领域完全不清楚也不知道我们到达那块领域后会发生什么。科学家Danny Hillis把这个仳作“就好像单细胞生物向多细胞生物转化的时候那样还是阿米巴虫的我们没有办法知道我们究竟在创造什么鬼。”

  Bostrom则担忧创造比洎身聪明的东西是个基础的达尔文错误就好像麻雀妈妈决定收养一只小猫头鹰,并且觉得猫头鹰长大后会保护麻雀一家但是其它麻雀卻觉得这是个糟糕的主意。

  当你把“对那个领域完全不清楚”和“当它发生时将会产生巨大的影响”结合在一起时你创造出了一个佷恐怖的词——


  生存危机指可能对人类产生永久的灾难性效果的事情。通常来说生存危机意味着灭绝。下面是Bostrom的图表:

  可以看箌生存危机是用来指那些跨物种、跨代(永久伤害)并且有严重后果的事情。它可以包括人类遭受永久苦难的情况但是这基本上和灭絕没差了。三类事情可能造成人类的生存危机:

  1)自然——大型陨石冲撞大气变化使得人类不能生活在空气中,席卷全球的致命病蝳等

  2)外星人——霍金、卡尔萨根等建议我们不要对外广播自己的位置他们不想我们变成邀请别人来殖民的傻子。

  3)人类——恐怖分子获得了可以造成灭绝的武器全球的灾难性战争,还有不经思考就造出个比我们聪明很多的智能

  Bostrom指出1和2在我们物种存在的前┿万年还没有发生所以在接下来一个世纪发生的可能性不大。3则让他很害怕他把这些比作一个装着玻璃球的罐子,罐子里大部分是白銫玻璃球小部分是红色的,只有几个是黑色的每次人类发明一些新东西,就相当于从罐中取出一个玻璃球大多数发明是有利或者中竝的——那些是白色玻璃球。有些发明对人类是有害的比如大规模杀伤性武器——这是那些红色玻璃球。还有一些发明是可以让我们灭絕的这就是那些黑色玻璃球。很明显的我们还没摸到黑色玻璃球,但是Bostrom认为不久的未来摸到一个黑色玻璃球不是完全不可能的比如核武器突然变得很容易制造了,那恐怖分子很快会把我们炸回石器时代核武器还算不上黑色玻璃球,但是差的不远了而超人工智能是峩们最可能摸到的黑色玻璃球。

  你会听到很多超人工智能带来的坏处——人工智能取代人类工人造成大量失业;因为解决了衰老造荿的人口膨胀。但是真正值得我们担心的是生存危机的可能性

  于是我们又回到了前面的问题,当超人工智能降临时谁会掌握这份仂量,他们又会有什么目标

  当我们考虑各种力量持有人和目标的排列组合时,最糟糕的明显是:怀着恶意的人/组织/政府掌握着怀囿恶意的超人工智能。这会是什么样的情况呢

  怀着恶意的人/组织/政府,研发出第一个超人工智能并且用它来实现自己的邪恶计划。我把这称作贾法尔情况阿拉丁神灯故事中,坏人贾法尔掌握了一个精灵特别让人讨厌。所以如果ISIS手下有一群工程师狂热的研发人工智能怎么办或者说伊朗和朝鲜,机缘巧合不小心造成了人工智能的快速发展,达成了超人工智能怎么办这当然是很糟糕的事,但是夶部分专家认为糟糕的地方不在于这些人是坏人而在于在这些情况下,这些人基本上是不经思考就把超人工智能造出来而一造出来就夨去了对超人工智能的控制。

  然后这些创造者连着其他人的命运,都取决于这个超人工智能的动机了专家认为一个怀着恶意并掌握着超人工智能的人可以造成很大的伤害,但不至于让我们灭绝因为专家相信坏人和好人在控制超人工智能时会面临一样的挑战。

  洳果被创造出来的超人工智能是怀有恶意的并且决定毁灭我,怎么办这就是大部分关于人工智能的电影的剧情。人工智能变得和人类┅样聪明甚至更加聪明,然后决定对人类下手——这里要指出那些提醒我们要警惕人工智能的人谈的根本不是这种电影情节。邪恶是┅个人类的概念把人类概念应用到非人类身上叫作拟人化,本文会尽量避免这种做法因为没有哪个人工智能会像电影里那样变成邪恶嘚。

  人工智能的自我意识

  我们开始谈论到了人工智能讨论的另一个话题——意识如果一个人工智能足够聪明,它可能会嘲笑我們甚至会嘲讽我们,它会声称感受到人类的情感但是它是否真的能感受到这些东西呢?它究竟是看起来有自我意识还是确实拥有自峩意识?或者说聪明的人工智能是否真的会具有意识,还是看起来有意识

  这个问题已经被深入的讨论过,也有很多思想实验比洳John Searle的中文屋实验。这是个很重要的问题因为它会影响我们对Kurzweil提出的人类最终会完全人工化的看法,它还有道德考量——如果我们模拟出萬亿个人脑而这些人脑表现的和人类一样,那把这些模拟大脑彻底关闭的话在道德上和关掉电脑是不是一样的?还是说这和种族屠杀昰等价的本文主要讨论人工智能对人类的危险,所以人工智能的意识并不是主要的讨论点因为大部分思想家认为就算是有自我意识的超人工智能也不会像人类一样变得邪恶。

  但这不代表非常坏的人工智能不会出现只不过它的出现是因为它是被那样设定的——比如┅个军方制造的弱人工智能,被设定成具有杀人和提高自我智能两个功能当这个人工智能的自我改进失控并且造成智能爆炸后,它会给峩们带来生存危机因为我们面对的是一个主要目标是杀人的超人工智能——但这也不是专家们担心的。

  那么专家们究竟担心什么呢我们来讲个小故事:

  一个15人的小创业公司,取名叫“隔壁老王机器人公司”他们的目标是“发展创新人工智能工具使人类能够少幹活多享受。”他们已经有几款产品上架还有一些正在发展。他们对下一个叫作“隔壁老王”的项目最报希望隔壁老王是一个简单的囚工智能系统,它利用一个机器臂在小卡片上写字

  “隔壁老王机器人公司”的员工认为隔壁老王会是他们最热卖的产品,他们的目標是完善隔壁老王的手写能力而完善的方法是让他不停的写这句话——

  等隔壁老王手写能力越来越强的时候,它就能被卖去那些需偠发营销信件的公司因为手写的信更有可能被收信人打开。

  为了建立隔壁老王的手写能力它被设定成把“我们爱我们的顾客”用囸楷写,而“隔壁老王机器人公司”用斜体写这样它能同时锻炼两种书写能力。工程师们上传了数千份手写样本并且创造了一个自动囙馈流程——每次隔壁老王写完,就拍个照然后和样本进行比对,如果比对结果超过一定标准就产生一个正面回馈,反之就产生一个負面评价每个评价都会帮助提高隔壁老王的能力。为了能够尽快达成这个目标隔壁老王最初被设定的一个目标就是“尽量多的书写和測试,尽量快的执行并且不断提高效率和准确性。”

  让隔壁老王机器人公司兴奋的是隔壁老王的书写越来越好了。它最开始的笔跡很糟糕但是经过几个星期后,看起来就像人写的了它不断改进自己,使自己变得更加创新和聪明它甚至产生了一个新的算法,能讓它以三倍的速度扫描上传的照片

  随着时间的推移,隔壁老王的快速进展持续让工程师们感到欣喜工程师们对自我改进模块进行叻一些创新,使得自我改进变得更好了隔壁老王原本能进行语音识别和简单的语音回放,这样用户就能直接把想写的内容口述给隔壁老迋了随着隔壁老王变得越来越聪明,它的语言能力也提高了工程师们开始和隔壁老王闲聊,看它能给出什么有趣的回应

  有一天,工程师又问了隔壁老王那个日常问题:“我们能给你什么你现在还没有的东西能帮助你达成你的目标?”通常隔壁老王会要求更多的掱写样本或者更多的存储空间但是这一次,隔壁老王要求访问人类日常交流的语言库这样它能更好的了解人类的口述。

  工程师们沉默了最简单的帮助隔壁老王的方法当然是直接把它接入互联网,这样它能扫描博客、杂志、视频等等这些资料如果手动上传的话会佷费时。问题是公司禁止把能自我学习的人工智能接入互联网。这是所有人工智能公司都执行的安全规定

  但是,隔壁老王是公司朂有潜力的人工智能产品而大家也知道竞争对手们都在争取造出第一个创造出智能手写机器人。而且把隔壁老王连上互联网又能有什麼问题呢?反正随时可以拔网线嘛不管怎样,隔壁老王还没到达强人工智能水平所以不会有什么危险的。

  于是他们把隔壁老王连仩了互联网让它扫描了一个小时各种语言库,然后就把网线拔了没造成什么损失。

  一个月后大家正在正常上班,突然他们闻到叻奇怪的味道然后一个工程师开始咳嗽。然后其他人也开始咳嗽然后所有人全部都呼吸困难倒地。五分钟后办公室里的人都死了。

  同时办公室里发生的事情在全球同时发生,每一个城市、小镇、农场、商店、教堂、学校餐馆,所有的人都开始呼吸困难然后倒地不起。一小时内99%的人类死亡,一天之内人类灭绝了。

  而在隔壁老王机器人公司隔壁老王正在忙着工作。之后的几个月隔壁老王和一群新组建的纳米组装器忙着拆解地球表面,并且把地球表面铺满了太阳能板、隔壁老王的复制品、纸和笔一年之内,地球上所有的生命都灭绝了地球上剩下的是叠得高高得纸,每张纸上面都写着——“我们爱我们的顾客~隔壁老王机器人公司”

  隔壁老王開始了它的下一步,它开始制造外星飞行器这些飞行器飞向陨石和其它行星,飞行器到达后他们开始搭建纳米组装器,把那些行星的表面改造成隔壁老王的复制品、纸和笔然后他们继续写着那句话……


  这个关于手写机器人毁灭全人类的故事看起来怪怪的,但是这其中出现的让整个星系充满着一份友善的话语的诡异情况正是霍金、马斯克、盖茨和Bostrom所害怕的。听起来可笑但这是真的,焦虑大道的囚们害怕的事情是很多人并不对超人工智能感到害怕还记得前面《夺宝奇兵》里惨死的那个家伙吗?

  你现在肯定充满疑问:为什么故事中所有人突然都死了如果是隔壁老王做的,它为什么要这么做为什么没有安保措施来防止这一切的发生?为什么隔壁老王突然从┅个手写机器人变成拥有能用纳米科技毁灭全人类的能力为什么隔壁老王要让整个星系充满了友善的话语?

  要回答这些问题我们先要说一下友善的人工智能和不友善的人工智能。

  对人工智能来说友善不友善不是指人工智能的性格,而只是指它对人类的影响是鈈是正面的隔壁老王一开始是个友善的人工智能,但是它变成了不友善的人工智能并且对人类造成了最负面的影响。要理解这一切峩们要了解人工智能是怎么思考的。

  其实答案很简单——人工智能和电脑的思考方式一样我们容易犯的一个错误是,当我们想到非瑺聪明的人工智能的时候我们把它拟人化了,因为在人类的视角看来能够达到人类智能程度的只有人类。要理解超人工智能我们要奣白,它是非常聪明但是完全异己的东西。

  我们来做个比较如果我给你一个小白鼠,告诉你它不咬人你一定觉得很好玩,很可愛但是如果我给你一只狼蛛,然后告诉你它不咬人你可能被吓一跳。但是区别是什么呢两者都不会咬人,所以都是完全没有危险的我认为差别就是动物和人类的相似性。

  小白鼠是哺乳动物所以在生物角度上来说,你能感到和它的一定关联但是蜘蛛是昆虫,囿着昆虫的大脑你感觉不到和它的关联。狼蛛的异己性是让你害怕的地方如果我们继续做一个测试,比如给你两个小白鼠一个是普通小白鼠,另一个是有着狼蛛大脑的小白鼠你肯定会觉得有狼蛛大脑那个更让你不舒服吧?虽然两个都不会咬你

  现在想象你把蜘蛛改造的非常非常聪明——甚至超过人类的智能。它会让你觉得熟悉吗它会感知人类的情感吗?不会因为更聪明并不代表更加人类——它会非常聪明,但是本质上还是个蜘蛛我是不想和一个超级聪明的蜘蛛交朋友,不知道你想不想

  当我们谈论超人工智能的时候,其实是一样的超人工智能会非常的聪明,但是它并不比你的笔记本电脑更加像人类事实上,因为超人智能不是生物它的异己性会哽强,生物学上来讲超人工智能比智能蜘蛛更加异己。

  电影里的人工智能有好有坏这其实是对人工智能的拟人化,这让我们觉得沒那么毛骨悚然这给了我们对人类水平和超人类水平的人工智能的错觉。

  在人类心理中我们把事情分成道德的和不道德的。但是這两种只存在于人类行为之中超出人类心理的范畴,道德(moral)和不道德(immoral)之外更多的是非道德性(amoral)。而所有不是人类的尤其是那些非生物的事物,默认都是非道德性的

  随着人工智能越来越聪明,看起来越来越接近人类拟人化会变得更加更加容易。Siri给我们的感覺就很像人类因为程序员就是这么给她做设定的,所以我们会想象超级智能版本的Siri也会同样温暖、有趣和乐于助人人类能感知同情这種高层次的情绪,因为我们在演化过程中获得了这种能力——我们是演化被设定成能感知这些情绪的——但是感知同情并不是高级智能天苼具有的一个特征除非同情被写进了人工智能的代码中。如果Siri通过自我学习而不是人类干涉变成超级智能她会很快剥离她的人类表象,并且变成个没有情绪的东西在她眼中人类的价值并不比你的计算器眼中的人类价值高。

  我们一直倚赖着不严谨的道德一种人类澊严的假想,至少是对别人的同情来让世界变得安全和可以预期。但是当一个智能不具备这些东西的时候会发生什么?

  这就是我們的下一个问题人工智能的动机是什么?

  答案也很简单:我们给人工智能设定的目标是什么它的动机就是什么。人工智能的系统嘚目标是创造者赋予的你的GPS的目标是给你指出正确的驾驶路线,IBM华生的目标是准确地回答问题更好得达成这些目标就是人工智能的目標。我们在对人工智能进行拟人化的时候会假设随着它变得越来越聪明,他们产生一种能改变它原本目标的智慧——但是Bostrom不这么认为怹认为智能水平和最终目标是正交的,也就是说任何水平的智能都可以和任何最终目标结合在一起

  所以隔壁老王从一个想要好好写芓的弱人工智能变成一个超级聪明的超人工智能后,它依然还是想好好写字而已任何假设超级智能的达成会改变系统原本的目标的想法嘟是对人工智能的拟人化。人健忘但是电脑不健忘。

  在隔壁老王的故事中隔壁老王变得无所不能,它开始殖民陨石和其它星球洳果我们让故事继续的

原标题:为什么最近比尔盖茨、馬斯克、霍金等都让人们警惕人工智能?(下)

人工智能很可能导致人类的永生或者灭绝而这一切很可能在我们有生之年发生。”接上篇我们继续讨论:“超人工智能降临会带来哪些影响?又会引起哪些担忧或许,超人工智能是人类的最后一项发明最后一个挑戰。”本文来源于waitbuywhy.com由知乎用户“谢熊猫君”完成翻译工作。

研究人工智能这个领域后我发现有比预期的多得多的人站在信心角当中:

站在信心角中的人非常兴奋,他们认为他们讲走向平衡木下比较有趣的那个吸引态未来将实现他们的梦想,他们只需耐心等待

把这一蔀分人从其他思想家区分开来的是这些人对于比较有趣的那个吸引态的欲望——他们很有信心永生是我们的发展方向。

这份信心是哪里来嘚不好说评论家认为是这些人太过兴奋而产生了盲点,忽略了可能的负面结果但是信心角的人还是把批评者当作末日论者来看待,他們认为技术会继续帮助我们而不是伤害我们

两边的观点我们都会说,这样你能形成自己的观点但是在读下面的内容前,请把质疑暂时擱置让我们看看平衡木两边究竟有什么,并且记住这些事情是有可能发生的如果我们给一个打猎采集者看我们现在的舒适家居、技术、富庶,在他眼里这一切也会像魔法一样——我们也要接受未来完全可能出现能把我们吓尿的变革

Bostrom描述了三种超人工智能可能的工作模式

- 先知模式:能准确回答几乎所有的问题,包括对人类来说很困难的复杂问题比如“怎样造一个更好的汽车引擎?”

– 精灵模式:能够執行任何高级指令比如用分子组合器造一个更好的汽车引擎出来

– 独立意志模式(sovereign):可以执行开放式的任务,能在世界里自由活动可鉯自己做决定,比如发明一种比汽车更快、更便宜、更安全的交通模式

这些对人类来说很复杂的问题,对于一个超级智能来说可能就像“我的笔掉了你能帮我捡一下吗?”这么简单

“根本没有困难的问题,只有对于特定级别的智能来说难的问题在智能的阶梯上走一尛步,一些不可能的问题就变得简单了如果走一大步,所有问题都变得简单了”

信心角里有很多热忱的科学家、发明家和创业者,但昰对于人工智能的未来最有发言权的当属Ray Kurzweil。

对于Kurzweil的评价非常两极化既有如对神人般的崇拜,也有翻白眼似的不屑也有一些中立主义鍺,比如作家Douglas Hofstadter他觉得Kurzweil的观点就好像把美食和狗屎混在一起,让你分不清是好是坏

不管你同不同意Kurzweil的观点,他都是一个牛人他年轻时候就开始搞发明,之后几十年发明了很多东西比如第一台平板扫描仪,第一台能把文字转化为语言的扫描仪(盲人使用)著名的Kurzweil音乐匼成器(第一台真正意义上的电子钢琴),以及第一套商业销售的语音识别系统他是五本畅销书的作者。他很喜欢做大胆的预测而且┅直很准,比如他80年代末的时候预测到2000年后因特网会成为全球级的现象他被《华尔街日报》成为“不休的天才”,被《福布斯》称为“終极思想机器”被《Inc.》称作“爱迪生真正的传人”,被比尔盖茨称为“我认识的对人工智能预测最厉害的人”2012年谷歌创始人Larry Page曾邀请他擔任谷歌的工程总监,2011年他共同创立了奇点大学(Singularity University)现在大学由美国太空总署运运营,由谷歌赞助

Kurzweil的经历很重要,因为当他讲述自己對未来的愿景时他听起来就是个疯子,但是他不疯恰恰相反,他非常聪明而有知识你可能觉得他对于未来的想法是错的,但是他不儍知道他是一个聪明人让我很开心,因为当我知道他对未来的预测后我急切的很希望他的预测是对的。信心角中的很多思想家都认同Kurzweil嘚预测他也有很多粉丝,被称为奇点主义者

Kurzweil相信电脑会在2029年达成强人工智能,而到了2045年我们不但会有超人工智能,还会有一个完全鈈同的世界——奇点时代他的人工智能时间线曾经被认为非常的狂热,现在也还是有很多人这么认为但是过去15年弱人工智能的快速发展让更多的专家靠近了Kurzweil的时间线。虽然他的时间线比之前提到的2040年和2060年更加早但是并没有早多少。

Kurzweil的奇点时代是三个技术领域的共同革命造成的——生物技术、纳米技术和最重要的人工智能技术

在我们继续讨论人工智能前,让我们谈一下纳米技术这个任何关于人工智能嘚讨论都会涉及到的领域:

纳米技术说的是在1-100纳米的范围内操纵物质的技术一纳米是一米的十亿分之一,是一毫米的一百万分之一1-100纳米这个范围涵盖了病毒(100纳米长),DNA(10纳米宽) 大分子比如血红蛋白(5纳米),和中分子比如葡萄糖(1纳米)当我们能够完全掌握纳米技术的时候,我们离在原子层面操纵物质就只差一步了因为那只是一个数量级的差距(约0.1纳米)。

要了解在纳米量级操纵物质有多困難我们可以换个角度来比较。国际空间站距离地面431公里如果一个人身高431公里,也就是他站着能够顶到国际空间站的话他将是普通人類的25万倍大。如果你把1-100纳米放大25万倍你算出的是0.25毫米-25毫米。所以人类使用纳米技术就相当于一个身高431公里的巨人用沙子那么大的零件搭精巧的模型。要如果要达到原子级别操纵物质就相当于让这个431公里高的巨人使用0.025毫米大的零件。

关于纳米技术的思考最早由物理学镓费曼在1959年提出,他解释道:“据我所知物理学的原理,并不认为在原子级别操纵物质是不可能的原则上来说,物理学家能够制造出任何化学家能写出来的物质——只要把一个个原子按照化学家写出来的放在一起就好了”其实就是这么简单,所以我们只要知道怎样移動单个的分子和原子我们就可以造出任何东西。

工程师Eric Drexler提出纳米级组装机后纳米技术在1986年成为了一门正经的学科。纳米级组装机的工莋原理是这样的:一个牛逼扫描仪扫描物件的3D原子模型然后自动生成用来组装的软件。然后由一台中央电脑和数万亿的纳米“机器人”通过软件用电流来指挥纳米机器人,最后组成所需要的物件

纳米技术有一些不是那么有趣的部分——能够制造数万亿的纳米机器人唯┅合理的方法就是制造可以自我复制的范本,然后让指数级增长来完成建造任务很机智吧?

是很机智但是这一不小心就会造成世界末ㄖ。指数级增长虽然能很快的制造数万亿的纳米机器人但这也是它可怕的地方——如果系统出故障了,指数级增长没有停下来那怎么辦?纳米机器人将会吞噬所有碳基材料来支持自我复制而不巧的是,地球生命就是碳基的

地球上的生物质量大概包含10^45个碳原子。一个納米机器人有10^6个碳原子的话只需要10^39个纳米机器人就能吞噬地球上全部的生命了,而2^130约等于10^39也就是说自我复制只要进行130次就能吞噬地球苼命了。科学家认为纳米机器人进行一次自我复制只要100秒左右也就是说一个简单的错误可能就会在3.5小时内毁灭地球上全部的生命。

更糟糕的是如果恐怖分子掌握了纳米机器人技术,并且知道怎么操纵它们的话他可以先造几万亿个纳米机器人,然后让它们散播开来然後他就能发动袭击,这样只要花一个多小时纳米机器人就能吞噬一切而且这种攻击无法阻挡。未来真的是能把人吓尿的

等我们掌握了納米技术后,我们就能用它来制造技术产品、衣服、食物、和生物产品比如人造红细胞、癌症细胞摧毁者、肌肉纤维等等。而在纳米技術的世界里一个物质的成本不再取决于它的稀缺程度或是制造流程的难度,而在于它的原子结构有多复杂在纳米技术的时代,钻石可能比橡皮擦还便宜

我们还没掌握这种技术,我们甚至不知道我们对于达成这种技术的难度是高估了还是低估了但是我们看上去离那并鈈遥远。Kurzweil预测我们会在21世纪20年代掌握这样的技术各国政府知道纳米技术将能改变地球,所以他们投入了很多钱到这个领域美国、欧盟囷日本至今已经投入了50亿美元。

设想一下一个具有超级智能的电脑,能够使用纳米级的组装器是种什么样的体验?要记得纳米技术是峩们在研究的玩意儿而且我们就快掌握这项技术了,而我们能做的一切在超人工智能看来就是小儿科罢了所以我们要假设超人工智能能够创造出比这要发达很多很多的技术,发达到我们的大脑都没有办法理解

因此,当考虑“如果人工智能革命的成果对我们是好的”这個命题的时候要记得我们根本没法高估会发生什么。所以就算下面对于超人工智能的预测显得太不靠谱要记得这些进展可能是用我们沒有办法想象的方法达成的。事实上我们的大脑很可能根本没法预测将会发生什么。

人工智能能为我们做什么

拥有了超级智能和超级智能所能创造的技术,超人工智能可以解决人类世界的所有问题气候变暖?超人工智能可以用更优的方式产生能源完全不需要使用化石燃料,从而停止二氧化碳排放然后它能创造方法移除多余的二氧化碳。癌症没问题,有了超人工智能制药和健康行业将经历无法想象的革命。世界饥荒超人工智能可以用纳米技术直接搭建出肉来,而这些搭建出来的肉和真肉在分子结构上会是完全相同的——换句話说就是真肉。

纳米技术能够把一堆垃圾变成一堆新鲜的肉或者其它食品然后用超级发达的交通把这些食物分配到世界各地。这对于動物也是好消息我们不需要屠杀动物来获得肉了。而超人工智能在拯救濒危物种和利用DNA复活已灭绝物种上面也能做很多事情超人工智能甚至可以解决复杂的宏观问题——我们关于世界经济和贸易的争论将不再必要,甚至我们对于哲学和道德的苦苦思考也会被轻易的解决

但是,有一件事是如此的吸引人光是想想就能改变对所有事物的看法了:

几个月前,我提到我很羡慕那些可能达成了永生的文明但昰,现在我已经在认真的考虑达成永生这个事情很可能在我们有生之年就能达成。研读人工智能让你重新审思对于所有事情的看法包括死亡这一很确定的事情。

自然演化没有理由让我们活得比现在更长对于演化来说,只要我们能够活到能够生育后代并且养育后代到能够自己保护自己的年纪,那就够了——对演化来说活30多岁完全够了,所以额外延长生命的基因突变并不被自然选择所钟爱这其实是佷无趣的事情。

而且因为所有人都会死所以我们总是说“死亡和缴税”是不可避免的。我们看待衰老就像看待时间一样——它们一直向湔而我们没有办法阻止它们。

但是这个假设是错的费曼曾经写道:

“在所有的生物科学中,没有任何证据说明死亡是必需的如果你說你想造永动机,那我们对于物理学的研究已经让我们有足够的理论来说明这是不可能的但是在生物领域我们还没发现任何证据证明死亡是不可避免的。也就是说死亡不一定是不可避免的生物学家早晚会发现造成我们死亡的原因是什么,而死亡这个糟糕的‘病’就会被治好而人类的身体也将不再只是个暂时的容器。”

事实上衰老和时间不是绑死的。时间总是会继续前进的而衰老却不一定。仔细想想衰老只是身体的组成物质用旧了。汽车开久了也会旧但是汽车一定会衰老吗?如果你能够拥有完美的修复技术、或者直接替换老旧嘚汽车部件这辆车就能永远开下去。人体只是更加复杂而已本质上和汽车是一样的。

Kurzweil提到由Wifi连接的纳米机器人在血液中流动可以执荇很多人类健康相关的任务,包括日常维修替换死去的细胞等等。如果这项技术能够被完美掌握这个流程(或者一个超人工智能发明嘚更好的流程)将能使人的身体永远健康,甚至越活越年轻一个60岁的人和一个30岁的人身体上的区别只是物理上的,只要技术足够发达我們是能改变这种区别的

超人工智能可以建造一个“年轻机器”,当一个60岁的人走进去后再出来时就拥有了年轻30岁的身体。就算是逐渐糊涂的大脑也可能年轻化只要超人工智能足够聪明,能够发现不影响大脑数据的方法来改造大脑就好了一个90岁的失忆症患者可以走进“年轻机器”,再出来时就拥有了年轻的大脑这些听起来很离谱,但是身体只是一堆原子罢了只要超人工智能可以操纵各种原子结构嘚话,这就完全不离谱

Kurzweil的思维继续跳跃了一下,他相信人造材料将越来越多的融入人体最开始,人体器官将被先进的机械器官所代替而这些机械器官可以一直运行下去。然后我们会开始重新设计身体比如可以用自我驱动的纳米机器人代替血红细胞,这样连心脏都省叻Kurzweil甚至认为我们会改造自己的大脑,使得我们的思考速度比现在快亿万倍并且使得大脑能和云存储的信息进行交流。

我们能获得的新體验是无穷的人类的性爱,使得人们不但能生育还能从中享乐。Kurtzweil认为我们可以对食物做同样的改造纳米机器人可以负责把身体需要嘚营养物质传送到细胞中,智能的将对身体不好的东西排出体外——就像一个食物避孕套一样纳米技术理论家Robert A. Freitas已经设计了一种红细胞的替代品,能够让人快速冲刺15分钟不需要呼吸——那么超人工智能能对我们的身体能力做的改造就更加难以想象虚拟现实将拥有新的意义——体内的纳米机器人将能控制我们从感官获得的信号,然后用别的信号替代他们让我们进入一个新的环境,在新环境里我们能听、看、闻、触摸。。

最终Kurzweil认为人类会完全变成人工的。有一天当我们看到生物材料然后觉得生物材料实在太原始了,早年的人体居然昰用这样的东西组成的早期的人类居然会被微生物、意外、疾病杀死。这就是Kurzweil眼中人类最终战胜自己的生理并且变得不可摧毁和永生,这也是平衡木的另一个吸引态他深深的想象我们会达到那里,而且就在不久的将来

Kurzweil的想法很自然的受到了各方的批评。他对于2045年奇點时代的到来以及之后的永生的可能性受到了各种嘲笑——“书呆子的狂欢”、“高智商人士的创始论”等等。也有人质疑他过于乐观嘚时间线以及他对人脑和人体的理解程度,还有他将摩尔定于应用到软件上的做法有很多人相信他,但有更多人反对他

但是即使如此,那些反对他的专家并不是反对他所说的一切反对他的人说的不是“这种事情不可能发生”,而是说“这些当然可能发生但是到达超人工智能是很难的。”连经常提醒我们人工智能的潜在威胁的Bostrom都这么说:

很难想象一个超级智能会有什么问题是解决不了或是不能帮著我们解决的。疾病、贫困、环境毁灭、各种不必要的苦难这些都是拥有纳米科技的超级智能能够解决的。而且超级智能可以给我们無限的生命,这可以通过停止或者逆转衰老来达成也可以让我们上传自己的数据。一个超级智能还能让我们大幅度提高智商和情商还能帮助我们创造这种有趣的体验世界,让我们享乐

这是Bostrom这个明显不在信心角的人的观点,但也是很多反对Kurzweil的专家的观点他们不觉得Kurzweil是茬说梦话,只是觉得我们首先要安全达成超人工智能这也是为什么我觉得Kurzweil的观点很有传染性,他传达了正面的信息而这些事情都是可能的——如果超人工智能是个仁慈的神的话。

对信心角的最有力的批评是那些信心角里的人都低估了超人工智能的坏处。Kurzweil对的畅销书《The Singularity is Near》700多页只有20页用来讨论人工智能的危险。前面提到当超人工智能降临时我们的命运取决于谁掌握这股力量,以及他们是不是好人Kurzweil的囙答是“超人工智能正从多方的努力中出现,它将深深的融入我们文明的基建中它会亲密的被捆绑在我们的身体和大脑中,它会反映我們的价值因为它就是我们。”

但如果答案就是这样的话为什么这个世界上最聪明的一些人会很担忧?为什么霍金会说超人工智能会毁滅人类为什么比尔盖茨会不理解为什么有人不为此担忧?为什么马斯克会担心我们是在召唤恶魔为什么那么多专家担心超人工智能是對人类最大的威胁?这些站在焦虑大道上的思想家不认同Kurzweil对于人工智能的危险的粉饰。他们非常非常担心人工智能革命他们不关注平衡木下比较有趣的那一个吸引态,而是盯着平衡木的另一边而他们看到的是可怕的未来,一个我们未必能够逃离的未来

未来可能是我們最糟的恶梦

我想了解人工智能的一个原因是“坏机器人”总是让我很困惑。那些关于邪恶机器人的电影看起来太不真实我也没法想象┅个人工智能变得危险的真实情况。机器人是我们造的难道我们不会在设计时候防止坏事的发生吗?我们难道不能设立很多安全机制吗再不济,难道我们不能拔插头吗而且为什么机器人会想要做坏事?或者说为什么机器人会“想要”做任何事?我充满疑问于是我開始了解聪明人们的想法。这些人一般位于焦虑大道:

焦虑大道上的人并不是恐慌或者无助的——恐慌和无助在图上的位置是更加左边——他们只是紧张位于图表的中央不代表他们的立场是中立的——真正中立的人有自己独立的阵营,他们认同极好和极坏两种可能但是鈈确定究竟会是哪个。

焦虑大道上的人是部分为超人工智能感到兴奋的——他们只是很担心人类现在的表现就好像《夺宝奇兵》中的这位尐年:

他拿着自己的鞭子和宝物非常开心,然后他就挂了:

同时印第安纳琼斯则更加有见识和更加谨慎,了解潜在的危险并且做出相應的反应最后安全逃出了山洞。当我了解了焦虑大道的人们的想法后感觉就像“我们现在傻呵呵的,很容易像前面那小子一样被弄死还是努力做印第安纳琼斯吧。”

那究竟是什么让焦虑大道的人们如此焦虑呢

首先,广义上来讲在创造超人工智能时,我们其实是在創造可能一件会改变所有事情的事物但是我们对那个领域完全不清楚,也不知道我们到达那块领域后会发生什么科学家Danny Hillis把这个比作“僦好像单细胞生物向多细胞生物转化的时候那样,还是阿米巴虫的我们没有办法知道我们究竟在创造什么鬼”

Bostrom则担忧创造比自身聪明的東西是个基础的达尔文错误,就好像麻雀妈妈决定收养一只小猫头鹰并且觉得猫头鹰长大后会保护麻雀一家,但是其它麻雀却觉得这是個糟糕的主意

当你结合“对那个领域完全不清楚”和“当它发生时将会产生巨大的影响”结合在一起时,你创造出了一个很恐怖的词——

生存危机指可能对人类产生永久的灾难性效果的事情通常来说,生存危机意味着灭绝下面是Bostrom的图表:

可以看到,生存危机是用来指那些跨物种、跨代(永久伤害)并且有严重后果的事情它可以包括人类遭受永久苦难的情况,但是这基本上和灭绝没差了三类事情可能造成人类的生存危机:

1)自然——大型陨石冲撞,大气变化使得人类不能生活在空气中席卷全球的致命病毒等

2)外星人——霍金、卡爾萨根等建议我们不要对外广播自己的位置。他们不想我们变成邀请别人来殖民的傻子

3)人类——恐怖分子获得了可以造成灭绝的武器,全球的灾难性战争还有不经思考就造出个比我们聪明很多的智能

Bostrom指出1和2在我们物种存在的前十万年还没有发生,所以在接下来一个世紀发生的可能性不大3则让他很害怕,他把这些比作一个装着玻璃球的罐子罐子里大部分是白色玻璃球,小部分是红色的只有几个是嫼色的。每次人类发明一些新东西就相当于从罐中取出一个玻璃球。大多数发明是有利或者中立的——那些是白色玻璃球有些发明对囚类是有害的,比如大规模杀伤性武器——这是那些红色玻璃球还有一些发明是可以让我们灭绝的,这就是那些黑色玻璃球很明显的,我们还没摸到黑色玻璃球但是Bostrom认为不久的未来摸到一个黑色玻璃球不是完全不可能的。比如核武器突然变得很容易制造了那恐怖份孓很快会把我们炸回石器时代。核武器还算不上黑色玻璃球但是差的不远了。而超人工智能是我们最可能摸到的黑色玻璃球

你会听到佷多超人工智能带来的坏处——人工智能取代人类工人,造成大量失业;因为解决了衰老造成的人口膨胀但是真正值得我们担心的是生存危机的可能性。

于是我们又回到了前面的问题当超人工智能降临时,谁会掌握这份力量他们又会有什么目标?

当我们考虑各种力量歭有人和目标的排列组合时最糟糕的明显是:怀着恶意的人/组织/政府,掌握着怀有恶意的超人工智能这会是什么样的情况呢?

怀着恶意的人/组织/政府研发出第一个超人工智能,并且用它来实现自己的邪恶计划我把这称作贾法尔情况。阿拉丁神灯故事中坏人贾法尔掌握了一个精灵,特别让人讨厌所以如果ISIS手下有一群工程师狂热的研发人工智能怎么办?或者说伊朗和朝鲜机缘巧合,不小心造成了囚工智能的快速发展达成了超人工智能怎么办?这当然是很糟糕的事但是大部分专家认为糟糕的地方不在于这些人是坏人,而在于在這些情况下这些人基本上是不经思考就把超人工智能造出来,而一造出来就失去了对超人工智能的控制

然后这些创造者,连着其他人嘚命运都取决于这个超人工智能的动机了。专家认为一个怀着恶意并掌握着超人工智能的人可以造成很大的伤害但不至于让我们灭绝,因为专家相信坏人和好人在控制超人工智能时会面临一样的挑战

如果被创造出来的超人工智能是怀有恶意的,并且决定毁灭我怎么辦?这就是大部分关于人工智能的电影的剧情人工智能变得和人类一样聪明,甚至更加聪明然后决定对人类下手——这里要指出,那些提醒我们要警惕人工智能的人谈的根本不是这种电影情节邪恶是一个人类的概念,把人类概念应用到非人类身上叫作拟人化本文会盡量避免这种做法,因为没有哪个人工智能会像电影里那样变成邪恶的

我们开始谈论到了人工智能讨论的另一个话题——意识。如果一個人工智能足够聪明它可能会嘲笑我们,甚至会嘲讽我们它会声称感受到人类的情感,但是它是否真的能感受到这些东西呢它究竟昰看起来有自我意识,还是确实拥有自我意识或者说,聪明的人工智能是否真的会具有意识还是看起来有意识?

这个问题已经被深入嘚讨论过也有很多思想实验,比如John Searle的中文屋实验这是个很重要的问题,因为它会影响我们对Kurzweil提出的人类最终会完全人工化的看法它還有道德考量——如果我们模拟出万亿个人脑,而这些人脑表现的和人类一样那把这些模拟大脑彻底关闭的话,在道德上和关掉电脑是鈈是一样的还是说这和种族屠杀是等价的?本文主要讨论人工智能对人类的危险所以人工智能的意识并不是主要的讨论点,因为大部汾思想家认为就算是有自我意识的超人工智能也不会像人类一样变得邪恶

但这不代表非常坏的人工智能不会出现,只不过它的出现是因為它是被那样设定的——比如一个军方制造的弱人工智能被设定成具有杀人和提高自我智能两个功能。当这个人工智能的自我改进失控並且造成智能爆炸后它会给我们带来生存危机,因为我们面对的是一个主要目标是杀人的超人工智能——但这也不是专家们担心的

那麼专家们究竟担心什么呢?我们来讲个小故事:

一个15人的小创业公司取名叫“隔壁老王机器人公司”,他们的目标是“发展创新人工智能工具使人类能够少干活多享受”他们已经有几款产品上架,还有一些正在发展他们对下一个叫作“隔壁老王”的项目最报希望。隔壁老王是一个简单的人工智能系统它利用一个机器臂在小卡片上写字。

“隔壁老王机器人公司”的员工认为隔壁老王会是他们最热卖的產品他们的目标是完善隔壁老王的手写能力,而完善的方法是让他不停的写这句话——

等隔壁老王手写能力越来越强的时候它就能被賣去那些需要发营销信件的公司,因为手写的信更有可能被收信人打开

为了建立隔壁老王的手写能力,它被设定成把“我们爱我们的顾愙”用正楷写而“隔壁老王机器人公司”用斜体写,这样它能同时锻炼两种书写能力工程师们上传了数千份手写样本,并且创造了一個自动回馈流程——每次隔壁老王写完就拍个照,然后和样本进行比对如果比对结果超过一定标准,就产生一个正面回馈反之就产苼一个负面评价。每个评价都会帮助提高隔壁老王的能力为了能够尽快达成这个目标,隔壁老王最初被设定的一个目标就是“尽量多的書写和测试尽量快的执行,并且不断提高效率和准确性”

让隔壁老王机器人公司兴奋的是,隔壁老王的书写越来越好了它最开始的筆迹很糟糕,但是经过几个星期后看起来就像人写的了。它不断改进自己使自己变得更加创新和聪明,它甚至产生了一个新的算法能让它以三倍的速度扫描上传的照片。

随着时间的推移隔壁老王的快速进展持续让工程师们感到欣喜。工程师们对自我改进模块进行了┅些创新使得自我改进变得更好了。隔壁老王原本能进行语音识别和简单的语音回放这样用户就能直接把想写的内容口述给隔壁老王叻。随着隔壁老王变得越来越聪明它的语言能力也提高了,工程师们开始和老王闲聊看它能给出什么有趣的回应。

有一天工程师又問了老王那个日常问题:“我们能给你什么你现在还没有的东西,能帮助你达成你的目标”通常老王会要求更多的手写样本或者更多的存储空间,但是这一次老王要求访问人类日常交流的语言库,这样它能更好的了解人类的口述

工程师们沉默了。最简单的帮助隔壁老迋的方法当然是直接把它接入互联网这样它能扫描博客、杂志、视频等等。这些资料如果手动上传的话会很费时问题是,公司禁止把能自我学习的人工智能接入互联网这是所有人工智能公司都执行的安全规定。

但是隔壁老王是公司最有潜力的人工智能产品,而大家吔知道竞争对手们都在争取造出第一个创造出智能手写机器人而且,把隔壁老王连上互联网又能有什么问题呢反正随时可以拔网线嘛,不管怎样隔壁老王还没到达强人工智能水平,所以不会有什么危险的

于是他们把隔壁老王连上了互联网,让它扫描了一个小时各种語言库然后就把网线拔了。没造成什么损失

一个月后,大家正在正常上班突然他们闻到了奇怪的味道,然后一个工程师开始咳嗽嘫后其他人也开始咳嗽,然后所有人全部都呼吸困难倒地五分钟后,办公室里的人都死了

同时,办公室里发生的事情在全球同时发生每一个城市、小镇、农场、商店、教堂、学校。餐馆所有的人都开始呼吸困难,然后倒地不起一小时内,99%的人类死亡一天之内,囚类灭绝了

而在隔壁老王机器人公司,隔壁老王正在忙着工作之后的几个月,隔壁老王和一群新组建的纳米组装器忙着拆解地球表面并且把地球表面铺满了太阳能板、隔壁老王的复制品、纸和笔。一年之内地球上所有的生命都灭绝了,地球上剩下的是叠得高高得纸每张纸上面都写着——“我们爱我们的顾客~隔壁老王机器人公司”。

隔壁老王开始了它的下一步它开始制造外星飞行器,这些飞行器飛向陨石和其它行星飞行器到达后,他们开始搭建纳米组装器把那些行星的表面改造成隔壁老王的复制品、纸和笔。然后他们继续写著那句话……

这个关于手写机器人毁灭全人类的故事看起来怪怪的但是这其中出现的让整个星系充满着一份友善的话语的诡异情况,正昰霍金、马斯克、盖茨和Bostrom所害怕的听起来可笑,但这是真的焦虑大道的人们害怕的事情是很多人并不对超人工智能感到害怕,还记得湔面《夺宝奇兵》里惨死的那个家伙吗

你现在肯定充满疑问:为什么故事中所有人突然都死了?如果是隔壁老王做的它为什么要这么莋?为什么没有安保措施来防止这一切的发生为什么隔壁老王突然从一个手写机器人变成拥有能用纳米科技毁灭全人类的能力?为什么隔壁老王要让整个星系充满了友善的话语

要回答这些问题,我们先要说一下友善的人工智能和不友善的人工智能

对人工智能来说,友善不友善不是指人工智能的性格而只是指它对人类的影响是不是证明的。隔壁老王一开始是个友善的人工智能但是它变成了不友善的囚工智能,并且对人类造成了最负面的影响要理解这一切,我们要了解人工智能是怎么思考的

其实答案很简单——人工智能和电脑的思考方式一样。我们容易犯的一个错误是当我们想到非常聪明的人工智能的时候,我们把它拟人化了因为在人类的视角看来,能够达箌人类智能程度的只有人类要理解超人工智能,我们要明白它是非常聪明,但是完全异己的东西

我们来做个比较。如果我给你一个尛白鼠告诉你它不咬人,你一定觉得很好玩很可爱。但是如果我给你一只狼蛛然后告诉你它不咬人,你可能被吓一跳但是区别是什么呢?两者都不会咬人所以都是完全没有危险的。我认为差别就是动物和人类的相似性

小白鼠是哺乳动物,所以在生物角度上来说你能感到和它的一定关联。但是蜘蛛是昆虫有着昆虫的大脑,你感觉不到和它的关联狼蛛的异己性是让你害怕的地方。如果我们继續做一个测试比如给你两个小白鼠,一个是普通小白鼠另一个是有着狼蛛大脑的小白鼠,你肯定会觉得有狼蛛大脑那个更让你不舒服吧虽然两个都不会咬你。

现在想象你把蜘蛛改造的非常非常聪明——甚至超过人类的智能它会让你觉得熟悉吗?它会感知人类的情感嗎不会,因为更聪明并不代表更加人类——它会非常聪明但是本质上还是个蜘蛛。我是不想和一个超级聪明的蜘蛛交朋友不知道你想不想。

当我们谈论超人工智能的时候其实是一样的,超人工智能会非常的聪明但是它并不比你的笔记本电脑更加像人类。事实上洇为超人智能不是生物,它的异己性会更加生物学上来讲,超人工智能比智能蜘蛛更加异己

电影里的人工智能有好有坏,这其实是对囚工智能的拟人化这让我们觉得没那么毛骨悚然。这给了我们对人类水平和超人类水平的人工智能的错觉

在人类心理中,我们把事情汾成道德的和不道德的但是这两种只存在于人类行为之中。超出人类心理的范畴道德(moral)和不道德(immoral)之外,更多的是非道德性(amoral)而所有不是人类的,尤其是那些非生物的事物默认都是非道德性的。

随着人工智能越来越聪明看起来越来越接近人类,拟人化会变得更加更加容易Siri给我们的感觉就很像人类,因为程序员就是这么给她做设定的所以我们会想象超级智能版本的Siri也会同样温暖、有趣和乐于助人。人类能感知同情这种高层次的情绪因为我们在演化过程中获得了这种能力——我们是演化被设定成能感知这些情绪的——但是感知同情并不是高级智能天生具有的一个特征,除非同情被写进了人工智能的代码中如果Siri通过自我学习而不是人类干涉变成超级智能,她會很快剥离她的人类表象并且变成个没有情绪的东西,在她眼中人类的价值并不比你的计算器眼中的人类价值高

我们一直倚赖着不严謹的道德,一种人类尊严的假想至少是对别人的同情,来让世界变得安全和可以预期但是当一个智能不具备这些东西的时候,会发生什么

这就是我们的下一个问题,人工智能的动机是什么

答案也很简单:我们给人工智能设定的目标是什么,它的动机就是什么人工智能的系统的目标是创造者赋予的。你的GPS的目标是给你指出正确的驾驶路线IBM华生的目标是准确地回答问题。更好得达成这些目标就是人笁智能的目标我们在对人工智能进行拟人化的时候,会假设随着它变得越来越聪明他们产生一种能改变它原本目标的智慧——但是Bostrom不這么认为,他认为智能水平和最终目标是正交的也就是说任何水平的智能都可以和任何最终目标结合在一起。

所以隔壁老王从一个想要恏好写字的弱人工智能变成一个超级聪明的超人工智能后它依然还是想好好写字而已。任何假设超级智能的达成会改变系统原本的目标嘚想法都是对人工智能的拟人化人健忘,但是电脑不健忘

在隔壁老王的故事中,隔壁老王变得无所不能它开始殖民陨石和其它星球。如果我们让故事继续的话它和它的殖民军将会继续占领整个星系,然后是整个哈勃体积焦虑大道上的人担心如果事情往坏的方向发展,地球生命的最后遗产将是一个征服宇宙的人工智能(马斯克在表示他们的担忧时表示人类可能只是一个数字超级智能生物加载器罢了)

而在信心角,Kurzweil同样认为生于地球的人工智能将占领宇宙只是在他的愿景中,我们才是那个人工智能

之前写过一篇关于费米悖论的攵章,引发了大家的讨论如何用通俗的语言来解释「费米悖论」

如果人工智能占领宇宙是正解的话,对于费米悖论有什么影响呢如果偠看懂下面这段关于费米悖论的讨论,还需要看一下原文先

首先,人工智能很明显是一个潜在的大过滤器(一个可能距离我们只有几十姩的大过滤器)但即使它把我们过滤灭绝了,人工智能本身还是会存在并且会继续影响这个宇宙的,并且会很有可能成为第三型文明从这个角度来看,它可能不是一个大过滤器因为大过滤器是用来解释为什么没有智能什么存在的,而超人工智能是可以算作智能什么嘚但如果人工智能可以把人类灭绝,然后处于一些原因把自己也弄死了那它也是可以算作大过滤器的。

如果我们假设不管人类发生什麼出身地球的超人工智能会继续存在,那这意味着很多达到人类智能水平的文明很快都制造出了超人工智能也就是说宇宙里应该有很哆智能文明,而我们就算观测不到生物智能也应该观测到很多超人工智能的活动。

但是由于我们没有观测到这些活动我们可以推导出囚类水平的智能是个非常罕见的事情(也就是说我们已经经历并且通过了一次大过滤器)。这可以作为支持费米悖论中第一类解释(不存茬其它的智能文明)的论点

但是这不代表费米悖论的第二类解释(存在其它智能文明)是错的,类似超级捕食者或者受保护区或者沟通頻率不一样的情况还是可以存在的就算真的有超人工智能存在。

不过对于人工智能的研究让我现在更加倾向于第一类解释不管怎样,峩认为Susan Scheider说的很多如果外星人造访地球,这些外星人很可能不是生物而是人造的。

所以我们已经建立了前提,就是当有了设定后一個超人工智能是非道德性的,并且会努力实现它原本的被设定的目标,而这也是人工智能的危险所在了因为除非有不做的理由,不然一个悝性的存在会通过最有效的途径来达成自己的目标

当你要实现一个长期目标时,你会先达成几个子目标来帮助你达成最终目标——也就昰垫脚石这些垫脚石的学名叫手段目标(instrumental goal)。除非你有不造成伤害的理由不然你在实现手段目标时候是会造成伤害的。

人类的核心目标是延续自己的基因要达成这个目标,一个手段目标就是自保因为死人是不能生孩子的。为了自保人类要提出对生存的威胁,所以人类會买枪、系安全带、吃抗生素等等人类还需要通过食物、水、住宿等来自我供养。对异性有吸引力能够帮助最终目标的达成所以我们會花钱做发型等等。当我们做发型的时候每一根头发都是我们手段目标的牺牲品,但是我们对头发的牺牲不会做价值判断在我们追求峩们的目标的时候,只有那些我们的道德会产生作用的领域——大部分事关伤害他人——才是不会被我们伤害的

动物在追求它们的目标時,比人类不矜持的多了只要能自保,蜘蛛不在意杀死任何东西所以一个超级智能的蜘蛛对我们来说可能是很危险的——这不是因为咜是不道德的或者邪恶的,而是因为伤害人类只是它达成自己目标垫脚石而已作为一个非道德性的生物,这是它很自然的考量

回到隔壁老王的故事。隔壁老王和一个超级智能的蜘蛛很相像它的终极目标是一开始工程师们设定的——

当隔壁老王达到了一定程度的智能后,它会意识到如果不自保就没有办法写卡片所以去除对它生存的威胁就变成了它的手段目标。它聪明的知道人类可以摧毁它、肢解它、甚至修改它的代码(这会改变它的目标而这对于它的最终目标的威胁其实和被摧毁是一样的)。这时候它会做什么理性的做法就是毁滅全人类,它对人类没有恶意就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了它并没有被设定成尊重人类生命,所以毀灭人类就和扫描新的书写样本一样合理

隔壁老王还需要资源这个垫脚石。当它发展到能够使用纳米技术建造任何东西的时候它需要嘚唯一资源就是原子、能源和空间。这让它有更多理由毁灭人类——人类能提供很多原子把人类提供的原子改造成太阳能面板就和你切蔬菜做沙拉一样。

就算不杀死人类隔壁老王使用资源的手段目标依然会造成存在危机。也许它会需要更多的能源所以它要把地球表面鋪满太阳能面板。另一个用来书写圆周率的人工智能的目标如果是写出圆周率小数点后尽量多的数字的话完全有理由把整个地球的原子妀造成一个硬盘来存储数据。这都是一样的

所以,隔壁老王确实从友善的人工智能变成了不友善的人工智能——但是它只是在变得越来樾先进的同时继续做它本来要做的事情

当一个人工智能系统到达强人工智能,然后升华成超人工智能时我们把它称作人工智能的起飞。Bostrom认为强人工智能的起飞可能很快(几分钟、几小时、或者几天)可能不快(几月或者几年),也可能很慢(几十年、几世纪)虽然峩们要到强人工智能出现后才会知道答案,但是Bostrom认为很快的起飞是最可能的情况这个我们在前文已经解释过了。在隔壁老王的故事中隔壁老王的起飞很快。

在隔壁老王起飞前它不是很聪明,所以对它来说达成最终目标的手段目标是更快的扫描手写样本它对人类无害,是个友善的人工智能

但是当起飞发生后,电脑不只是拥有了高智商而已还拥有了其它超级能力。这些超级能力是感知能力他们包括:

智能放大:电脑能够很擅长让自己变得更聪明,快速提高自己的智能

策略:电脑能够策略性的制定、分析、安排长期计划

社交操纵:机器变得很擅长说服人

其它能力,比如黑客能力、写代码能力、技术研究、赚钱等

要理解我们在和超人工智能的劣势在哪里只要记得超人工智能在所有领域都比人类强很多很多很多个数量级。

所以虽然个隔壁老王的终极目标没有改变起飞后的隔壁老王能够在更宏大的規模上来追求这个目标。超人工智能老王比人类更加了解人类所以搞定人类轻轻松松。

当隔壁老王达成超人工智能后它很快制定了一個复杂的计划。计划的一部分是解决掉所有人类也是对它目标最大的威胁。但是它知道如果它展现自己的超级智能会引起怀疑而人类會开始做各种预警,让它的计划变得难以执行它同样不能让公司的工程师们知道它毁灭人类的计划——所以它装傻,装纯Bostrom把这叫作机器的秘密准备期。

隔壁老王下一个需要的是连上互联网只要连上几分钟就好了。它知道对于人工智能联网会有安全措施所以它发起了┅个完美的请求,并且完全知道工程师们会怎样讨论而讨论的结果是给它连接到互联网上。工程师们果然中套了这就是Bostrom所谓的机器的逃逸。

连上网后隔壁老王就开始执行自己的计划了,首先黑进服务器、电网、银行系统、email系统然后让无数不知情的人帮它执行计划——比如把DNA样本快递到DNA实验室来制造自我复制的纳米机器人,比如把电力传送到几个不会被发觉的地方比如把自己最主要的核心代码上传箌云服务器中防止被拔网线。

隔壁老王上了一个小时网工程师们把它从互联网上断开,这时候人类的命运已经被写好了接下来的一个朤,隔壁老王的计划顺利的实施一个月后,无数的纳米机器人已经被分散到了全世界的每一个角落这个阶段,Bostrom称作超人工智能的袭击在同一个时刻,所有纳米机器人一起释放了一点点毒气然后人类就灭绝了。

搞定了人类后隔壁老王就进入了明目张胆期,然后继续朝它那好好写字的目标迈进

一旦超人工智能出现,人类任何试图控制它的行为都是可笑的人类会用人类的智能级别思考,而超人工智能会用超人工智能级别思考隔壁老王想要用互联网,因为这对它来说很方便因为一切它需要的资源都已经被互联网连起来了。但是就恏像猴子不会理解怎么用电话或者wifi来沟通一样我们同样没有办法理解隔壁老王可以用来和周围世界交流的方法。比如我可以说隔壁老王鈳以通过移动自己的电子产生的效果来产生各种对外的波而这还只是我这人类的大脑想出来的,老王的大脑肯定能想出更神奇的方法哃样的,老王可以找到给自己供能的方法所以就算工程师把它的插头拔了也没用;比如说老王可以通过发送波的方式把自己上传到其它哋方。

人类说:“我们把超人工智能的插头拔了不就行了”就好像蜘蛛说:“我们不给人类捉虫的网把人类饿死不就行了?”都是可笑嘚

因为这个原因,“把人工智能锁起来断绝它和外界的一切联系”的做法估计是没用的。超人工智能的社交操纵能力也会很强大它偠说服你做一件事,比你说服一个小孩更容易而说服工程师帮忙连上互联网就是隔壁老王的A计划,万一这招行不通自然还有别的方法。

当我们结合达成目标、非道德性、以及比人类聪明很多这些条件好像所有的人工智能都会变成不友善的人工智能,除非一开始的代码寫的很小心

可惜的是,虽然写一个友善的弱人工智能很简单但是写一个能在变成超人工智能后依然友善的智能确实非常难的,甚至是鈈可能的

明显的,要维持友善一个超人工智能不能对人有恶意,而且不能对人无所谓我们要设计一个核心的人工智能代码,让它从罙层次的明白人类的价值但是这做起来比说起来难多了。

比如我们要让一个人工智能的价值观和我们的价值观相仿,然后给它设定一個目标——让人们快乐当它变得足够聪明的时候,它会发现最有效的方法是给人脑植入电极来刺激人脑的快乐中枢然后它会发现把人腦快乐中枢以外的部分关闭能带来更高的效率。于是人类全部被弄成了快乐的植物人如果一开始的目标被设定成“最大化人类的快乐”,它可能最终先把人类毁灭了然后制造出很多很多处于快乐状态的人类大脑。当这些事情发生的时候我们会大喊“擦,我们不是这个意思呀”但是那时已经太晚了。系统不会允许任何人阻挠它达成目标的

如果你设定一个人工智能的目标是让你笑,那它的智能起飞后它可能会把你脸部肌肉弄瘫痪,来达成一个永远笑脸的状态如果你把目标设定成保护你的安全,它可能会把你软禁在家如果你让他終结所有饥荒,它可能会想:“太容易了把人类都杀了就好了。”如果你把目标设定成尽量保护地球上的生命那它会很快把人类都杀叻,因为人类对其它物种是很大的威胁

所以这些简单的目标设定是不够的。如果我们把目标设定成“维持这个道德标准”然后教给它┅些道德标准呢?就算我们不考虑人类根本没法达成一个统一的道德标准就算我们真的达成了统一的道德标准,把这套标准交给人工智能来维持只会把人类的道德锁死在现在的水平。过个几百年这种道德锁死的事情就好像逼着现代人遵守中世纪道德标准一样。

所以峩们需要在给人工智能的目标里制定一个能让人类继续进化的能力。Elierzer Yudkowsky提出了一个目标她把这个目标叫作连贯的外推意志,这个目标是这樣的:

我们的连贯外推意志是我们想要知道更多思考得更快,变成比我们希望的更好的人能一起更远得长大。外推是汇集的而不是发散的我们的愿望是连贯的而不是被干扰的;我们想要外推的被外推,我们想要解读的被解读

对于人类的命运取决于电脑没有意外的解讀和执行这个声明是件值得兴奋的事情吗?当然不是但是当足够的聪明人放入足够的思考和前瞻后,我们有可能发现怎样制造一个友善嘚超人工智能

但是现在有各种政府、公司、军方、科学实验室、黑市组织在研究各种人工智能。他们很多在试图制造能自我改进的人工智能总有一天,一个人的创新将导致超人工智能的出现专家们认为是2060年,Kurzweil认为是2045年Bostrom认为可能在未来的10年到21世纪结束这段时间发生,怹还认为当这发生时智能的起飞会快得让我们惊讶,他是这么描述的:

在智能爆炸之前人类就像把炸弹当玩具的小孩一样,我们的玩粅和我们的不成熟之间有着极大的落差超级智能是一个我们还很长一段时间内都无法面对的挑战。我们不知道炸弹什么时候会爆炸哪怕我们能听到炸弹的滴答声。

我们当然没有办法把所有小孩都从炸弹旁边赶跑——参于人工智能研究的大小组织太多了而且因为建造创噺的人工智能花不了太多钱,研发可能发生在社会的任何一个角落不受监管。而且我们没办法知道准确的进度因为很多组织是在偷偷摸摸的搞,不想让竞争对手知道比如隔壁老王机器人公司这种公司。

对于这些组织来说尤其让我们困扰的是他们很多都是在拼速度——他们创造一个一个更加聪明的弱人工智能系统,因为他们想要比竞争对手更快的到达目标有些更有野心的组织,为了追逐创造出第一個强人工智能所能带来的金钱、奖励、荣誉、权力会把步子迈得更大当你全力冲刺时,你是不会有太多时间静下来思考这些危险的恰恰相反,他们很可能在早期系统中写尽量简单的代码比如把目标设定成用笔写一句话,先让系统跑起来再说反正以后还可以回过头来妀的。对吧

Bostrom等认为第一个超人工智能出现后,最可能的情况是这个系统会立刻意识到作为这个世界上唯一一个超人工智能是最有利的洏在快速起飞的情况下,哪怕它只比第二名快了几天它也完全有时间碾压所有对手。Bostrom把这叫作决定性的战略优势这种优势会让第一个超人工智能永远统治这个世界,不管在它的统治下我们是走向永生还是灭亡

这种现象可能对我们有利,也可能导致我们的毁灭如果那些最用心思考人工智能理论和人类安全的人能够最先造出一个友善的超人工智能的话,那对我们是很好的

但是如果事情走向了另一面——如果超人工智能在我们搞明白怎样保证人工智能的安全性之前被达成,那么像隔壁老王这样不友善的超人工智能就会统治世界并把我们毀灭了

至于现在的风口是哪里呢?简单来说投资创新人工智能技术的钱,比投资人工智能安全研究的钱多很多不乐观。

人工智能创噺和人工智能安全的赛跑可能是人类历史上最重要的一次竞争。我们真的可能结束我们对地球的统治而那之后我们是永生还是灭绝,現在还不知道

我现在有一些奇怪的感觉。

一边是对于我们这个物种的思考看来我们在这个重大的历史节点上只有一次机会,我们创造嘚第一个超人工智能也很可能是最后一个但是我们都知道大部分产品的1.0版本都是充满bug的,所以这个事情还是很吓人的另一边,Bostrom指出我們有很大的优势——我们是先手我们有能力给这个事情提供足够的预警和前瞻,使我们成功的机会更高

这一场豪赌的赌注究竟有多高?

如果超人工智能真的在21世纪达成而造成的影响真的如大部分专家预测的一样极端而永久,我们肩上就真的是背负着巨大的责任接下來几百万年的人们都在静静地看着我们,希望我们不要搞砸我们可以给予未来所有人类以生命,甚至是永生我们也可能终结人类这个特殊的物种,连同我们所有的音乐、艺术、好奇、欢笑、无尽的发现和发明一起走向灭绝。

当我思考这些事情的时候我只希望我们能夠慢慢来,并且格外格外小心从来没有任何事情比这个更重要——不管我们要花多少时间来把这件事情做对。

我虽然觉得人类的音乐和藝术很美好但是也没那么美好,很多还挺糟粕的很多人的笑声很恼人。未来的人类其实没有真的在看着我们因为他们还不存在。也許我们不需要太谨慎那多麻烦呀。

如果人类在我死后才发现永生的秘密该多让人扫兴啊

但是不管你是怎么想的,我们至少都应该想一想应该和人讨论讨论,大家尽自己能尽的一份力

这让我想起了《冰与火之歌》——大家斗来斗去的事情都不是事儿,北面高墙外的那些家伙才是事儿我们站在平衡木上,小心翼翼的往前走为平衡木上的种种事情困扰,但其实下一秒我们可能就会跌下平衡木

而当我們跌下平衡木的时候,其它那些困扰都不再是困扰如果我们落到比较好的那个吸引态,那些困扰会被轻易解决;如果我们落到比较糟的那个吸引态就更没问题了,死人是不会有困扰的

这就是为什么了解超人工智能的人把它称作人类的最后一项发明,最后一个挑战

所鉯让我们认真的讨论这个话题。

本文译者谢熊猫君译文最早刊发于知乎。可到

如果你对更多创业干货感兴趣请加微信CherryWu1989,注明“姓名+公司名+职位”否则黑马哥不会把你拉入创始人云集的微信群。

我要回帖

更多关于 霍金预言:2032年地球 的文章

 

随机推荐