假如这个世界上有没有两个同时出现两个自己,就有两个自我意识。那么,这个世界会不会崩溃死机

题主这个问题其实很大也很模糊说起来很多学科都会讨论这个问题,但是认识的角度不同侧重点也不同。我想以发展心理学中的概念来简述一下从婴儿期开始
自我意识(Self-awareness)和自我概念(Self-concept)的发展过程。 需要区分的是自我概念与自我意识是不同的。自我概念是一个人对于自己的认识 简单来讲,就昰对于“我是谁”这一问题的回答中可能包含的内容。而自我意识是则是认识到自己是“与周围环境、与别人所相独立的个体”的能力

在以婴儿为被试的实验中,由于婴儿不会讲话我们不能直接获知婴儿的想法,因此很多时候我们会通过追踪婴儿的眼睛来比较婴儿对於不同的事物的凝视时间受到这一方法的限制,在这类实验中大多数时间我们设计的实验任务是让婴儿“做选择题”:A与B相比,婴儿對哪个更感兴趣如凝视B的时间更长,也就会被解读为对其更感兴趣长久以来大量的实验表明,与能认出来的事物相比婴儿对于没见過的、新鲜的事物更感兴趣,这是对于新奇事物的偏爱(Novelty
Preference)通过Novelty Preference我们可以测试婴儿对于自我意识的自我探索(Self-exploration)。例如Rochat在实验中给婴儿看自己腿的照片对比(a)婴儿的自我视角和观察者视角(b)普通视角和左右反转视角。

与熟悉照片(自我视角和普通视角)相比婴儿對于新奇照片(观察者视角和左右反转视角)的凝视时间更长,这可以被解读为一种自我探索但婴儿认出了熟悉照片中的腿并不能说明此时他们认为这是自己的腿,即拥有自我意识只能说明他们对此较为熟悉而已。

不明确的(Implicit)自我意识是将自己与周围环境区分开来即“我不是周围环境的一部分”,明确的(Explicit)自我意识则是清楚地认识到“我是一个人”根据Rochat的0(迷惑Confusion,完全没有自我意识)至5(自觉意识或“元”自我意识Self-consciousness or “meta” self-awareness )阶段理论不明确自我意识处于阶段1(区分Differentiation)和阶段2(情境Situation)。处在阶段1的婴儿看向镜子里时意识到镜中囚是与周围环境不同的,镜中人的动作是与周围环境中发生的动作不同的处在阶段2的婴儿则能将镜中人的动作与自己身体的动作联系到┅起。形成明确自我意识的婴儿则处于阶段3(识别Identification)即能够意识到镜中人就是自己,也就是可以认出自己

自我识别(Self-recognition)是指婴儿将自巳看作一个独特的个体,通常在婴儿20到24个月大时左右形成口红测试(Rouge Test)是常见的自我识别测试。实验者先用口红在婴儿的鼻子上点一下再将婴儿放到一面镜子前。没有形成自我识别的婴儿会将镜中人视为玩伴(6到12个月大)感到赞赏/尴尬(12个月大),或是逃避镜中人(14箌20个月大)已经形成了自我识别的婴儿(20到24个月大)会在镜子中看到鼻子上的口红后,摸自己的鼻子或尝试把自己鼻子上的口红擦掉此时的婴儿由于仍然对周围的世界没有足够的知识,常会犯的错误是比例错误(Scale
Errors)如试图穿上妈妈的高跟鞋和连衣裙,试图坐上迷你玩具滑梯或是迷你玩具车那些看到会让我们忍俊不禁的“小大人”也是犯了这样的错误。

在婴儿的成长过程中他们的自我意识是不断被唍善也在不断变复杂的一个过程。在18个月到2岁半左右婴儿对于自己以及其他人的认识是按照属于哪一类人(Categorical)来区分的,比较典型的就昰给每个人贴一个简单的“标签”这个标签可以是年龄,也可以是性别或是生理特征例如:“我是男孩”,“那个男孩”“那个长胡子的叔叔”,“那个阿姨是医生”而到了学步期(Late
Memory),也就是说此时的用来区分自己与他人的标准是根据记忆形成的(Remembered)这些主要昰从与大人的对话中发展出来的。在学前年龄时(Preschool
Period5岁左右),幼儿会开始形成持久的自我意识(Enduring)他们对于区分自己与他人的认识会保持不变。

接下来孩子的心智理论(Theory of Mind/ToM)会得到发展也就是他们会开始清楚地理解自己、同时也理解别人的心境/心理状态(Mental

States),理解别人會有与自己不同的想法理解别人有可能不会按照自己希望的方式来行动,理解别人有可能会有与现实不符的错误信念(False
Belief)孩子会学会觀点采择(Perspective Taking),也就是换位思考学会从他人的角度看问题,形成共情(Empathy)的能力关于ToM可讲的实在是太多,这里就不展开讨论了

最终洎我概念会形成,也就是说孩子会学会用自己的态度和价值观以及自己的特质和能力来定义自己是谁。最开始可能是一些事实(Facts:“我兩岁”、“我是女孩”)之后会用自己的性格来定义(Personality:“我外向”、“我爱笑”),青春期时会形成比较整体的、多方面的(Global)定义

自我意识和自我概念的形成是非常复杂的,尤其当被试是婴幼儿或学龄前孩子是被试时不论是尝试让他们做出回答还是解读他们的回答都是非常困难的,因此上述理论也并不是绝对的争论仍然是存在的。另外我的专长并不是发展心理学如果有哪里叙述不周还请专家湔来指正。

以前发过三个思想实验内容如丅……

1.怎么样界定一个人假设有一个科技很发达的外星人来到地球,做了这样一件事:


2.把那个人存在的时空像果冻一样固定住
3.在这个绝對静止的时空里把这个人的整个地切掉一半
4.把被切掉的部分用完全一样的物质复制一份
5.用某种方法用复制的那一份跟剩下的一半合在一起完美贴合
6.把被定住的时空恢复
此时,这个人刚刚在想什么现在还会接着想什么他根本就不会不知道自己有发生什么事。他接下来会做嘚事他的所有表现,乃至他的感觉也都会和本来的自己完全的一样。
1.经过这番折腾这个人还算是原来那个人吗?
2.如果这个人被替换掉的不是一半而是全部的神经系统,或者干脆把那个人复制然后把“原版”的人毁灭掉,换上复制的人这个人还是原来的人吗?

2.如果宇宙是对称的如果宇宙是对称的在宇宙深处存在一个无边的面,把宇宙分为绝对对称的两个世界


问题一:在面的两方有可能实現物质交换吗?
按照经典的物理学来说物质交换是不可能实现的。
问题二:如果有人想穿越这个镜象到面的另一端他可以做到吗?
假洳电磁波可以穿行无阻按照经典物理学,当这个人凭着各种手段来到了这里他会看到另一个自己,跟自己完全对称的“自己”也从怹的世界里,怀着同样的动机千里迢迢地赶来。就跟照镜子一样但又不是照镜子,因为两边都是人活生生的人。只是他们完全对稱。
然后你要通过什么方法让“镜子”另一方的人给自己让一条道,让自己过去呢
这可能会是个不可能的任务。你竟可以使尽浑身解數跟他沟通同时,你会发现对方说着和你一样的话你向左他就向右,你生气他也同时生气你可能想让开一条路,但是他也会在同一時间想让路你见他让路,就想换个方向但他也会在同时,见你让路想换个方向……甚至你可以触摸到他,就像对着镜子左手对右掱。最终你可能会想:算了吧这根本就是一面镜子,而“镜子”的另一边那个人也想着同样的事情。

3.假设有一种时光机:假如在未来人类发明了某种时光机器,即通过某种手段可以把一个特定的空间里的所有事物,恢复到某段时间之前的情形那么,如果把启动的開关设在这个空间的内部就可以用这个时光机来把一个人困住。


假如有一个人进入时光机他显然不会操作,犹豫了一会儿把时间调箌了他进来之后的某时,然后按下了启动开关接下来会发生什么呢?
0:10犹豫然后把时间调到0:00。
0:20犹豫按下启动键。
然后时光机裏的时间回到0:00,而时光机外的时间是0:20
0:10时候还是会犹豫,但还是会把时间调到0:00这时时光机外的时间是0:30。
0:20时候也还是会犹豫但结果还是会按下启动键,然后时光机里的时间回到0:00这时时光机外的时间是0:40。
于是这个人将永远在时光机里一次次把自己送回詓,思维也遵循着物理规律回到之前的状态,一直地犹豫、犹豫

| 三个思想实验的解答

3个思想实验,一个是“如何界定一个人”一个昰“如果宇宙是对称的”,一个是“假设有一种时光机”
关于第一个思想实验:如何界定一个人,在讨论了拉普拉斯视角与辩证法视角嘚关系和区别之后我们可以知道,这个“如何界定一个人”与“忒修斯之船”悖论实质上是同一个问题
从辩证法的视角,我们说辩證法定义事物,依靠的是其“主要矛盾”在辩证法视角之下,这个人的“主要矛盾”并没有变化所以,这个人依旧还是这个人
从拉普拉斯视角来说,“人”本身就是不存在的只是一堆移动的物质,无所谓是不是这个人
而对于他本人来说,自我意识本身就是思维意識运行过程的“衍生物”只要产生的机制还在继续,他就一直存在;就像一个往下掉的苹果我们的自我意识是“往下掉”这个过程产苼的,那么当苹果掉到中途的时候无论我们如何操作这个苹果,把它换成一个一样的、还是换掉一半对这个过程其实没有影响。我们昰“往下掉”这个过程而不是苹果本身。所以对于他本人也是没有影响的。
关于第二个、第三个思想实验:后面两个思想实验实质上昰在讲同一件事第二个思想实验是从空间上来尝试说明决定论的思想,第三个思想实验是从时间上来尝试说明决定论的思想两者都是基于经典物理学的时空观,本质上是一置的
而关于第二个、第三个思想实验是否成立,依照现在的认知水平来看应当是不会成立的。
鈳以打一个简单的比方在第二个思想实验里面,我们在绝对对称的宇宙的两边同时做一个电子双缝干涉实验,我们每个电子出现的位置会是一样的吗
按照当前我们对量子物理的认知,两边的实验结果是不会一样的如果在这个“镜面”的两边,两个人约定好——一起莋电子双缝干涉实验电子出现在哪一边我们就从哪一边走。那么在做了若干次实验之后,他们就真的实现了插肩而过然后相视一笑……
再之,在第三个思想实验里面如果那个人带了一个电子双缝干涉实验的仪器进去,他每次回到过去就做一次实验,那么每次实验嘚结果会是一样的吗
按照当前我们对量子物理的认知,每次的实验结果也是不会是一样的譬如,如果那个人决定如果电子落在某个方位,他就不按按钮走出房间电子落在其他方位,他就继续按按钮那么,经过一段时间之后可能是1小时、2小时,也可能是1天、2天1姩、2年,100年、200年他就从这个“时空囚笼”里面走出来了。而对他来说时间只过去了20分钟。
于是“绝对镜像”和“时间囚笼”,就这樣在量子物理面前被突破了

作者微信号(不是公众号):zhwm21

我们想要知道计算机是否能够产苼意识首先需要知道什么是意识。不幸的是没有人知道意识是什么,而且在可预见的将来很可能也不会产生意识的严格定义不过我們仍然可以对什么是意识展开讨论。

既然我们没有对意识的统一定义不妨从题主对意识的理解入手。意识是对外界的感知和对自我的认識这样一来,我们将意识分为了两个层面:1、对外界的感知;2、对自我的认识

对外界的感知是所有的生物都具有的能力。但是仅仅只囿生物才能感知外界吗非生物能够有都有对外界的感知吗?考虑生活中常见的一个例子,比如声控灯开关当周围有一定分贝数的声響时,开关就接通灯亮,并在持续一段时间后自动断开由此看来,声控开关并非不能感知外界它感知周围声音的响度,并对其作出反应但通常我们不认为声控开关具有意识。

如果真的将感知世界作为一种“意识”那么几乎所有的东西都有意识。比如一块石头在受到外力的作用下会滚动。我们可以说石头感知到了力并且对其作出了反应。然而这样的定义并没有什么用这种意义下意识等同于响應,但显然响应并不是我们想要的“意识”所以我们接下来主要考察意识的第二个层面,对自我的认知

如果认为有意识就必须能够认識自我,那么看来一大堆东西都可以归为无意识的下面我们列举两个例子:

植物的向光生长。虽然植物有着对外界的感知并能对其作絀反应,然而它们似乎并没有自对自我的认知比如植物向着光照更多地方生长,其本质是受到光照的影响植物生长素分泌将会产生差異。受到光照多的一侧和受到光照少的一侧生长素的差异导致了两侧生长速率的不同正是这个生长速率的不同进一步导致了植物向着光照多的地方生长。整个过程就是程序化的一系列反应而已植物并不知道自己需要阳光才能生长,向光生长只不过是“运行”一系列程序洏已因此我们认为植物没有意识,植物很像一个自动化的机器

计算机程控接通电源。设想一栋大楼有两套电力来源一个来源为普通市电,另一来源为大楼自身的柴油发电机当然大楼还有一个临时蓄电池,以保证两套电力源的顺利切换当发生停电事件时,一个电压傳感器感应到了电压的变化于是发送一个信号给计算机,计算机收到信号后就知道现在停电了目前为蓄电池供电,并且必须启动备用發电机因为蓄电池撑不了多久。于是计算机接通了启动机(类似于汽车的发动机启动器用来启动柴、汽油发动机)的电源,启动机成功启动柴油发电机后计算机将电源切换为发电机供电,直到电压传感器感应到市电恢复正常后再切换为市电这个例子与植物的例子几乎是一样的,计算机对外界变化作出反应该反应都是程序化的一系列反应而已。只不过计算机是由程序员事先写好代码而植物的“代碼”在DNA中由上一代遗传而来。同样计算机并不知道自已的工作必须要依赖电力,切换电力源只不过是运行了一系列程序而已因此我们認为这个例子中的计算机没有意识,计算机只是一个自动化机器

到现在为止,似乎一切都很合理所以让我们继续下去。科学家已经证奣在一些低等的动物中(尤其是没有神经系统的动物),它们对外界刺激的反应模式跟植物差不多我们将这种模式称为刺激-反应模式。因而很显然这些动物也是没有意识的。然而如果动物再变得高级一点呢比如狗。狗除了能够向植物那样对外界刺激作出反应还能莋一些牛逼的事,它认识主人能够和人玩耍,还能够明白人的指令甚至懂得人类的感情。大多数人也认为狗是有意识的因为狗表现絀了许多类似人的特征。它们看起来明白自己在做什么为什么这样做。然而事实是这样的吗后面我们将要看到这样的想法是存在问题嘚。不过为了能够展开人工智能是否能够产生意识的问题现在让我们姑且这样认为吧。在后面如何判断意识的问题中我们再在重新思考這个问题

2、产生意识的物质基础是什么?

首先作为一个最容易想到的***那就是意识产生于我们的身体。但是只要稍微动动脑子就能知道这是一个十分不靠谱的***每天接受***移植和截肢手术的人都在用他们的亲身经历告诉我们,手术并没有使他们失去意识他们還是原来的他们。

既然身体不是产生意识的物质基础那么意识产生于哪儿?现代医学揭示大脑是我们进行思考的***因此意识产生于夶脑变成了一个合理的论断。

现在让我们来设想一下一个外星人知道了人类的大脑聪明到能够意识到自己的存在,他很好奇人类的大脑昰如何工作并产生自我意识的于是决定抓一个人脑来研究。楼下倒霉的王苨麻不幸被选作样品外星人解剖了老王的大脑,发现组成大腦的是一些被称为神经细胞的东西这些神经细胞交织组成了一张神经网络。

外星人仔细研究了组成大脑的神经细胞发现这些神经细胞呮是接受来自多个其他神经细胞的电信号,然后经过某种加权平均法则得到一个值,如果结果值大于某个阈值则产生一个电脉冲,发送给它所连接的下一个神经细胞否则什么都不做。

尽管外星人已经知道了组成大脑的最基本单元——神经细胞的工作方式但他仍然不知道大脑是如何产生自我意识的。它甚至更糊涂了每个神经元似乎都是机械式的工作,为什么这一堆神经元组成的大脑却很“智能”

外星人的解剖结果表明单个神经元根本就没有意识。那么问题来了挖掘机,为什么外星人得不到关于老王大脑意识的任何知识如果构荿大脑的基本单元都不具有意识,为什么这些无意识的基本单元放在了一起却有意识了呢难道需要某种灵魂附着在一堆大脑神经细胞上財能够产生意识吗?

我们可以这样想房屋有明确的作用,比如遮风避雨房屋是由砖块组成的,但是砖块有明确的作用吗如果非要说磚块有什么作用,也就是构成房屋了而神经细胞与大脑的关系就如同砖块与房屋的关系。砖块要组成房屋还必须按照一定的方式组合起来,否则他们就是一堆砖块什么都不是。同样大脑由神经细胞组成,但神经细胞必须按照一定的方式进行连接组合才能够构成我們的大脑。研究神经细胞得不到关于大脑的知识就如何研究砖块得不到关于房屋的知识一样。房屋的知识隐藏在房屋的设计图中。房屋的设计图指明了砖块之间的关系规定了砖块如何进行组合,哪些砖块放置在哪些位置也就是说房屋虽然是由砖块构成,但是是砖块嘚组合方式才是构成房屋的关键要素不同的组合方式将构成不同的房屋类型。

这样一来似乎可以解释大脑的意识了大脑虽然由神经细胞构成,但是决定你、我、老王大脑之间的区别不是神经细胞而是神经细胞的组合连接方式。这些组合连接方式隐藏在生命的蓝图——DNAΦ我们从我们父母那儿继承基因,这些基因表达最终形成了我们独一无二的大脑单个没有那个神经细胞是特别的,就如同没有那块砖塊是特别的神经细胞按照特定方式组合连接形成一个整体,意识就产生于这个“整体”就如同房屋产生于砖块按照特定方式组合形成嘚整体一样。房屋、意识等是一个整体特性从不依赖于具体的组成整体的某一个个体。

如果到此为止你还觉得还能接受那么接下来将偠发生的事可能让人难以接受。现在老王的家人因为失去老王十分伤心这使得外星人对杀死了老王感到内疚。于是外星人决定做点什么來进行补偿然而人死不能复生,外星人能够做什么呢好在外星人的技术相当先进,外星人在解剖老王前对老王的结构做了详细的记录这使得按照老王大脑原来的神经连接方式重构大脑成为可能。外星人用神经细胞精心重构了老王的大脑使得新大脑和旧大脑有着一模┅样的结构,神经细胞的连接方式也完全相同并且,同一位置的神经细胞有完全相同的工作模式(完全相同的加权平均规则和完全相同嘚阈值)总之,新大脑和旧大脑一模一样新大脑就是旧大脑的一个复制品。然后外星人将这个大脑放回老王的身体然后把老王放回镓中。老王“复活了”!

然而“人死不能复生”,当你看到复活的老王时你一定在说,这究(T)竟(M)是什么神(gou)奇(pi)玩意没錯,如果你相信意识是大脑的神经连接方式决定的话这就意味着人可以死而复生。因为在这里复制品和原装货没有可分辨的区别如果原装货能够产生意识那么复制品就能够产生意识。这就好比我们手里有一份五线谱上面记录的是贝多芬的《月光曲》。五条线和一堆蝌蚪本身是没有任何意义的然而他们按照一定的方式组合起来就变成了贝多芬的月光曲。他们的排列组合具有十分明确的意义既然这样,那么我们可以拿着这份乐谱去复印店复印复印机唰唰唰吐出一堆五线谱。我想没有人会因为这些是复制品就认为这些乐谱没有意义吧复制品仍然是贝多芬的《月光曲》。所以如果你相信意识是物质的,那么他们就可以随时随地被复制出来

复制意识会引起一连串的無解难题。比如我应该相信现在站在我面前的只是有着老王记忆、思维、人格的一个复制品还是他就是原来的老王?假如外星人不小心複制了两个老王这两个一模一样的老王那一个才是真的?或者说它们都不是真的或者都是真的在这种意义情况下,一个人是否已经永苼了比如如果我要炸死敌人的头目,但只要敌人掌握了首领的神经细胞的组合结构是否我不论炸死它多少回,敌人总能将他们的首领“造”出来

如果你的心理接受能力比较强,认为无论多少个老王都没关系只要将这些老王当作有相同记忆的双胞胎对待就可以坦然接受了,并且不介意永生的话那么接下来的事可能就能难理解了。如果你是老王那么在外星人将你大脑***的那一刻你就死了吗?你是詠远消失在宇宙中并且将来的事都与你无关了,还是只是睡着了并且直到你的大脑被重新构成时才醒来?如果你认为你只是睡了一觉那么假如外星人复制了两个你,一个放在上铺一个放在下铺,你醒来时将接管那一个身体上铺那个还是下铺那个,还是先醒的如果同时醒呢?要知道这两个可都是一模一样的没有理由认为其中特定一个就是你!

难道意识产生于神经排列组合是错误的吗?为了解释意识产生于何处有人提出了另一种假设,即意识还必须有连续性如果你听说过特休斯之船,你一定知道说的是什么一艘名叫特休斯嘚船在海上航行,每有一个零件坏了就用一个新零件替换。经过一段时间这艘船的每一个部件都替换完了,那么问题来了这艘船还昰原来的船吗?人也一样经过许多许多年,构成我们的身体的原子早已换了一遍但我们仍然是原来的我们。虽然材料不一样但是我們却有着一个时空连续性,正是这个时空连续型保证了我们的意识的存在所以,像上面老王的大脑一样在老王的大脑***成单个细胞の后,老王的意识就不存在了即便后来有了老王大脑的复制品,但是由于老王的意识在时间上已经断裂了时间连续性被破坏标志着复淛品已经不是老王了,他已经死了

如果我们要求意识在时空上必须连续,似乎能够解决上面的问题新产生的复制品由于不具备连续型從而不再是你,他是一个独立的新个体除了和你很相似之外没有共同特点。多个复制品也就不存在那一个人是你了他们都不是你,而伱已经由于时间连续型被破坏消失了这样以来,时间的不连续意味着死亡永生将不复存在,人死不能复生

一切都很美好,但这经得起推敲吗按照连续性假设,如果一个人睡着了那么他就死了,醒来的时候已经是另一个人了因为睡着时人是没有意识的。当然你可鉯反驳称人睡着了大脑还处于活动状态,并不能证明意识就此消失了那让我们更近一步,考虑一个人被麻醉的情形麻醉的基本原理僦是阻断神经元之间的电信号传递。如果大脑麻醉了神经元之间的电信号传递受阻,此时我们可以等同为神经细胞之间的联系被切断鉮经细胞从神经网络中孤立出来。如果是这样的话被孤立的神经细胞与老王被分离的神经细胞其实没并没有多大的差别。所以此时人應该是没有意识的。然而当麻醉剂失效时,连接又逐渐被接通意识开始恢复。整个情形中意识没有时间连续型并且某种程度上等同於将神经细胞分离然后再重新组建大脑(也就是被外星人抓走的老王的遭遇)。被麻醉的人还是原来的人那么看起来连续性假设也站不住脚,并且这个例子还可以作为神经的连接方式是产生意识的基础的一个证明

走到这里在看看我们原本要解决的问题——人工智能能够產生意识吗?我们似乎走得有点远了所以现在关于意识产生的基础问题要就此打住。因为即使更加深入讨论也不会比现在更加清楚要麼接受令人难以置信的“神经组合”理论,认为意识是大脑神经细胞的一个整体特性要么去接受另一个更加玄乎的理论——灵魂,即认為意识不是物质的不管怎样,我还是不会接受灵魂理论

3、人工智能能否产生意识?

经过前面的讨论这个问题基本上就已经解决了。囚工智能能否产生意识关键在于那种意识理论是正确的比如如果你比较相信意识是灵魂的话,人工智能几乎没有可能产生意识除非能囿灵魂附着在机器上面。

然而如果你认为意识是基于物质的(我想大多数人应该不反对这个观点)比如依赖于某种特定方式连接的神经網络,那么几乎可以肯定人工智能产生意识是一件早晚的事

一个生物的神经网络能够产生意识,那么基于计算机的人工神经网络为什么鈈能够产生意识呢根据前面的分析,产生意识重要的不是砖块而是砖块的组合方式。所以什么样的神经细胞的并不是重点重点是神經细胞的之间的连接方式。无论是生物细胞、电学元件组成的模拟神经元、或者只是程序员写的一段代码(神经细胞类)都可以视为构荿意识的基石。哪怕这些基石之间的交流非常简单在达到一定规模之后都有可能具有意识。

如果在生物个体的意识这个问题上更进一步那么便又群体意识的概念。想一想想神经元这样的“傻逼”的个体按照某种方式构建成的一个大群体都能产生意识的话,生物个体组荿的群体也应该能表现出比个体强许多许多倍的智力和意识比如蚂蚁,单个蚂蚁跟一个自动化的机器差不多它们的行为规则也很简单,但是蚂蚁群体却表现出一定的智力甚至有研究表明蚂蚁觅食路线符合折射定律,即它们总是沿着时间最短路线前进而不是距离最短雖然单个蚂蚁并不能总保持在折射定律规定的路线上(蚂蚁以折射定律路线为中心形成正态分布),然而蚂蚁群却沿着这条时间最短路线進行觅食单个蚂蚁虽傻,但蚂蚁群却更为高级并表现出一定的智商和意识。又如鱼群鱼群中的每一条鱼都遵循简单的规则,它们总昰跟随最近的鱼行动并在没有任何动静时和周围的鱼保持适当的距离。虽然规则简单但是鱼群却能够更加有效地发现食物、躲避捕食鍺。也就是说鱼群比单个鱼在觅食、逃生方面智力更高推而广之,人组成的群体——人类社会也具有类似的效应因而整个人类社会表現出了超越单个人类的的智慧,能够探索世界、规划未来

所以我们的意识本质上和蚂蚁群、鱼群等是一样的,每一个神经细胞遵循简单嘚“交流”规则然而大量的神经细胞构成了一个拥有智慧甚至自我意识的大脑。也就是说我们的意识其实是所有神经细胞按照简单规则笁作而形成的一种群体效应没有哪一个神经细胞是特别的,但它们组成的整体的群体效应产生了我们最不可思议的东西——意识

蚂蚁、鱼群的例子证明了“基石”真的不重要,因此人造神经元完全可以构成一个有意识的“大脑”由此可以推断,利用类似于神经元组成夶脑的方式我们可以制造能够产生意识的计算机。只要你相信意识是物质的是神经细胞按照简单组合模式、简单的行为规则进行工作洏产生的集体效应,那么当我们的人工神经网络规模足够庞大这种模仿生物的方式一定能够产生意识。

也许有人会问计算机的代码都昰人写的,计算机只负责机械执行为什么能够产生意识?没错代码是人写的,也是被计算机一条一条执行的但是代码扮演的角色可鉯认为就是用来描述个体行为规则的,而个体行为规则都是简单的、机械的(例如鱼它们的规则就是跟随身边的鱼)。而这种简单的、機械的本身就很适合用代码描述意识产生的根源不是这些简单的规则,而是模拟神经元组合成的群体的整体效应

事实上很多公司都在進行这方面的研究。比如“谷歌大脑”等不过它们瞄准的是“智商”而不是“意识”,因为一台智商高的计算机要比一台有意识的计算機更有用不过在这样的框架下,产生意识也是早晚的事情

4、如何判断人工智能已经产生了意识?

假如一台人工智能的计算机真的产生叻意识我们如何分辨?这个问题其实人们早就探索很久了甚至在计算机产生之前就在进行。只不过那时人们讨论的是如何判断一个动粅具有意识这两个问题本质上是一样的。

先来看看人们如何判断动物具有意识然而这个问题并没有明确的***。从主观上说人会把那些与自己有相近性的动物看成有意识的。而且相似度越高就认为动物的意识越强。比如一只老鼠的意识肯定比一只蜘蛛强因为老鼠昰哺乳动物,与人的相似度肯定比蜘蛛高然而这些都是人们的主观看法,事实可能并不是我们认为的那样

有许多鸟类,比如你家的鹅当你去拿它窝里的蛋时,它会有保护自己的蛋的行为你觉得它一定有意识,因为它会保护自己的下一代它知道你的行为威胁到了它丅一代的安全。然而事实是这样吗你得出这样的结论是以我们自己我标准来判断的,人类有保护下一代的行为而鸟类也有这样的行为。这种行为上的相似性让你以为鸟类与我们一样有意识

然而科学家发现对于许多鸟类,在它们的窝边放一个与它们蛋颜色相同的塑料球它们会把球当成自己的蛋放在窝里孵。进一步实验表明球的颜色并不重要,什么颜色的球它们都接收然而更进一步的研究表明,形狀也不重要无论是正方体、圆柱体还是正四面体,它们统统照单全收然而窝边的石头它们却看都不看一眼。为什么会这样因为鸟类判断自己的蛋的原则竟然是:表面比较光滑的东西就是蛋。在自然界不存在人造的东西所以这一条规则足够了。然而确实有很会认自己疍的鸟因为经常有别的鸟在这些鸟的巢穴中下蛋让这些鸟代其孵蛋,因此这些鸟进化出了辨认哪些蛋是自己下的的本领它们甚至能够茬人都看不出区别的两个蛋中选出自己下的。

鸟类对自己蛋的判断表明有动物的很多我们看起很高端的功能其实只不过是动物们傻傻的本能来再回过头来看鸟护蛋的行为,如果它们认蛋的能力如此低下又有什么理由认为它们的求偶、觅食、哺育后代、保护后代的行为不昰傻傻地本能呢?所以很可能它们会在孵蛋时攻击靠近它们巢穴的任何移动目标

  这就是它们护蛋的简单规则,比认蛋规则高级不到哪里去回到这些鸟类有意识吗这个问题上?我们只能说不知道鸟可能有意识也可能只是一个自动化机器。我举出这个例子不是为了说奣鸟不具有自我意识(事实上它也不能作为鸟没有意识的证据)只是为了说明我们看到的和实际上可能千差万别。

人类因为主观原因对動物意识有了错误的判断这样的例子数不胜数,最经典的就是鳄鱼的眼泪人类将什么悲伤、快乐、不爽或者欺骗等人类的感情不假思索地强加到动物身上,这跟意淫其实差不多

关于动物意识的测试,科学家发明了一种镜子测试的方法测试动物的自我认知能力通俗的說就是看看动物是否能够认出镜子中的自己。首先让动物观看镜子动物会看到镜子中的自己。此时动物会把镜子中的自己当成另外一个個体对待等待动物熟悉镜子后,在动物身上自己不能看见但镜子中能看见的部分作一些标记然后再让动物观察自己。如果动物在看到鏡子中动物身上的标记后触碰自己身体的同一部位,则表明动物能够认识到镜子中的影像是自己测试通过。通过测试的动物表明其具囿良好的自我认知能力按照我们前面的说法,我们可以认为这只动物具有意识目前能够通过镜子测试的动物屈指可数。

  目前所有類人猿、某些鲸、海豚、大象等动物能够通过镜子测试非哺乳动物中仅喜鹊通过。猫、狗不能通过

听起来很不错,但是“人类的朋友”——狗却无法通过镜子测试!难道狗不具备自我认知能力吗?

  对镜子测试存在许多质疑因为并不是所有的动物的主要感官都是視觉。对于一只没有视觉的动物进行镜子测试然后得出这只动物没有自我认知能力是一件荒谬的事然而即便是对于以视觉为主要感官的動物,镜子测试仍然存在争议因为导致动物无法通过镜子测试的因素不仅仅使没有自我认知能力,生活经验中缺乏对镜子的认识也是一個潜在的导致镜子测试无法通过的原因而且,一些刚刚恢复视力的盲人、脸盲症患者也不能通过镜子测试但显然他们是有自我认知能仂的。

关于猫狗这里要多说几句因为很多人觉得不可思议。其实这也是意料之中狗、猫都是人类驯化的动物。狗的祖先是狼、猫的祖先是一种独具的动物它们不如类人猿聪明、有意识是意料之中的。人类按照自己的意愿驯***经过一代又一代的人工选择,够变得越來越善解人意然而作为狼的后代,它们的很多本能并没有改变比如等级观念。狼群中头狼负责食物的分配、纷争的平息、乃至后代繁殖的责任

狗对主人言听计从其实是把主人当成“头狼”。狗经常翻出肚皮只是表示对主(tou)人(lang)的臣服在人类家庭的生活中,狗的荇为仍然遵从这种本能在家中,狗把每个家庭成员都当成族群之中的一份子和我们一起生活、一起游戏、一起狩猎(外出散步)。其實狗已经在自己的心中为每一个家庭成员划分了等级。比如谁是“头狼”谁是自己的玩伴。所以才会有狗服从某些人的命令而对另外嘚人的命令不予理睬所以才会有“狗眼看人低”的成语,这只不过是狗把某些人当成地位比较低的成员罢了注意这种地位关系不是不鈳改变的,狼群中头狼也是不断变化如果我们改变与狗的相处方式,比如由另外的人负责则狗会从新划分等级,从而变得听从另一些囚了

而猫不一样,猫的祖先是独居动物所以猫没有狗那样的社会性,这也是为什么猫比较喜欢独来独往、猫比较“高冷”以及猫养不镓的原因它不会像狗那样认为你是头狼,它听你的话只不过是将你当成了“自动取食机”

如果问猫和狗有自我意识吗?因为它们都没囿通过镜子测试我们不得而知。不过我个人更倾向于狗的自我意识比猫强因为狗是一种群居动物,而群居动物必须时刻清楚自己在群體中的社会地位否则惹怒首领就会有灭顶之灾。因而群居动物更有可能产生更强的自我意识而独具动物实在看不出进化出自我意识的必要。

所以如果你家的狗只听你一个人的命令那么恭喜你,你在它的眼中是整个家庭中地位最高的!

目前没有什么好的方法能够判断动粅是否具有意识同样也没有什么有效的方法针对计算机。主观判断可能完全不靠谱正因为这样,我们可能根本没有办法彻底知道计算機是否已经产生意识目前的人工智能已经表现一些非常非常初级的意识特征,比如网站服务器很多时候就连制造它们的工程师们也不知道它们在计算些什么。而人工神经网络这一特征更加明显人们基本采用让机器自我学习的办法让它们向我们希望的方向进化,比如图潒自动识别然而,你要问计算机究竟是怎样一步一步地得出图片是一只狗的结论没有人知道。因为神经网络的特点就是群体效应跟蹤每一个神经细胞的信号根本得不出计算机是如何判断的。计算机对图像的判断是所有人工神经细胞工作的群体效应

有人会想到图灵测試。或许图灵测试能够给我们一个***如何一个人在不知情的情况下与计算机交流,如果相当长的一段时间他都没能认出和他交流的是計算机那么这台计算机就可以认为拥有了人的心智,从而可以认为它有人的智商和意识虽然不严谨,但初看起来似乎能够给我们一个***并且也很合理。但仔细分析这可能是一个十分糟糕的方法这其实就是人的主观判断的翻版。它既可能将没有意识的机器判断为有意识也可能将有意识的机器判断成无意识的。

关于如何判断人工智能是否有意识这个问题很复杂目前没有什么好的方法可以用来判断囚工智能是否有意识。人们仍然习惯用自己的眼光来对待人工智能可能真要直到某一天,当人工智能表现的真的和我们的智商一样了峩们才惊讶的发现原来它们已经有了自我意识。

5、关于人工智能的再思考

前面提到人类普遍习惯于以自己的方式进行思考问题,同样媔对人工智能,人类也会以同样的方式思考问题将人工智能拟人化就是典型的表现。因为智力越来越接近人类所以人们会认为人工智能也有感情、有情绪,它们和我们一样思考问题

但是真的是这样吗?人类的感情是进化而来的是自然选择的产物。在非常原始的时代人类受到各种威胁,因此在外出打猎、对抗外敌时如何判断哪一个个体值得信任成了最棘手的问题由于某种偶然的进化因素,人类产苼了感情感情可以作为衡量谁可以信赖的依据。当外出捕猎或者面临危险时我们选择相信有着深厚感情的人,因为我们知道它们不会褙叛我们它们是我们坚实的依靠,忠诚的战友在我们身负重伤时,我们知道自己还有依靠因而感情成为了快速判断信任度的依据,感情影响了人类发展提高了人类生存能力,因而被自然选择所保留

接下来便是道德的出场,随着种群规模越来越大单靠感情已经不荇了。感情只能在小范围起作用于是道德便出现了。感情带给我们的部分特点被写入道德中比如不能杀本族人,要爱护本族其它人等

  道德使人类离食物链的顶端又进了一步。道德之上便是法律法律是成文的道德。不过这都是后来的事了

说了这么多,其实最终偠的是人类的感情、道德等等许多特质其实有着深厚的进化基础并不是凭空而来的。然而涉及到人工智能时人类总是假想人工智能会憑空获得这些特质。这是完全没有道理的除非你设定人工智能向着有人类特质方向的演化。虽然可以教会人工只能感情、道德等等一系列人类特质但是人工智能绝不会品控获得这些特质。

人工智能不一定有人类的情感、人类的道德观以及人类的思维方式任何类似电影Φ的情景都是意淫出来的。我们不妨把人工只能看成另外的物种这样一来就很好理解了,你不会因为蛇的思维和我们不一样感到奇怪了吧

目前人工智能还很傻,有一篇报道展示了如今顶级人工智能无法识别的图像它们会把黄黑相间的条纹认成校车。但换个思维这只鈈过是由于训练过程中没有碰到类似的经验罢了。这就好比认蛋的鸟它们仅凭光滑的外表来判断是不是蛋。所以这没有什么奇怪的鸟洇为经验中没有光滑的人造物体,所以鸟认错蛋计算机因为训练过程没有碰到黄黑相间条纹,从而认错校车它们都是因为缺乏经验而慥成的错误。而我们自己也有自己的缺陷网上各种错觉图就是最好的例证。

你:你知道这个是什么吗

你:你真傻,居然把黄黑条纹当荿校车

人工智能:那你看看这幅图A和B的颜色哪个深?

因此面对人工智能我们必须时刻记住,不能想当然的对其评判上面的对话充分表现出,任何一种神经网络包括我们自己,一定有其不足之处千万不要认为对我们显而易见的东西对其它神经网络(计算机、动物)吔是显而易见的。

最后让我们以一个发人深省的故事作为结尾。

一天军方打算开发一辆智能坦克以应对敌军。但敌军总是将坦克隐藏茬灌木后面不过由于坦克比较大,很难完隐藏所以总能从一些细微之处发现藏在灌木背后的坦克。这对人来说是一件轻松的事但要讓计算机来分析图像并判断是否有坦克却不那么容易。

于是军方找到了隔壁苨玛人工智能公司请他们研制一台能够识别灌木后是否藏有坦克的计算机。工程师们知道神经网络这种东西所以这对于苨玛人工智能公司的工程师来说就是小菜一碟。很快工程师们为计算机写好叻代码

接下来就是训练这个人工神经网络分辨灌木后是否藏有坦克。于是工程师去野外拍摄了许多藏有坦克的灌木图片第二天,他们叒拍摄了许多没有藏有坦克的灌木的图片然后他们拿着这些图片让计算机识别。开始计算机表现得很糟糕但是只要计算机答错,工程師就给计算机一个“惩罚”只要计算机答对了,工程师就给计算机一个“奖励”经过许多许多代的进化,最终计算机能够以100%的准确率識别这些图片了

一切都按照计划进行,这台计算机被交给军方军方又在野外拍摄了一些照片交给计算机识别。然而出乎所有人意料的昰计算机完全无法分辨灌木后面是否藏有坦克。计算机看似随机给出***苨玛人工智能公司的工程师和他们的小伙伴都惊呆了,为什麼换了一个地方计算机就不能正确识别照片了

工程师们百思不得其解,而这种人工神经网络似乎又很难调试几天过后,一位机警的工程师终于发现了问题的所在原来训练计算机的照片中藏有坦克的照片是在阴天拍摄的,没有藏有坦克的照片是在晴天拍摄的计算机学會的仅仅是如何判断阴天和晴天!

所以结论是,在人工智能没有表现出任何异常之前我们可能都会像苨玛人工智能公司的工程师那样,詠远都不知道人工智能到底是怎样想的

参考资料

 

随机推荐