为什么杀人机器人杀人电影比核武器更危险

分享本文到:
在微信上关注24楼影院
movie24luo
世界各地涌现出各种各样的活动,旨在加速关于致命性自主武器系统的国际讨论,促使各国放弃研发和使用这种危险的武器。(环球科学供图/图)
为武装到牙齿的自主机器人编写程序,让它们遵守道德准则是否可行?作家艾萨克& 阿西莫夫在1942年提出的机器人定律现在成了炙手可热的话题。如今的科技已经发展到可以制造出这样的机器人:它们一旦被授予使命后,会自发地作出杀人甚至暴动的决定。
2029年,人类和智能机器人之间的一场大战打响:机器人&终结者&被派到过去,奉命杀死约翰&康纳(John Connor)的母亲莎拉&康纳(Sarah Connor)&&这是由詹姆斯&卡梅隆(James Cameron)于1984年创作的5部系列电影的序曲。科幻文学的创作者并没有料想到,如今的科技已经发展到可以制造出这样的机器人:它们一旦被授予使命后,会自发地作出杀人甚至暴动的决定。
这些机器人杀手在国际军备讨论中有一个恰如其分的名字:LAWS(Lethal Autonomous Weapons Systems,致命性自主武器系统)。这种机器人已经登上了历史的舞台,将它们带到战场上会引起各种各样的争议:如何定义这些机器人?它们到底能做什么?更不用说与人类士兵一同出现在战场时所造成的伦理问题。
从1942年开始,著名的美籍俄罗斯裔科幻作家艾萨克&阿西莫夫在《惊奇科幻小说》(Astounding Science Fiction)上提出了机器人的伦理问题。今天,阿西莫夫被世人视为机械伦理学(roboethics)之父。这门哲学学科催生了许多相关的研讨会和无数的书籍,在美国尤其如此。阿西莫夫在1942年出版的小说《转圈圈》(Runaround)中描述了机器人三定律。他提出,所有的机器人程序都必须考虑到这三条定律,目的是为了约束这些自主机器的行为,让它们服从以保护人类为目的的强制性道德准则。
机器人定律
第一定律:机器人不得伤害人类,或坐视人类受到伤害;
第二定律:除非违背第一法则,否则机器人必须服从人类的命令;
第三定律:在不违背第一及第二法则下,机器人必须保护自己。
此后,阿西莫夫又添加了一条定律:
第零定律:机器人不得伤害人类族群,或因不作为使人类族群受到伤害。
遵守这些定律时引发的困局是阿西莫夫所著的500本书籍的主题。他严肃地思考了这些定律的意义,并想象了这些定律被采纳时发生的情形。有这样一段轶事,当斯坦利&库布里克(Stanley Kubrick)的电影《2001:太空漫游》(2001: A Space Odyssey)放映时,阿西莫夫气冲冲地冲出了影院,因为电脑HAL 9000违反了他制定的第一定律:HAL杀害了&发现者&1号飞船(Discovery One)的船员。然而时至今日,阿西莫夫关于机械伦理的设想并未如愿:如今的机器人并没有安装强制它们服从机器人定律的机制或指令。为什么会这样呢?
无法服从机器人定律
现在的机器人拥有的功能和人们当初设想的不太一样。科技并没有让我们凭空创造出和自己一样的东西,我们并不能像对待奴隶或佣人那样命令并指使它们。机器人以及智能系统的产生并不是一蹴而就,因为科技总是沿着意想不到的方向前进。这样一来,如何准确区分机器人和智能系统就变得十分棘手。
驾驶飞机平安降落的自主系统能否称为机器人?它是否具有智能?我们很容易得出否定的答案。这个自主系统操作飞机的能力和人类飞行员一样好,而且对自己的具体方位了如指掌(因此它具有自我意识的雏形),所以才能让飞机准确降落。虽然它的功能很有限(不会读书,也不会预订宾馆,更不懂得电影鉴赏),但是在降落飞机这件棘手且人命关天的任务上,它和人类相比毫不逊色。
互联网搜索引擎所使用的算法能够从海量数据中提取出关键信息,并向用户推荐可能感兴趣的网页,这是任何人类都无法做到的。然而,有些人依然会吹毛求疵,认为这些算法不够聪明。这种看法有失偏颇,因为这些程序只是专注于特定的任务,不能认为它们就是愚蠢的。
现代社会中广泛使用的机器人的工作非常专业化,它们不具备与人类用通俗语言交流的能力。我们无法要求它们遵守阿西莫夫的机器人定律,是因为它们完全不能理解这些定律的意义。如果想要应用机器人定律,智能系统必须具备逻辑分析和推理能力,并且能够预测行为所导致的后果,以判断人类下达的指令是否和任何一条定律相悖。但目前,没有机器人可以进行这样的分析。
美国iRobot公司的创始人罗德尼&布鲁克斯(Rodney Brooks)曾就上述问题直白地表达了自己的观点。iRobot是一家设计、制造和销售机器人的公司。该公司制造的PackBot机器人大量用于福岛核电站和阿富汗。媒体采访他时,问起iRobot生产的机器人为何没有设置为自动服从阿西莫夫定律,他回答道,&理由很简单,我们根本没法把阿西莫夫的定律写入它们的系统中。&虽然未来的智能系统可能会随着科技的进步而发展出智力,并且智能系统中负责自主抉择的组件也会获得性能提升,但这种机器智力和人类仍然不可同日而语。也就是说,科幻作家当初让机器人理解和服从阿西莫夫定律的希望,现在已经变成了一件异想天开的事。但是,我们现在讨论机械伦理问题并非多此一举。因为在自动驾驶领域,相关研发已经进行了许多年,多家公司设计的性能稳定的产品也将进入市场,因此讨论机械伦理问题的时机已经成熟。
机器人的道德问题
设想下这样一个场景:一辆高速行驶中的无人驾驶汽车前方,出现了一个追逐皮球而横穿马路的孩子,而逆向车道上有一个骑着自行车的成年人。此时,自动驾驶系统经过分析会得出两种选择:一是减速但是维持前进方向不变,这样就可能撞到孩子;二是减速并向左转向,而这又会威胁到骑行者的安全。自动驾驶系统应该如何抉择?撞向孩子还是成年人?
经常有媒体表示,自动驾驶汽车可媲美人类司机,这也是一些汽车制造商在标榜安全性时提到的新卖点。这种观点受众范围很广,让我们很难在未来禁止自动驾驶汽车。在理想的情况下,它们的反应和决策能力都是无可挑剔的:它们能够根据预设的程序进行决策,选择挽救追皮球的孩子,还是骑自行车的人。
那么应由谁来制定机器人的道德规则?又该如何制定这种道德规则?要回答这些问题并不容易,但是不可避而不谈。如一些研究者证明的那样,在逻辑学家看来,有些道德问题的逻辑过于复杂甚至是不可判定的。
现在的机器人没有被预装阿西莫夫定律的另一个原因是:我们制造某些机器人的目的就是为了杀戮。这已经变成了一个严重的问题,值得我们思考和讨论。
人类制造用来杀戮同类的机器人已经有数十年的时间,而且只要&机器人&&自主性&和&杀戮&这三个特性一同出现,情况就变得十分棘手。拿埋在道路上的地雷为例子,我们可以说它具有自主性,因为当它&觉察&到四周出现物体时会&决定&爆炸,而这个决定并不需要人类的许可。许多导弹和炸弹起爆的唯一条件是,它们敏感的引信装置觉察到自己将要和目标或者地面发生接触。那些一旦发射就无法改变目标的导弹的情况就更加微妙了。第二次世界大战时,德国发射过15000枚V-1飞弹和4000枚V-2导弹,这两种导弹只能在发射前设置飞行路线,发射后就无法再做更改。幸好这两种导弹的准头都不太好,但依然给盟军造成了不小的伤亡。
有些导弹通过分析图像的对比度(这种技术可以让导弹跟踪海面上的目标)或者跟踪红外线辐射,能够自己确定目标并朝着目标前进。一些边境监控系统能够瞄准任何跨越禁区的目标并向其开火。部署在韩朝非武装地带的、由三星Techwin公司生产的监控和安全警卫机器人(Samsung SGR-A1)就是一个很好的例子。该系统由两位操作员控制,但它具备一个自动攻击模式。有些防空系统则具备无人值守模式,比如久经考验的美国爱国者反导弹系统(Patriot)、密集阵近程防御系统(Phalanx)和以色列的铁穹防御系统(Iron Dome)等。
值得一提的是,美国在许多战场上使用的无人机其实是远程遥控的,通常情况下,它们在投放武器前会等待操作员给出明确的指令。经过媒体的转播和报道,全世界都已经见识过这些机器杀手的效率,不过在执行对地打击任务时,它们同样造成了不小的间接伤害,夺取了许多无辜受害者的生命。一些无人机可以在自动模式下工作,自行决定是否开火,并不需要人类的干涉。
在联合国于2013年发表的一份报告中,南非比勒陀利亚大学的法学教授克里斯托弗&海因斯(Christof Heyns)认为,自主杀人机器人已经在一些国家(如美国、英国、以色列、韩国等)的军方实验室诞生了,已经磨刀霍霍准备开始行动。毫无疑问,人类能够创造并利用具有部分智力的自主军事武器,把它们派遣到地面战场上或空中去搜索敌人。无需人类许可,它们就能自己辨认并消灭目标。就算我们假定在战斗决策环中有人类存在,如果不对这些机器自主性的深层概念进行调整的话,它们还是可以撇开人类独自执行任务。  
我们要往何处去?
现在,我们需要回答的问题可被归结成:我们是否真的希望在这条路上走下去?是否应该限制或者禁止使用自主杀人武器?
在为这些武器系统辩护的论据中,有两条关键的理由。首先,现在采取任何措施都已太迟,这些系统已经存在。第二,这些机器人终有一日会变得更为精准,它们会更加尊重平民和交战规则,而人类战士在这两个方面则不能完美地执行。换而言之,这些武器能够让战争和冲突变得更为&干净&。
第一条论据可以被轻松反驳。人类已经制造出了核武器、化学武器以及细菌武器,但这不能阻止各国签订国际条约来管理和禁止这些武器。这些协议的签订有效限制了上述武器的使用。对于杀伤性地雷和致盲激光武器,也有相关协议(其中一项协议已于1998年生效)进行约束。因此,各国政府可以协商一致,停止自主杀人机器人的研发。现在这个问题已被搬上了国际法庭讨论,每个人都有权利采取行动来促进这类讨论尽快得出结论。
第二条论据&&杀人机器人可使战争变得更加&干净&&&是无效的。实际上,这条论据等同于将&只攻击敌人&&不要攻击平民&&人不犯我,我不犯人&等道德准则强加给杀人机器人。然而,我们连怎样将阿西莫夫的机器人定律写入系统代码都做不到,这些道德准则更是无从谈起。
或许,当我们研发出具有更加先进的分析能力的机器人时,再重新考虑这个问题也不迟。但就目前而言,我们无法编写出类似于阿西莫夫机器人定律的道德规范。总而言之,我们造出来的机器人需要有精确移动的能力,能够向人类或非人类目标快速而准确地开火,但它们不能决定是否要开火,以及对谁投放出致命的火力。
反对自主杀人机器人的人还提出了其他论据。一封发表在2015年7月的公开信得到了2万人左右的签名,签名者是人工智能领域的专家以及其他对此话题颇为关切的人,其中包括著名物理学家斯蒂芬&霍金(Stephen Hawking)以及苹果公司联合创始人史蒂夫&沃兹尼亚克(Steve Wozniak)。这封公开信要求停止研发具有杀人能力的自主系统,并且表示这些系统可以被恐怖分子当作武器。
自主杀人机器人的问题比其他类型的武器(如核武器)更严重,因为自主杀人机器人的技术研发比较分散。机器人是由众多程序和相对容易获取的硬件制造而成的。但是,软件易于复制和传播,这与核武器完全不同。机器人技术领域的任何进步都有可能被最邪恶的恐怖分子盗取,用于大型黑帮活动等。
为了达成国际共识,首当其冲的是解决如何定义自主机器人的难题。自主机器人的定义是否真的比定义细菌武器或是化学武器更困难吗?考虑到这一问题的紧迫性,我们应该率先就那些毫无争议的案例达成一致。
禁用杀人机器人?
日到17日,瑞士日内瓦召开了一次关于致命性自主武器系统(LAWS)的非正式专家会议。会上,专家们讨论了自动性(automaticity)和自主性(autonomy)之间的差别,以及&明显的人类控制&(significant human control)的定义。在2014年的一次会议中,法国代表让-雨果&西蒙&米歇尔(Jean-Hugues Simon Michel)主持了关于LAWS的讨论,他在会后进行总结时说:&在热烈的讨论中,我们感受到了自主武器令人兴奋的本质,希望我们不只停留在肤浅讨论的层面上。&
在法国,2014年CERNA(阿里斯滕数字科技研究伦理思考委员会)的一项关于机器人的报告对上述问题仅仅轻描淡写地一笔带过。不过,一些法国专家看起来意识到了这个问题。罗南&多阿雷(Ronan Doar&)和法国圣西尔科埃基当研究中心的一些法律和军事专家最近发表了一本相关作品。
在国际上,虽然人权观察组织(Human Rights Watch)军事装备部主任史蒂夫&谷斯(Steve Goose)建议尽快组织讨论,以便各国共同禁止使用杀人机器人。但是,另一些人则认为谷斯的号召并不会引起多大的反响,仍有许多国家希望在不受干扰的情况下研究相关资料。
更糟糕的是,一些人认为,《国际人权法》可以作为相关讨论的基本参考依据。而根据《国际人权法》,我们并不能禁止遵守该法的LAWS。这完全是痴人说梦,犯了和阿西莫夫一样的错误。这些人以为我们可以对机器人说:&这些是你应当遵守的规定&。
在科幻小说和电影中总有一个主题反复出现:机器人的起义。阿西莫夫可能就是考虑到了这点才设计出他的著名定律:机器人必须要顺从听话。虽然今天的机器人完全没有造反的能力,但是未来的机器人可能引发叛乱是个有意义的话题。因为任何系统都有可能存在软件上的漏洞。众所周知,打造一套毫无差池的数字系统几乎是不可能的。所以说,未来的某些机器人也会出现BUG,即使在遥远的未来这一点也不会发生变化。
机器人的反叛
那么,如何避免程序漏洞,使得杀人机器人不会攻击人类?或许一行不巧被删掉的代码就能产生这样的漏洞,我们是否可以把机器人的这种行径视为反叛呢?这个问题和人类的追责机制类似。即使杀了人,疯子也是不用负责任的。因此,需要定义什么叫&机器人发疯&。最为可能的情况是,机器人出现了软件BUG,也可能是其他一连串的可能性。机器人反叛的真正问题首先在于如何定义反叛,而想要给出这项定义却是困难重重。远在一伙组织有序且决意夺取人类权力的机器兵团揭竿而起之前,我们可能已经遭遇了一系列错综复杂的情况,比如机器故障导致人身伤害或者死亡,甚至是涉及众多人群的大规模灾难。如何区分愚蠢的故障和有意为之的反叛呢?
美国康涅狄格大学的著名机器人伦理问题专家苏珊&安德森(Susan Anderson)提出,机器人造反实际上可能是正当的。在她看来,道德学巨匠伊曼努尔&康德(Emmanuel Kant)就曾间接地讨论过智能机器人的问题。她重新审视了阿西莫夫的机器人定律:如果&机器人&有能力理解并实践机器人定律,那么我们是否有权将这些定律强加于它们之上,并要求它们成为人类的奴隶呢?
苏珊&安德森指出,按照康德的观点,人类欠动物一份尊重,因为只有我们尊重它们,它们才会尊重我们。她认为依据同样的道理,如果康德也曾思考过机器人的问题,他可能会支持这样一种观念:如果有一天能够理解机器人定律的机器人真的出现了,那么我们应当尊重它们,向它们强加机器人定律也就无从谈起了。
这个观点和卡耐基&梅隆大学的机器人专家汉斯&莫拉维克(Hans Moravec)的想法颇为相似。他提出,机器人将成为人类的后裔,即使有一天它们取代了我们在地球上的位置,也应该经过了我们的许可,就像是老人将他的事业交给孩子们一样。
科幻作品以轻松愉快的方式处理了这些与现在相距甚远的问题,科学和哲学又迫使我们重新思考。我们亟须对目前已经出现的(杀人或不杀人)机器人进行公正的评估并采取相应的手段。这些繁复的评估任务包含了许多难解的伦理和哲学谜题,而其中一些迫切需要答案。哲学家、伦理学家、逻辑学家、军方人士和软件工程师应当展开讨论并达成一致的意见。
(Scientific American中文版《环球科学》授权南方周末发表,徐寒易翻译)
上一页1下一页
现代人的青春期里已经没有美、没有花园、没有诗和远方,也来不及爱恨或感伤,没有与“青春”这个...
随着技术的日益发展,这类增加或加强各方面的功能或能力的科学技术,或将使普通人以及军人获取超...
意识曾一度被认为是人类独有的,但人们后来发现极少数动物也拥有意识。现在的问题是:机器人是否...
让计算机仅仅观察手写的文字,就能模仿写出更多的文字来,并且这些文字能够通过图灵视觉测试,也...机器人杀人,背后还有你不知道的恐慌 - 简书
下载简书移动应用
写了68258字,被16人关注,获得了31个喜欢
机器人杀人,背后还有你不知道的恐慌
转自微信号/我们都爱黑科技一则消息在科技圈掀起了风波"一名德国大众员工遭到机器人攻击身亡"今天黑君就跟大家聊聊机器人的事事件还原
事故中不幸身亡的21岁技术人员是一位外部承包商,事发时他正在大众汽车的新生产线上安装机器人,期间被机器人抓住并被按压在金属板上,最终因胸部遭受严重瘀伤而死亡。此次悲剧经调查后发现,是由于人员事发时正好站在安全笼里面造成的。第二名技术人员由于在笼子外面,因此没有受到任何伤害。事后,大众公司发言人强调,肇事机器人并没有出现技术故障。言外之意,事故的发生完全是人为操作不当。原始恐惧
不怪人们太紧张。许多科幻小说都描述过这种场景:机器人产生了自我意识并与人类为敌,最终拥有智能的机器人摧毁人类。随着现在人工智能机器人越来越先进,在多数人惬意享受智能当下的同时,有专家也提出了“机器人威胁论”,称小说里的场景将有可能发生。这威胁论并非凭空出现,黑君翻了翻自己不多的科幻存货:《太空漫游2001》:人工智能系统哈尔在意识到人类或对自己不利后,用太空舱撞断了一位宇航员氧气管令其死在太空,并关闭系统杀死三位冬眠宇航员。《三体》:罗辑在新纪元遭到追杀,机器人受到感染不断制造“意外”,试图通过机器人服务员、自动驾驶、智能医药、智能沙发等设备杀死罗辑。《银翼杀手》:人类制造了复制人为人类工作,但不允许这些复制品拥有做正常人的权利,所以必须毁灭这些被定罪为“妄图成为人类”的生命。《黑客帝国》、《终结者》:典型的机器人反杀人类。“人工智能召唤恶魔”
这可不是一句中二的口号,这是黑科技圈顶级大佬马斯克说过的话。无独有偶,智商和预见力满点的多位大佬都公开表达过对人工智能的担忧:比尔·盖茨:如果我们能够好好驾驭,那么机器能够为人类造福;但如果若干年后机器发展得足够智能就将成为人类的心头大患。霍金:人工智能计算机可能在接下来的100年之内就将人类取而代之。如果这样的事情成为了现实,我们必须确保计算机和我们站在同一战线上...我们的未来是一场不断增长的科技力量与人类使用科技的智慧之间的竞争。马斯克:我们的人工智能系统,必须按照我们的意愿工作。不受控制的人工智能可能比核武器更危险。在知乎一个「为什么有很多名人让人们警惕人工智能?」的问题中,也有各方人士抛出了很有意思也很烧脑的观点,愿意参战围观的可以去看看。应对之道 应对之道?
“在所有故事里,似乎总有拿着五角星和圣水的家伙,就像他确保自己能控制恶魔一样。但这并非总是管用。”说出这句话的正是试图控制“恶魔”的马斯克。他的圣水理念逻辑简单:既然人工智能可能是恶魔,那就教它一些做人的道理好了。据彭博社透露,马斯克筹了1000万美元用来研发懂得“伦理道德”的机器人,以确保他们不会毁灭人类。他将1000万美元资金交给未来生命研究所,部分资金将投入各地37个研究项目中。然而,纵有豪掷千金的伦理研究,纵有《超能查派》和大白那样的美好愿景,但这仍然无法抹去越来越多人心中的那抹恐惧:谁能保证下一个智能机器人不是奥创?
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
打开微信“扫一扫”,打开网页后点击屏幕右上角分享按钮
被以下专题收入,发现更多相似内容:
那些你们觉得逆天的、小众的、geek的、好玩的科技资讯和产品,在这和大家一起分享~
· 417人关注
· 9人关注
· 0人关注
如果觉得我的文章对您有用,请随意打赏。您的支持将鼓励我继续创作!
选择支付方式:当前位置 & &
& 特斯拉CEO:人工智能比核武器还要危险
特斯拉CEO:人工智能比核武器还要危险
09:27:54&&出处:&&
编辑:大鹏 &&)
让小伙伴们也看看:
文章观点支持
当前平均分:0(0 次打分)
[08-04][08-03][08-02][08-01][08-01][08-01][07-31][07-31][07-30][07-30]
登录驱动之家
没有帐号?
用合作网站帐户直接登录一个你不知道的人工智能革命(下篇)
如果说有什么公司可以成为机器人变革美国制造业的广告明星的话,这个公司一定是波音。据路透社,与 1990年 代相比,现在波音飞机的产出率提高了 20%多,但所需人工却减少了 1/3。就在过去这一年,波音又用 60 吨重的机器人替代了数百名工人。波音说这些机器人的速度是人类的两倍,缺陷率却只有后者的 1/3。自动化对该公司劳动力的影响是巨大的。1998年 该公司 1年 生产了 762 架飞机,每架飞机大概需要 217 人制造。2015年,该公司生产了 762 架飞机,每架飞机所用人数大约是 109 人。白宫最近的一份经济报告得出结论说,从机器人获得的劳动生产率提升在量级上与 19 世纪蒸汽机带来的生产力提升类似,这个一点儿也不奇怪。几乎没有经济学家会质疑智能机器很快就会在从快餐服务到卡车司机的各种工作中取代人类。2000年 到 2015年 间制造业几乎消失了 500 万份工作。这些工作部分是转移到了海外,但许多都是被自动化吃掉了。但是机器人入侵的经济后果并不像看起来那样简单。这一点 1970年 代在硅谷长大的我就能看到。我一位朋友的父亲在 Fremont 附近的一家老通用工厂工作。他在装配线工作,靠着一门焊接的手艺养活了全家。在 1970年 代末的巅峰时期,这家工厂雇用了 6800 人。不幸的是,他们造出来的车很差劲。在 年 代,通用汽车以糟糕的可靠性著称。“在通用汽车 Fremont 工厂那里你可以买到任何东西,” 密歇根大学教授 Jeffrey Liker 在 2010年 美国生活的一个剧集当中说:“如果你想要性,想要毒品,想喝酒,想赌博—去那家工厂就行,那儿什么都有。”不久前我参观了那家通用老厂。现在它已经归 Tesla 所有,并且被改造成了全球最先进的汽车制造厂之一。大卷大卷的铝原材料在这头进入工厂,10 万美元的电动车就从另一头出来了。“我们在这里建设未来,” 公司负责制造的副总裁 Gilbert Passin 这样说。在装配线上工作的机器人超过了 1000 个。这些机器人有的是从天花板上吊下来的,有的则在地上疾走运送材料,还有些体型庞大的机器人有着像 Iceman 这样的名字,它们身高 15 英尺,可以将重达千磅以上的 Tesla 像玩具一样举起来。尽管这里是全世界自动化程度最高的汽车制造厂之一,但 Tesla 每周也只能造大约 1000 辆车(通用汽车一般一天造 1000 辆)。但真正令人惊奇的是这个:Tesla 雇用了大约 3000 名员工。Tesla 是造出了更好的汽车,但是它生产一辆车所需要的人工也要比通用汽车多 3 倍多。也就是说在这种情况下,工厂自动化并没有摧毁工作,实际上还增加了就业机会。人该怎么办?部分装配线工作对于机器人来说太细腻太复杂了,比如说仪表板的安装还得靠人来做;有的则要维护机器人以及机器人使用的工具附件。“这家工厂是人与机器人的合作,” Passin 说:“机器人做自己擅长的,人也是。” 换句话说,这不是一家自动化工厂,而是精心编排的人机共舞。Tesla 拥有全球最先进的汽车制造厂之一,机器人和人类雇工在这里每周能生产 1000 辆汽车但是毫无疑问智能机器的发展会对工作产生重大影响。部分失业情况会被高科技领域创造的新的就业机会抵消;有的则会一去不复返。2013年 牛津大学的一份研究认为,现有工作中约有一半会在未来 20年 内消失。“我们面临着一次思考模式的转移,这将改变我们生活以及工作方式,” 美银美林最近一份报告的作者说:“近年来颠覆性技术创新的节奏已经从线性变成了抛物线。”不难看出哪些工作是机器人的目标:文书岗位、装配线工作、烤汉堡之类。上月白宫经济报告预测,如果(美国)工作时薪低于 20 美元 / 小时的话,那这种工作有 83%的可能最终会被自动化掉。但除此之外很难预测影响。蓝领和受教育程度不高阶层的失业、工资滞涨问题已经改变了美国的政治气候,导致了 Donald Trump 的崛起—而自动化程度的增加只会加速这种趋势。加州大学伯克利分校的机器人学家 Ken Goldberg 说:“这方面存在着许多恐惧。” 为此他发起了 “人与机器人” 运动,希望能找到办法来加强人与机器人的协作。“机器人和人有各自擅长的东西,所以我们需要同时考虑,因为这样你才能找到机器人会让人类做得比以前更好的案例。”Goldberg 正在做的一个手术机器人就是人机协作的例子之一。手术机器人已经诞生有 15年 了,但直至现在其角色也只不过是充当机械臂,由医生通过摄像头进行观察,然后以安全的方式进行微创手术。机器人没有自主权,尽管这种情况很快就会改变。手术涉及到许多单调乏味的子任务—比如缝合就是。“你付钱给这位明星外科医生就是为了让他坐在那里给人缝几针,” Goldberg 说:“这不是好的时间利用方式。” 另一项沉闷的工作叫做 “清创术”—就是把坏死组织或者癌细胞组织从体内取出来。“我们认为这些工作机器人可以干得很好,” 他说:“我们可以通过传感器扫描,找到组织表面之下的肿瘤,然后割走清理掉。这会让外科医生失业吗?不会。我们在讨论的是开发工具让外科医生变得更好,让他们专注于重要的工作,把单调乏味的事情留给机器人。”尽管如此,对于许多缺乏技能的工人来说经济变革仍然是残酷的。Thrun 认为,应对这种即将到来的剧变的最好办法不是放慢技术进步的脚步,而是改善教育。“我们仍然套用 年 代形成的教育体系,” 去年秋天时他这样告诉经济学人。他的在线大学,Udacity,现在在全球已经有 400 万注册用户,并且可以授予计算机相关领域的 “微学位(nanodegrees)”。“我们现在面临的情况是高技能人士与缺乏技能的人之间的差距正在加大,” 他说:“我要教育每个人的使命是延缓 AI 最终会怎样对待我们的一次尝试,因为我真心相信应该给人类一个机会。”根据 2014年 新美国安全中心的一份有影响力的报告,未来的战争将会是一种 “全新的作战形式,在这当中无人和自动武器将会扮演中心角色……美国国防领袖现在就应该为这一并不遥远的将来—为机器人时代的战争做好准备。” 想想看,大批携带轻武器的无人机,通过 3D 打印制造出来,黑压压的一片出现在大城市的上空,遮天蔽日;士兵都有钢铁侠式的外骨骼保护,配备了神经植入,可注入来自远程计算机的目标数据;沿海水域会有无人潜水艇经常出没;会有黄蜂大小的无人机执行刺杀行动。在这种新的战争时代里,昂贵的冷战时期技术如战斗轰炸机会变得越来越落伍,这玩意儿就好比过去的大型主机,而现在已经是笔记本和 iPad 的天下。带外骨骼的士兵有朝一日也许会利用神经植入控制机器人。军事技术革命似乎受到 3 个因素的推动。首先是风险的降低。机器人能够去士兵去不了的地方,有可能拯救地面部队的生命。在阿富汗和伊拉克,有超过 1700 个 PackBots,这种玩具火车大小的背负式机器人可通过无线连接控制并配有远程控制机器臂,这种机器臂可配备抓爪检测地雷或者摄像头用来监视。更新一点的军事无人机,如 MQ-9 Reaper(收割者侦察机)已经可以在无人干预的情况下起飞、降落和飞行到指定点。风险降低也改变了战争的政治算计:既然机器人没有生死问题,使用智能机器让军事领袖敢于部署在其他情况下难以想象的艰巨任务。第二个因素是钱。美国的年度国防预算开支将近 6000 亿美元,这个数字比接下来的 10 大国家军费开支之和都要大。军方在研发已有 15年 的 F35 战斗机的总开支估计将达到 1.5 万亿。在 ISIS 时代,这类开支不仅很难证明其合理性,而且完全是愚蠢透顶。F35 面对一群小型武装无人机或者购买商场的人肉炸弹恐怖分子一点用都没有。还有一个事实是人的使用和供养都非常昂贵。“军事开支大约有 1/3 是花在人身上” Peter Singer(New America 资深研究员,反映未来战争的小说《Ghost Fleet》的作者)说。最近一位美军上将推测,未来几年一支战斗旅的人数可能要从 4000 人下降到 3000 人,那部分的缺口将由机器人补上。第三个因素是对迅速崛起的中国的恐惧(也有人称之为妄想狂)。自冷战结束以来,凭借着精确制导等比前苏联更精明的技术,美国对其竞争对手展现出了前所未有的优势。但现在中国似乎正在迎头赶上。如果爆发冲突的话,中国新的反舰导弹会对游弋在西太平洋的美国航母构成极大威胁。中国还大力发展先进武器,尤其是军事无人机。对于军方来说,问题是如何推进智能机器的部署,以及部署到何种程度。对部分工作来说,机器干预是明摆着的。“从航母起飞以及降落是军队最危险的航空任务之一,” Mary Cummings 说。她曾经是美军首批女性飞行员之一,现在她管理着杜克大学的一家机器人实验室。Cummings 曾有朋友在驾驶飞机尝试降落航母时因坠毁身亡,所以她现在正在攻关跟更深度的人机协作,尤其是针对充满焦虑,会导致致命误判的情况。“现在,F18 的自动导航仪在航母的起飞降落要比人类好得多,” 她说:“并且安全多了。” 但人类仍然在这些环节当中牢牢占据着位置,尽管在技术上并没有这种必要。虽然无人机的复杂程度很快就足以识别、定位目标,在 4 万英尺以外置人于死地,在这条 “刺杀链” 中所有的无人机攻击都需要官方的签字。我们最好把许多出于军事目的开发的智能机器理解为人类能力得到延伸(视觉、听觉,以及某些情况下扣动扳机的手指)。卡内基梅隆大学一个开发机器蛇的项目获得了美国军方的支持,这条蛇配备了摄像头,可以爬行接近敌方目标。获 DARPA 支持的哈佛大学研究人员开发了一种 “机器蜜蜂”,其翼展只有 3 厘米,可从窗口飞进室内执行隐蔽的监视任务。DARPA 还在攻关所谓的吸血鬼无人机,这种无人机由可 “升华” 的材料制成,这样在完成任务后就可以在空气中熔化。DAPRA 的一些研究想法完全就是从 James Cameron 的一部电影获得的灵感:据《五角大楼的大脑》(一本反映 DARPA 历史的书)作者 Annie Jacobsen 说,该机构攻关所谓的 “增强认知” 已有 15年 的历史。“通过增强认知计划,DARPA 想创造出人机合体的生物,也就是所谓的赛博格(cyborg,半机械人,电子人),” Jacobsen 写道。DARPA 科学家正在实验在人的大脑进行神经植入,从而在人的大脑与计算机之间充当快速信息交换的通道,从而让士兵远程(无论有多远)控制战斗机器人成为可能。注意,这种控制不是通过操纵杆,而是通过发送类似思想的东西去执行—想法会被编译为电脉冲传送给远端的机器人。尽管如此,把 DARPA 资助的科幻项目与现实世界正在进行的东西区分开来仍然很重要。去年6月,我出席了 DARPA 机器人挑战赛的决赛。这场比赛第一名的奖金达到了 200 万美元,它由美国国防部推出,旨在激发救灾机器人(比如福岛核电站那种环境下的应用)的创新。最终幸运获得大奖的是 Chimp,这个体重 443 磅的机器人是由卡内基梅隆大学的团队制作的。Chimp 有 5 英尺高,手臂能举起 300 磅重的东西。“我们设计的是一个不会摔倒的机器人,” Chimp 的一位软件工程师这样吹嘘。但在机器人的世界里,事情往往并不能按计划进行。比赛很快变成了一出机器人摔跤喜剧:一个跌倒的机器人溢出的液压油就像是外星人流的血;另一个机器人跌倒后干脆脑袋都搬家了。甚至威猛的 Chimp 在试图开门时也一头栽倒在地。未来看起来似乎还有一段距离。正在比赛中的 Chimp谈到机器人和战争,中心问题并非技术性的,而是哲学性的:机器能不能被赋予杀人的权力和能力?把这一决定和能力外包给机器的想法是非常可怕的。去年7月,康涅狄格州的一位年轻人激起了一场激烈的辩论,起因是他给一架简单的无人机加装了一把手枪,然后上传到 YouTube 上。想象一下,只要把一架商店购买的无人机绑上一步带摄像头的手机,再加上一把半自动武器,在效果上就相当于创造了一架自制的远程控制的刺杀无人机。当然,简单的自动武器并不是什么新东西:比如地雷。这是愚蠢的自动武器的体现,因为无论是敌人还是 3 岁小孩踩到它都会爆炸。1990年 代,在美国活动家 Jody Williams 的帮助下发起的一场反地雷的国际运动终于让 162 个国家签署了一项禁止使用、开发或者囤积地雷的条约。为此 Williams 还获得了诺贝尔和平奖。现在,她是一项名为制止杀人机器人运动的名誉领袖。在 20 位诺贝尔奖得主的帮助下,她希望能在全自动武器成为现实前禁止这种杀人武器。“我发现杀人机器人的想法比核武器还要可怕,” 去年她在日内瓦告诉 NBC:“如果有人认为把决定人生死的权利交给机器也可以的话,那人性何在?” 联合国自 2014年 以来就一直在考虑制定国际指南的可能性。美国这边,五角大楼要求 “在使用武力时要有适当程度的人类判断。” 但什么才是 “适当” 的呢?实际上,目前正在制造的一些武器系统当中已经有全自动的了。美国很快就会部署远程导弹,这种导弹的自治系统能够自行搜寻目标。韩国已经研发出一种自动枪塔,这种枪塔能够在黑暗中感知到一英里以外的人类目标并向其射击。在去年的那次机器人比赛上,我跟 Georgia Tech 的教授 Ronald Arkin 进行了交谈,他就机器人伦理这个话题写了很多东西。“我不是终结者式武器的拥护者,” Arkin 告诉我:“但我认为这的确是一个复杂的议题。” 他的观点是更智能的武器可以减少人员伤亡。“因为机器没有情感,它们不大可能在危险情况下恐慌,” 他说:“或者因为哲学家所谓的 ‘战争迷雾’ 而作出坏的判断。” 比如说,去年10月,在美军一架 AC-130 武装直升机错误地朝阿富汗昆都士的一家医院开火导致至少 42 人丧生之后,美军上将 John F. Campbell 称这是一起 “本可避免因人为失误造成的悲剧。” 自动无人机会犯同样的错误吗?“现在,我们是遥控着无人机去杀死那些真正可怕的人,” 计算机科学家兼作者 Jaron Lanier 说:“但我们正在设立能够自己走自己寻找目标的系统。” 当然,问题在于那些可怕的人弄到了无人机并反过来狩猎我们该怎么办?会发生什么?“是的,历史教导我们这种事情会发生,” 他说:“出现这种情况时,我们的态度不应该是诅咒 ‘那些邪恶的机器’,而应该指责那些工程师不负责任,不够聪明,考虑不够宏观。我们要讨论的不应该是 AI 的邪恶,而是工程师的责任,他们应该开发出一套可靠的不会反戈一击的系统。这才是正确的讨论姿势。”一些研究人员认为,我们应该能够把略显粗糙的伦理守则编程进机器里面,但这会需要某种程度的复杂性,复杂到我们只能靠猜测。不管怎样,越来越多自动武器的出现也许是不可避免的。跟需要大规模投资、只有国家才能支撑的核武器不一样的是,这种新技术是由商业开发推动的。“我敢保证,Google 和 Amazon 对无人机的监控能力很快就要比军方还要强,” Cummings 说:“他们拥有大得多的数据库,好得多的人脸识别技术,强得多的无人机制造和控制能力。这些对你的了解比 CIA 还要多得多。如果政府要指望企业来提供最新的国防技术这世界会变成什么样?”但是 Cummings 认为真正杀手机器人的到来还很遥远。在实验室设想自动机器人和武器要比在现实世界部署容易些。这一点我在机器人大赛结束后就认识到了。我漫步回到车库那里,这是参赛团队经常去的地方。这地方给人的感觉就像是 NASCAR 的车库,堆放着工具箱的架子,各种高科技的装备以及喝着啤酒的队员。不同的是这里放着的是机器人而不是车子。第一名被一个叫做 DRC-Hubo 的小机器人夺得,设计者是来自韩国的团队,这被人开玩笑说五角大楼这是要武装我们正好是中国邻居的盟友。至于机器人本身,它们的表演时间已经结束了。它们安静地挂在吊具上,跟一辆停泊着的车并无二致。即便是威猛的 Chimp,原本亮丽的红色喷漆也因为那次摔跤而被磨失了光泽,看起来有点软弱无力。而卡内基梅隆团队的程序员和工程师有的放下了手中的工具,有的盯住屏幕。这是绿野仙踪时刻,幕后的惊鸿一瞥会让你看到,像 Chimp 这样出色的机器其实是人类辛勤汗水和心灵手巧的结晶,没有这群人数年设计制造的努力,就不会有机器人的存在。同样地,Google 无人车或者刺杀基地组织领导的 CIA 无人机也是一样的道理。跟烤面包机相比,它们是智能机器。但它们是人类想象和人类工程的产物。如果说未来我们设计的机器会挑战我们,伤害我们,破坏我们热爱的东西,甚至要根除我们的话,那也是我们让它们干的。最终,智能机器崛起的可怕并不在于它们有朝一日会有自己的思想,而在于它们拥有我们(存在缺陷和复杂性的)人类为它们设计和制造的思想。
作者:佚名
文章来源:

我要回帖

更多关于 机器人杀人 的文章

 

随机推荐