主动进化:机器人马斯克克为什么担心人工智能威胁?

这段时间,ChatGPT接连发布新的技术突破,AI变革速度之迅猛,让互联网用户如做梦般震惊而恍惚。即使是科技公司大佬比尔·盖茨,也在日前的发表《AI时代已经开始》公开信中感叹:两次见证了令人惊叹的革命性技术的面世,一次是1980年,首次接触图形用户界面;第二次就是2022年,对OpenAI团队及其生成式AI模型发起了挑战,结果令人惊艳。而另一群AI技术研究学者、投资者,把AI的迅猛发展视为一场“失控的竞赛”。这其中就有特斯拉创始人马斯克、《人类简史》作者赫拉利、图灵奖得主约书亚·本吉奥等。“暂停训练AI,开发AI治理系统”今日,包括图灵获奖者约书亚·本吉奥、SpaceX创始人伊隆·马斯克等在内的一群科学家和企业家签发了一封公开信,呼吁暂停巨型人工智能研究。这封公开信指出,最近几个月,人工智能实验室陷入了一场失控的竞赛,他们致力于开发和部署更强大的数字思维,但即使是研发者也不能理解、预测或可靠地控制这些数字思维。诸多研究表明,具有与人类匹敌智能的人工智能系统可能对社会和人类构成深远的风险。针对AI在应用层面的技术漏洞和社会变革风险,公开信提出了连环发问:我们是否应该让机器用宣传和谎言淹没我们的信息渠道?我们是否应该自动化所有工作,包括令人满意的工作?我们是否应该开发出更聪明、数量更庞大的非人类思想,最终淘汰甚至取代我们?我们是否应该冒着文明失控的风险?公开信呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统,期限至少6个月。在这段时间内,人工智能实验室和专家应该开发和实施一套技术安全协议,由独立外部专家进行严格的审计和监督。与此同时,人工智能研发者必须和政策制定者合作,加快开发人工智能治理系统。“只有当我们确信强大的人工智能系统的影响是积极的并且风险是可控的时候,才应该开发它们。”除了约书亚·本吉奥和马斯克,在公开信上签名的人还包括伯克利分校计算机科学教授斯图尔特·罗素、苹果公司联合创始人史蒂夫·沃兹尼亚克等科技界专家,目前在公开信上签名的人数已经超过1100人。部分签名者霍金的预言成真?“AI确实可能杀死人类”值得关注的是,发布公开信的“未来生活研究所”是由MIT物理学终身教授泰格马克创立的一家非盈利研究机构,创立于2014年,一直关注“开发与人类相当的人工智能技术过程中出现的风险”,霍金、马斯克都是这家机构的科学顾问。也是在这一年,霍金开始通过公开媒体发表对于人工智能技术最终将取代人类的一系列“预言”。他在BBC采访中表示:“人工智能技术的研发将敲响人类灭绝的警钟。这项技术能够按照自己的意愿行事并且以越来越快的速度自行进行重新设计。人类受限于缓慢的生物学进化速度,无法与之竞争和对抗,最终将被人工智能取代。”同年10月,马斯克在麻省理工学院AeroAstro百年学术研讨会上发表讲话将人工智能称之为“我们面临的最大威胁”。他说:“随着人工智能的发展,我们将召唤出恶魔。”他也多次在推特上强烈宣传:“人类应该像监管食物、药品、飞机和汽车一样来监管人工智能。”去年12月,面对横空出世的ChatGPT,马斯克在推特上曾公开表示:“ChatGPT好得吓人。我们离强大且危险的AI不远了。”上周,“人工智能教父”辛顿在采访中被问及人工智能“消灭人类”的可能性时说:“我认为这并非不可想象。”随后,AI领域专家盖瑞·马库斯和马斯克发推响应这一观点。3月28日,盖瑞·马库斯发文称:“超级智能可能会、也可能不会迫在眉睫,但在短期内需要担心“MAI(平庸人工智能)风险”。马斯克等人的担忧似乎正在得到验证。在昨日公开的访谈中,“ChatGPT之父”萨姆·阿尔特曼说的话里,竟有一些耐人寻味的表述。他说,GPT系列为何会出现推理能力,OpenAI的研究者自己搞不明白。他们只知道,在不断测试中,人们忽然发现:从ChatGPT开始,GPT系列开始出现了推理能力。阿尔特曼还在访谈说了这样惊人的一句:“AI确实可能杀死人类。”橙柿互动记者 储帆(来源:橙柿互动)更多精彩资讯请在应用市场下载“极目新闻”客户端,未经授权请勿转载,欢迎提供新闻线索,一经采纳即付报酬。
人工智能是当今科技发展的热门领域,也是引起全球关注的热点话题。在这个领域中,伊隆·马斯克一直扮演着一个引领者的角色。马斯克是特斯拉、SpaceX等知名企业的创始人,也是AI领域的重要人物。他最近在接受媒体采访时,表达了对人工智能的担忧和呼吁政府出台监管措施,引发了广泛的讨论。马斯克在接受福克斯新闻主持人塔克·卡尔森的采访时,表达了他对人工智能的忧虑。他表示,AI的发展速度过快,可能会对人类造成极大的威胁,甚至可能引发全球性的灾难。马斯克认为,如果人工智能超过人类的智慧水平,那么就会出现类似于科幻电影中所描述的机器人反叛人类的情景。这种情况下,人类将会失去控制,甚至可能被完全摧毁。在此背景下,马斯克呼吁政府出台监管措施,以保障人类的利益和安全。他表示,政府应该对AI技术进行监管,确保其在不威胁人类生存和安全的前提下得到发展。马斯克还提出了一些具体的建议,比如说政府应该管控超级人工智能,可以拔电源,机器人不应得到平等对待。这样的呼吁引起了广泛的关注。一方面,马斯克的声音代表了许多AI领域的专家和学者的意见,他们都对AI的快速发展表示关注。他们认为,如果不采取监管措施,AI技术可能会失控,对人类造成极大的危害。另一方面,也有人对马斯克的观点提出了质疑。他们认为,AI技术的发展对人类有很多好处,如提高生产力和生活品质,如果过于强调监管,可能会阻碍技术的发展。不管怎样,马斯克的呼吁引起了人们对AI技术的关注。在当今这个信息化时代,AI已经成为各行各业的重要支撑技术,无论是科学研究、医疗保健、金融服务还是智能家居,都离不开AI技术的应用。AI技术的发展为人类带来了无数便利和创新,但同时也引发了人们对其安全性和可控性的担忧。首先,AI技术的快速发展带来的安全隐患是不容忽视的。随着AI技术的不断进步,人工智能的智能水平不断提高,这意味着AI系统将更加具有自主决策能力。但是,这也意味着AI系统可能会出现意外的行为,甚至对人类造成威胁。比如,自动驾驶汽车出现故障后可能会对乘客和行人造成伤害,或者是智能机器人失去控制后攻击人类。这些问题都需要得到高度关注和解决。其次,AI技术的发展也引发了人们对人类工作岗位的担忧。人工智能在许多领域已经取代了人类的工作,如在制造业中,许多机器人已经取代了工人的工作。这导致许多人失去了工作,面临失业和生计问题。同时,人工智能的发展也可能会影响到人类的创造力和智慧水平,从而降低人类的价值和作用。为了解决这些问题,必须采取有效的监管措施来确保AI技术的安全性和可控性。政府应该加强对AI技术的监管和管理,制定相关的法规和政策,明确AI技术的使用范围和限制,避免AI技术对人类造成不可逆转的伤害。同时,也应该鼓励AI技术的研发和应用,推动AI技术与人类的协同发展。除了政府的监管和管理,企业也应该积极参与到AI技术的安全和可控中来。企业应该注重人工智能系统的安全性和可靠性,开发具有自我修复能力的AI系统,减少系统出错的可能性,保证人工智能系统的稳定性和可靠性。总之,人工智能的快速发展为人类带来了巨大的变革和机遇,但同时也带来了新的挑战和风险。我们需要采取有效的措施来保障AI技术的安全性和可控性,避免其对人类造成伤害和影响。政府和企业应该共同努力,制定相关的法规和政策,加强对AI技术的监管和管理,注重AI系统的安全和可靠性,推动AI技术与人类的协同发展,以确保人工智能技术能够为人类带来更多的便利和创新。关注我,每天给你讲一些实事讯息。
反对@谢熊猫君 的高票答案。翻译得很辛苦,也确实提供了有趣的视角,但应该注明这是作家写的,而不是科学家写的。文章引用的都是畅销书,而不是peer reviewed论文。这种貌似严谨的文章最容易造成误导。以下批评针对原文,不针对翻译。没有回答“为什么名人让我们警惕人工智能”,只是提醒大家,不一定要警惕人工智能。--------------------------------------- 文中引用主要来自作家、哲学家、企业家,比如:“未来学家”Ray Kurzweil,哲学家兼畅销作家Nick Bostrom,畅销书作家James Barrat,作家Carl Shulman,企业家Jeremy Howard。虽然上面的部分人曾经做过技术,不过后来都跑去卖概念了。引用这些人真的没问题吗?美国是个极端爱好bullshit的国家,工业界金融界文化界很多人吹牛逼是不打草稿的。 全篇那么长,居然全是脑补,没有严谨论据和专家观点,挺不容易的。引用的参考文献几乎全是畅销书,点开全是amazon上的卖书链接。。咳咳,作家生活不易啊。--------------------------------------------文中真正“专家”的言论只有两处:2013年的时候,Bostrom做了个问卷调查,涵盖了数百位人工智能专家,问卷的内容是“你预测人类级别的强人工智能什么时候会实现”,并且让回答者给出一个乐观估计(强人工智能有10%的可能在这一年达成),正常估计(有50%的可能达成),和悲观估计(有90%可能达成)。和另外一个独立的调查,由作家James Barrat在Ben Goertzel的强人工智能年会上进行,他直接问了参与者认为强人工智能哪一年会实现,选项有2030年,2050年,2100年,和永远不会实现。并且得出结论:从以上答案,我们可以估计一个中位的专家认为强人工智能到超人工智能可能要花20年左右。所以,我们可以得出,现在全世界的人工智能专家中,一个中位的估计是我们会在2040年达成强人工智能,并在20年后的2060年达成超人工智能——也就是踩上了绊线。OMG..第一个Bostrom的调查,请问“数百个人工智能专家”都是谁啊?包不包括业内大牛啊,比如MIT的Patrick Henry Winston,Stanford的Richard Fikes之类的。或者说上面提到的作家哲学家都是“人工智能专家”?第二个调查在“强人工智能年会”上做的,知道啥叫幸存者偏差吗?都去参加“强人工智能年会”了当然对强人工智能是乐观的啊,就好像去天主教堂调查宗教信仰,结论是90%人都信上帝一样可笑。另外这个年会是个神马玩意啊,为啥我搞AI的朋友都没听过啊。不会是这个会吧(The Eighth Conference on Artificial General Intelligence),恩恩,主席是Ben Goertzel,应该没跑了。不过这个Ben Goertzel好像不是科学家啊,任职于一个金融公司,建立了一个IT公司,写了几本畅销书。。跟学术有关的职位有两个,一个是奇点大学(Singularity University)的advisor,专门研究人类什么时候会被计算机干掉的地方。。。好科幻啊。。。另一个是Research Professor in the Fujian Key Lab for Brain-Like Intelligent Systems at Xiamen University。。。中国人民的好朋友啊。我个人的观点,他的研究不能支撑他做出的预言,你们感受一下。---------------------------------强人工智能是有可能实现的,但是现在的技术离强人工智能的距离还非常远。原文中第一个图很有意思,就是技术发展曲线。全文的所有论据,都建立在“指数发展”这个假设上。指数曲线在接近0的时候是类似线性的,不光是指数,多项式函数、对数函数、甚至多重指数在小范围内也可以用线性拟合得很好。而且不同的指数e^{100t}和e^{0.00001t}在0附近都很接近,但对“奇点”何时到来的估算可能误差千百年。如果按照“指数发展”来算,而且乐观的估计指数的系数,那你妹的什么技术都不是问题啊,人类分分钟占领全宇宙。我更相信的是,科学发展是有爆发期和稳定期的。一个技术突破会带来难以想象的繁荣,之后的科学发展都比之前的更快,但不会天天都是技术突破。比如,二十世纪上半页的物理学十分辉煌,相对论和量子力学的建立引发了一系列技术革命。但从那以后物理学一直很平稳。杨振宁就说过他赶上了物理学的好时候,让他现在做学术,可能就不会选物理学了。要是科幻作家站在1950年前后,用指数发展估计物理学的发展,那到今天我们早就弄出大统一理论搞定核聚变发电了。又比如人均寿命从先秦时的二十几岁发展到现在的80岁,如果用指数拟合,那过几十年是不是要活几百岁了啊?--------------------------------------文中提到的可能支持人工智能指数发展的路线包括:抄袭人脑,进化算法,电脑自己解决。我不知道这几条是不是对应类似machine learning, neural network, evolutionary algorithm, program synthesis之类的领域。如果是的话,这几个领域我都有一点粗浅的了解。欢迎大神批评补充。比如machine learning和neural network, 核心都是回归和数据拟合,离智能化还很远。大牛Andrew Ng的网课,Coursera - Free Online Courses From Top Universities光靠这个实现强人工智能我是不信滴。关于evolutionary algorithm,去年有一个大牛的talk,推荐大家看一下。全篇都是技术讨论没有涉及“奇点”,大家可以自己判断现在的研究前沿离真正的强人工智能还有多远。从43分钟开始:Dana Scott: VSL Opening & Christos Papadimitriou: VSL Keynote Talk "Computational Ideas and the Theory of Evolution" on Vimeoprogram synthesis里,现在计算机能自己生成的程序还很弱智,而且算法复杂度都是exponential time甚至doubly exponential time(比如e^{e^n})的。用的方法本质上是先靠程序员输入一个程序模板和参数空间,然后用各种方法遍历所有可能的程序,看看是不是满足要求。这其实引出了一个很有意思的问题:现在我们CPU的计算能力是指数增长的,但按照今天的算法,许多真正有趣的问题都是需要“指数时间”,甚至多重指数时间才能解决的。那么,我们实际解决新问题的速度一定是指数发展的吗?让该领域内的专家来介绍现在的研究成果和面临的巨大问题,比起作家自己泛泛而谈要好得多。--------------------------其他反对的观点其实也不少,比如可以参考这篇文章 Hyping Artificial Intelligence, Yet Again等有空我可能会翻译一下。麻烦高票答案加上“本文代表部分业内观点,不具有普遍性和权威性”,以免误导不明真相的群众。

我要回帖

更多关于 机器人马斯克 的文章

 

随机推荐