站长搜索(www.adminso.com):1000万美元:马斯克防止机器人倒戈 进入文明时代以来,人类就一直担心有朝一日会遭遇“灭顶之灾”,比如说变异的病毒、小行星撞击地球,以及核灾难等。随着机器人技术的不断演进,人类的“噩梦清单”上恐怕又多了一项:人工智能有可能发展出自己的思想,进而引发人类的“身份危机”
站长搜索(www.adminso.com):1000万美元:马斯克防止机器人倒戈
进入文明时代以来,人类就一直担心有朝一日会遭遇“灭顶之灾”,比如说变异的病毒、小行星撞击地球,以及核灾难等。随着机器人技术的不断演进,人类的“噩梦清单”上恐怕又多了一项:人工智能有可能发展出自己的思想,进而引发人类的“身份危机”。
去年,诸如埃伦・马斯克(Elon Musk)和斯蒂芬・霍金(Stephen Hawking)等技术和科学界大佬纷纷警示世人,人工智能(AI)倒戈的情况――像《终结者》(Terminator)系列中的“天网”(Skynet)那样――也许不仅限于科幻作品。
在推文及多次公开露面中,马斯克都将不受制约的超级智能所潜藏的杀机,比作“召唤魔鬼”和“天网”。周四,这位太空探索技术公司(SpaceX)兼特斯拉汽车(Tesla Motors)掌门人身体力行,向生命未来研究所(Future of Life Institute)捐赠1,000万美元,用于创建一个大型项目,专门研究如何让人工智能对你我这等“肉包”(meatbag,《飞出个未来》中对有机生命体的蔑称――译注)保持友好。
“有那么多业内领先的AI研究人员站出来,告诉我们人工智能安全的重要性。”马斯克在一份声明中说,意指由多名业内领袖签名的一封公开信。“我深有同感,故今日认捐1,000万美元支持这方面的研究,旨在确保人工智能始终造福人类。”
仔细研究字里行间,你就会发现,Elon Musk的一言一行总有一定的推销成分在里面。他投资了两家大型人工智能公司:Vicarious和DeepMind Technologies,后者已被谷歌收购。注意,在公布Elon Musk认捐事宜的新闻稿中还引述了哪些人的话:
“人工智能的迅猛发展打开了一系列激动人心的崭新应用领域,”DeepMind Technologies联合创始人杰米斯・哈萨比斯(Demis Hassabis)、希恩・莱格(Shane Legg)和穆斯塔法・苏莱曼(Mustafa Suleyman)说,“能力越大,责任也就越大。Elon Musk的慷慨捐赠将支持研究人员们探究如何安全且合乎道德地使用人工智能;随着技术的持续进步,由此打下的基础将给社会带来深远的影响。”
“博斯特罗姆的《超级智能》值得拜读。我们要格外小心人工智能。它可能比核弹都危险。”
――Elon Musk(@elonmusk)2014年8月3日发表于Twitter
人工智能的危险性还得到了诸如霍金和尼克・博斯特罗姆(Nick Bostrom)的支持,后者还就这一话题发表了大部头新作《超级智能》(Superintelligence)。纵然Elon Musk大力也鼓吹人工智能危险性,但我猜测,他又是呼吁又是捐款,都是为了先发制人以掣肘负面舆论,因为在人工智能走向成熟与盈利的道路上,公众舆论都是潜在的拦路虎。换言之,对Elon Musk而言,这样固然是为了保护人类不受恶意机器人的伤害,但同样也是为他的投资护航。
毕竟,Elon Musk说过,特斯拉将抢先一步,第一个将无人驾驶汽车推向市场。比起“天网”这样的超级智能,这只能算是低级人工智能,但随着人工智能的进一步发展,Elon Musk必须确保我们能安心地坐在“智能”汽车里到处跑。我猜,为了能让公众放心,长期内他愿意投入的钱远不止1,000万美元。
短期而言,人工智能可能导致数以百万计的人失业;长期而言,可能出现一些科幻电影中的情况,人工智能的智力水平超过人类,开始“政变”。按人工智能的发展进度,在不久的将来,机器可能以不断加快的速度重新设计自己,超越受制于生物进化速度的人类,最终摆脱人类的控制。
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!