自动驾驶汽车、围棋人机大战、描绘机器人自我意识的美剧《西部世界》大热……2016年,人工智能及其相关领域受到产业界、学术界乃至全社会的热议。与此同时,人们对人工智能的担忧也从未褪去:人工智能会在什么时间、以什么方式出问题? 临近年终,多名人工智能专家分析了2016年人工智能典型“失败”案例,认为这些错误集中出现在人工智能系统的机器学习和任务执行阶段
自动驾驶汽车、围棋人机大战、描绘机器人自我意识的美剧《西部世界》大热……2016年,人工智能及其相关领域受到产业界、学术界乃至全社会的热议。与此同时,人们对人工智能的担忧也从未褪去:人工智能会在什么时间、以什么方式出问题?
临近年终,多名人工智能专家分析了2016年人工智能典型“失败”案例,认为这些错误集中出现在人工智能系统的机器学习和任务执行阶段。
歧视——都是人的错吗
多位人工智能专家认为,种族主义和种族歧视是目前人工智能系统存在的主要问题,这可能和系统的研发设计者本身的种族有关。
2016年,美国多地法庭开始使用人工智能系统预测一名罪犯再次犯罪的几率,作为法官给予罪犯缓刑等的依据。然而,媒体对佛罗里达州法庭使用的一种名为“少数派报告”预测系统进行了调查,发现黑人被系统预测会再次犯罪的几率比其他族裔高出45%,其中黑人被预测再次暴力犯罪的几率比其他族裔高出77%。数据显示,这一人工智能系统的准确率只有20%。媒体评论说,所谓犯罪预测系统唯一能判断的仅是受调查对象的种族而已。
2016年,美国多家公司联合推出了“世界首届人工智能选美大赛”,参赛者在网站上上传照片,由人工智能算法“精确”评估参赛者的美。然而,这场比赛的获奖者都是白人。美国路易斯维尔大学网络安全实验室主任扬波利斯基指出,很明显这一人工智能的学习训练样本不够,美人被限制在固定的模式中。
为了开拓年轻人的市场,微软公司今年春季在社交网络推特上推出了人工智能聊天机器人Tay。然而上线不到一天,用网友的话说,Tay就成为了一个“热爱希特勒、侮辱女性的妖怪”,微软随即将Tay紧急下线。
任天堂公司的“口袋妖怪”游戏今年7月发布后风靡全球。玩家很快发现,黑人社区很少有小精灵可抓。据《今日美国》报道,在洛杉矶地区,主要的白人社区平均有55个“精灵驿站”,黑人社区平均不到19个;在底特律、迈阿密和芝加哥也出现类似情况,黑人玩家在自家门口很难参与游戏。游戏开发人员承认,这款增强现实智能游戏基于一个以白人玩家为主的地图系统,开发人员没有在黑人社区上多花时间。
输棋、伤人——人工智能还不完美
在3月的围棋人机大战中,人工智能系统阿尔法围棋以4比1战胜韩国棋手李世石。澳大利亚新南威尔士大学人工智能教授沃尔什表示,阿尔法围棋输了一局,说明李世石还是发现了这个系统使用的“蒙特卡洛搜索树”中的漏洞,这一局可以看作是2016年人工智能的一次失败,人工智能还不完美。扬波利斯基则认为,李世石胜出的一局还是在正常操作的范围内。
5月,一辆开启自动驾驶模式的特斯拉在美国佛罗里达州与一辆拖车相撞,导致司机死亡。事故发生后,特斯拉公司发布了自动驾驶软件的重要更新,公司首席执行官马斯克称,更新可以防止类似事故的发生。
7月,位于硅谷地区的斯坦福购物中心,一位母亲称,购物中心重约135公斤的“K5安保机器人”撞倒了自己16个月的孩子,并从孩子的脚上压了过去。
而在11月举行的中国深圳“中国国际高新技术成果交易会”上,一名网友在微信上发图并配文称,亲眼看到隔壁展台进化者小胖机器人没人操纵,自己突然跑起来,把玻璃墙给撞倒了,砸伤旁边一路人。图片显示,现场满地玻璃,一位受伤观众被担架抬走。这款机器人的生产方称,这起事故是人为操作失误所致,控制人员误将前进键当作后退键。但也有专家指出,不能用“油门当刹车”的比喻来看待服务机器人问题。尽管是偶发事件,但其安全隐患绝不可掉以轻心。
扬波利斯基等人认为,这些案例说明,保持机器学习数据的多样性是防止人工智能系统产生“偏见”的关键,相关伦理研究更是应该走在技术研究的前面。(新华社记者 李宓)
注:本文转载自新华社
编辑:admin
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!