首页 > 资讯列表 > 科技资讯 >> 智能设备

机器人总是对你百依百顺?以后它要说“不”了

智能设备 2016-09-05 23:30:52 转载来源: 网络整理/侵权必删

不管别人让你做什么,你都会去做吗?所有人都会说:当然不!那未来的机器人应该总是听我们的吗?乍一看,你可能会觉得应该――就因为它们是机器,听从我们的指令就是它们存在的意义。但再仔细想想,你在选择执行任务时,也并非不经大脑

不管别人让你做什么,你都会去做吗?所有人都会说:当然不!那未来的机器人应该总是听我们的吗?乍一看,你可能会觉得应该――就因为它们是机器,听从我们的指令就是它们存在的意义。但再仔细想想,你在选择执行任务时,也并非不经大脑。所以,机器人也和你一样。

机器人总是对你百依百顺?以后它要说“不”了

试想一下:

一位年迈又健忘的用户让他/她专门照顾老年人的机器人把刚刚洗好的衣服再丢到洗衣机里去

一个幼儿园的小朋友命令机器人把球扔到窗外

一名学生让机器人帮她完成所有的家庭作业

一个处于忙乱之中的主人,指示料理家务机器人运行垃圾处理器,即使勺子和小刀还卡在里面

像这样,对机器人进行不恰当指令,但并未造成实质性损害的例子还有许多。但并不是所有案例都是良性的,即使机器人的主人在下达命令是出于好意。

想象一下,一个机器人汽车根据指令在车道上倒车,但它后面却有一只小狗在香喷喷地睡觉,或者主人让厨房助手机器人拿起刀子往前走,然而它却站在一个人类厨师身后......命令很简单,后果却惨不忍睹。

那么,怎么样才能使机器人既听人类的命令,又不会造成不利后果?如果不让机器人在狗狗周围行驶的话,它可能会一点也不动了;如果要它避免拿刀刺到厨师,它可能会站住不动,或一开始就不去拿刀了。

使自主运行的机器在行动时探测到潜在威胁,并试图去避免威胁,或拒绝执行指令,任何情况下都很必要。因此,我们到底该如何教机器人在恰当的情形下说“不”呢?

如何使机器人预知下一步

位于波士顿的塔夫茨大学正在研发一种控制技术:机器人可基于人类指令作出简单的推断。这将决定机器人是会按指令行事,还是会因为指令违反了预先设定的道德准则,而拒绝行动。

要让机器人知道什么时候、为什么、如何去拒绝执行指令,执行起来比口头说说要难得多。搞清楚一个行动会造成什么危害或问题,光看问题的直接结果是不够的――一个从窗口扔出去的球,可能会掉进院子里,这不会造成任何伤害;但若掉到了繁忙的街道,这球可能就再也找不到了,甚至可能会导致司机为了躲避而突然一个急转弯,接着导致车祸。情景不同,结果不同。

以现有的机器人技术,在和孩子玩丢球游戏与把球扔出窗外或扔进垃圾桶之间,决定何时可以扔球,何时不可以还很困难。要是小孩子和机器人恶作剧,假装接球却躲过去,让球飞出开着的窗户的话,它就更不知道该怎么办了。

向机器人解释道德和法律

理解为何某些行为具有危险性,涉及到大量背景知识(包括在窗前玩球,球可能会飞出窗户)。这需要机器人不仅能自主考虑到行为后果,还能思考出人类发出指令的真正意图。

不管人类指令是出于好意还是恶意,机器人要能通过预知行为结果,弄清楚人类复杂指令的原因是什么,并能把行为结果与社会规定的、希望或合法的社会准则、道德准则相比较。如上所示,现有机器人遵循的一般规则是:“如果机器人的行为会造成有害后果,那么他们可拒绝行动。”明确义务和权限之间的关系,能让机器人通过可能结果,推理是否要执行指令。

总的来说,机器人不该执行违法或不被希望的行为。因此,他们需要了解法律、道德准则,甚至是礼节,以决定行为结果,或行为本身是否违反这些准则。

目前,想让机器人处理上述情境,还有很长的道路要走。但有一点早已证实:要让机器人去服从命令,它们得首先先学会拒绝。

标签: 机器人 是对 百依百顺 以后 要说


声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!

站长搜索

http://www.adminso.com

Copyright @ 2007~2024 All Rights Reserved.

Powered By 站长搜索

打开手机扫描上面的二维码打开手机版


使用手机软件扫描微信二维码

关注我们可获取更多热点资讯

站长搜索目录系统技术支持