你知道哪些扫地机器人的“智障”行为?

OFweek机器人网讯:英国《新科学家》周刊网站9月14日称,机器人能分辨对错吗?想让机器人、自动驾驶汽车和军用机械有道德观念实在是太难了。

我们能否教育机器人做个“好人”?带着这个想法,英国布里斯托尔机器人实验室的机器人专家艾伦·温菲尔德为机器人制造了一个道德陷阱,而接下来,机器人的反应则令人震惊。

在一个实验中,温菲尔德和他的同事为机器人设定了一个程序:阻止其他拟人机器人掉进洞里。这是艾萨克·阿西莫夫(美国著名的科幻小说家)提出的机器人三大定律之一——机器人必须防止人类受伤害——的简版。

一开始,机器人还能顺利完成任务:当拟人机器人向洞口移动时,机器人会冲上前去将其推开,防止其掉到洞里。随后,研究小组又添加了一个拟人机器人,两个拟人机器人同时向洞口移动,救人机器人则要被迫做出选择。有时,它成功地救了一个“人”,而另一个掉进了洞里;有几次,它甚至想要两个都救;然而在33次测试中,有14次因为在救哪一个的问题上不知所措而浪费了时间,以至于两个“人”都掉进了洞里。研究人员于9月2日在英国伯明翰召开的“迈向自主机器人系统”会议上向世人展示了他们的实验。

温菲尔德形容他的机器人是“道德僵尸”,虽然根据设定的行为程序,它可以对他人进行施救,但它根本不理解这种行为背后的原因。温菲尔德说,他曾经认为让机器人自己做出道德伦理选择是不可能的。现如今,他说:“我的答案是:我不知道。”

随着机器人日益融入我们的日常生活,这一问题也需要答案。例如一辆自动驾驶汽车,某天或许要在保全车内人员安全和给其他驾驶员或行人造成伤害这一风险之间进行权衡。或许很难给机器人设置处理这种情况的相应程序。

然而,为军事战争设计的机器人或许能够为我们提供解决这一问题的初步答案。佐治亚理工学院的计算机科学家罗纳德·阿金专门针对名为“道德监督员”的军事机器人研制了一套运算法则,这套运算法则可帮机器人在战场上做出明智的抉择。阿金已经在模拟战斗中进行了测试,结果显示,安装这种程序的机器人能够选择不开枪,且在战斗过程中,能够在学校和医院等战争条例规定的受保护区域附近尽量减少人员伤亡。

阿金说:“战争法则已有千年历史,人类会受情感因素影响而打破规矩,机器人则不会。”

  随着科技的发展,现在好多生活用品都换成了智能型,通过大数据分析,然后做出对应的指令,也就是我们常说的机器人,不过再智能,也只是设定好的程序而已,难免会出错,闹出大笑话。

  这位铲屎官家里养了两只猫咪,虽然平时陪伴它们的时间还挺多,但总归是要上班的,当猫咪单独留在家里时,铲屎官总是不放心,担心它们会误食地板上的垃圾。

  虽然装有监控,但那也只能看,并不能阻止什么,不过一年多过去了,也没有发生什么不好的事,后来铲屎官也就放心了。

  有时候事情就是这样,当你每天都想着的时候,它就是不会发生,一旦你放松警惕后,悲剧就发生了,其中一只猫咪在舔毛的时候,不小心误吞了地上的发卡,导致呼吸道堵塞,最后等铲屎官发现送到医院时,猫咪已经无法呼吸了。

  最后通过手术,将堵塞物取了出来,经过抢救,猫咪保住了一条命,但因为喉咙被刮伤了,导致它以后都很难再发出声音,这件事无疑给了铲屎官当头一棒。

  虽说这种情况不经常发生,一旦发生了,那也是非常致命的,我们都知道,猫咪是非常爱舔毛的动物,如果地上有细小的垃圾杂物,当猫咪舔毛的时候不小心被舌头带进嘴里,然后又吞了下去,即使当时没事,那么日积月累,对猫咪的身体都是不好的。

  经过这件事,铲屎官不能再无动于衷了,最后不惜花费数千元买了一台超智能扫地机器人,据说可以

我要回帖

更多关于 智能扫地机器人的特点 的文章

 

随机推荐