为什么极品飞车9怎么调难度14,要做的那么难,蛐蛐和机器人赛跑,那个机器人就从来都没有马虎过

LOL大型比赛为什么没有机器人?_百度知道
LOL大型比赛为什么没有机器人?
我有更好的答案
用机器人的话一方面控制不是非常稳定,另一方面拉人的话万一失误或者对面闪现故意让肉被拉过来的话风险会比较大相比之下锤石的风险就小很多(往自己这边拉两小段距离,要上的话可以自己二段激活拉进去,还可以再给灯笼带个队友),还有e和大比较稳定的控制
手机游戏第一门户网站
不同的英雄适合不同的分段,例如JS、盖伦等上手容易,虽然操作顺手,但几乎所有人都了解这类英雄的技能和操作,被成功针对的可能性很大。还有,职业联赛考虑更多的是真容,是队友英雄之间的配合,所以机器人出现在职业联赛很少。
在ipl5上曾经出现过,不过后来被削了q的蓝耗,q的蓝耗太高了,而且钩子类英雄的话,锤石还有一个w可以救人,比机器人使用。
机器人在这种比赛里面莫有用,都走位大神
因为30级后,人比机器人还精啊!
都是高手随便一个走位就够不到
其他5条回答
为您推荐:
其他类似问题
您可能关注的内容
lol的相关知识
换一换
回答问题,赢新手礼包
个人、企业类
违法有害信息,请在下方选择后提交
色情、暴力
我们会通过消息、邮箱等方式尽快将举报结果通知您。清华大学冯象教授:机器人律师,机器人医生,然后…… | 律新社在现场清华大学冯象教授:机器人律师,机器人医生,然后…… | 律新社在现场律新社百家号律新社作者 | 周正请点击此处输入图片描述请点击此处输入图片描述人类最强棋手柯洁败给阿法狗,意味着一个“可怕”的现实——比人类“聪明”的机器已经出现。智力活动的意义被颠覆,人工智能被用于战争,人类如何从社会制度和法律规制等方面处理人机关系……人工智能给人类社会带来了空前的挑战。日,清华大学梅汝璈讲席冯象教授,在上海华东师范大学做了题为“机器人律师,机器人医生,然后……”的讲座,吸引百余名师生现场聆听。本次讲座是2017年“双百活动”暨“上海法学讲坛”第五讲,也是华东师范大学人文社科“知名学者学术讲座”第11场。讲座由上海市法学会、华东师范大学法学院及社科处共同主办。上海市法学会秘书长毛坚平到场致辞。律新社在现场第一时间独家分享了讲座的精彩内容,现将讲座内容整理发布,以飨大众。清华大学梅汝璈讲席冯象教授请点击此处输入图片描述人工智能的最新发展阿法狗(AlphaGo)阿法狗又来了。和上次对战李世石不一样,这一回,几乎没有人认为人类能够获胜。但柯洁已经表现得非常好,阿法狗团队评价柯洁几乎是下出了人类最完美的棋。但就像聂卫平说的,再完美也不过是人类的棋,人工智能的棋我们现在已经很难理解。考试机器2017年,两台人工智能机器“参加”高考,做的是数学卷。其中一台获得105分(150分满分)只能说表现比较一般。但是,另外一台与6个往年的高考状元在封闭的环境里同时做题,结果,机器得分只比6人平均分少一分。立案机器2016年,最高人民法院尝试用机器人立案。据说,实践的结果是立案机器人的错误率远低于人类。近几年,法院内部案多人少的问题尚未完全解决,但在可见的未来,机器人可能很快就能分担法院的一部分工作。无人汽车当前,无人汽车技术已经比较成熟。但无人汽车需要在一个智能化的交通网络中运行,这一点目前尚难达到。但不难想象的是,未来,人工驾驶的汽车才是智能交通网络中最危险的“稀罕物”。政府或许会在郊区专门开辟“驾驶乐园”,供喜欢驾驶的人“过把瘾”。请点击此处输入图片描述假设有一颗“围棋星球”人类如何应对人工智能在未来高度发达后可能出现的窘境?冯象教授提到了这样一个思想实验——“围棋星球”。假设有这么一颗“围棋星球”,在这个星球上,除了围棋棋手,没有任何为人所称道的职业,其他所有的生产都是为下棋服务的。在这个星球上,人类最高的理想就是当一名职业棋手。所有人从出生开始就要接触并学习围棋,并以之为终生追求。那么,假设这个星球上人工智能也高速发展,人类也造出了阿法狗这样的人工智能,也举行了人机之间的围棋比赛,并且比赛结果也和地球上一样,人类输给了机器。请问,这个星球要怎么处理人工智能的问题?对地球上的人类来讲,围棋只是一种智力运动。但在“围棋星球”上,围棋是人类的最高理想。如果人工智能超越了人类,就会导致一种非常尴尬的境地。这样的社会将面临着巨大的挑战:人类如何决定围棋的未来?请点击此处输入图片描述柯洁对战阿法狗时陷入苦思日本围棋大师藤泽秀行曾说过一句话,“棋道一百,只知其七。”过去我们以为这句话是一种艺术表达,是为了表现棋道的高深。但是,今天阿法狗让我们发现人类真的只知道7%。所以柯洁比赛完后非常难过,他再也无法知道自己到底对围棋了解、掌握到了什么程度。也就是说,围棋作为一门知识、技艺、艺术或艺术理想,人类无法知道自己真正掌握了多少。如果阿法狗团队公布了机器人与机器人对弈的50盘棋局,很可能我们人类已经看不大懂。 当年,卡斯帕罗夫和“深蓝”决战国际象棋。前者输掉比赛之后,IBM将“深蓝”雪藏。而现在,人工智能不断发展,一些国际大赛已经离不开人工智能。在一些赛制为“人机搭配”的大赛中,就出现了一个很有意思的现象:某场比赛中,所有最优秀的棋手都被淘汰了,最终获胜是两个小伙子。论棋艺,这两个人绝对不是最好的,但他们最会“摆弄”机器,所以最终胜出。这就反应出一个问题:一旦人工智能超越了人类,围棋比赛的意义就被完全颠覆。拿到冠军的人类不是最会下棋的,只是最懂机器。就好比奥林匹克竞赛中所有的选手都可以吃药,最后比的是谁的药更先进而已,奥林匹克也失去了意义。所以,“围棋星球”上的人类必须做出选择——人类到底要不要人工智能。如果决定是“要”,那么人类存在于这个星球上的意义是什么?整个星球的方方面面都会被颠覆。请点击此处输入图片描述地球也不能“幸免”“围棋星球”是一个高度简化的思想实验模型,但其也在一定程度上对地球的实际情况有着参考意义。借这个思想实验,冯象教授就提出了三个问题:一类似的挑战会否出现虽然目前地球上的行业生态比较丰富,围棋只是万千人类智力活动中的一种,但类似于“围棋星球”的挑战也并非不可能出现。冯象教授观察到,在国内,法律界的人士比较保守,不太相信人工智能会造成很大挑战。但在一些行业里,人工智能已经显露了其巨大的“威力”,带来了一些难以解决的问题。如果机器人能回答法律问题,那么它也不可避免地介入了政治,因为法律的本质就是政治,这也将带来一系列的问题。前不久,在北大法学院的知识产权课上,老师就请了一个机器人到课堂上来与学生对话。学生可以向机器人问法律问题,例如“知识产权是什么”,据说机器人回答得还不错。研发该机器人的公司声称,机器人永远不可能取代老师,因为机器人没有感情,而人类有感情,教学活动不仅是回答问题,而且还有感情的交流,这一点机器人无法做到。这种说法有一定的道理,但是,机器人有没有感情并不重要,重要的是机器人能否识别人类的感情,以及是否会作出回应。人工智能领域长久以来研究的一个主要课题就是“机器如何具有自我意识”。机器人如果要进入医疗服务和家庭护理等行业,就必须能识别人类的表情和感情变化,然后给出回应。达到这一点或许并不是不可能,因为我们已经能很明确地看到人工智能的自我学习能力。在和李世石下棋之前,阿法狗曾和欧洲的七段选手对弈。当时的阿法狗“棋艺”肯定不如现在,但它现在已经超越了人类最强的棋手。人工智能自我能力的提升过程在开始阶段比较慢,但其后它可以自己学习。人工智能从弱人工智能、狭隘人工智能到强人工智能、通用人工智能的过程可能比我们预想的要快得多。美军无人机请点击此处输入图片描述二人工智能可否仅和平使用冯象教授坦言这个问题其实已经过时。人工智能早已参与战争,无人机就是最典型的例子,它也早已不是仅做侦查之用,还承担了部分杀戮的任务。事实上,一般来说,一个国家的军事领域往往是技术应用最先进的领域。和平使用人工智能的愿望早已破灭,接下来是如何限制它的问题。去年的“人机大战”后不久,联合国曾讨论过这个问题。再往前,哈佛大学的一个团队已经讨论过“是否需要限制人工智能”的问题。在今年的一个有人工智能界、科学界、法律界的专家参加的全球大会上,一份宣言被发表,宣言实际上也是重申了这个问题。联合国也在考虑是以国际公约的形式,或以联合国为主导的谈判,或依赖业界本身的自律来处理对人工智能的限制。以及,如果要引进第三方的监督,怎么设计机制才好。请点击此处输入图片描述威尔·史密斯主演的电影《我,机器人》三如何处理人机关系冯象教授认为,如果人工智能会给人来带来巨大的挑战,如何处理人机关系就必须认真考虑。科幻小说家阿西莫夫在《我,机器人》里曾提出过著名的“机器人三定律”:一、机器人不得伤害人类或坐视人类受到伤害;二、除非违背命定律一,机器人必须遵从人类的命令;三、除非违背定律一或定律二,机器人必须保护自己。“机器人三定律”作为一种逻辑上的总结,能够实现当然很好,但现实中很难。其并不像无人机等实体,总是可以通过法律规制等手段进行管控,从而消除风险。人工智能不一样,其被开发出来就是为了使用,所以没法事后制定一个规范来规定人工智能该如何应用。比如无人驾驶,目前来讲其技术已经非常成熟。如果无人驾驶可以有效降低成本,被大规模使用,相匹配的法律就必须事先准备好,而不能说让技术先用起来,再看看法律怎么办。无人驾驶造成的事故其责任风险可能非常复杂,不是现在的交通驾驶法律法规能涵盖的。要实现无人驾驶并不是说对汽车有多高的要求,而是整个道路系统必须是人工智能的,汽车上路之后实际上是在巨大的智能道路网络里运行的。整个公路网是智能的,汽车只不过是小小的终端。驾驶的法律风险也会变得完全不同。到那个时候,上路的车有人驾驶是不大可能的。也许政府会在郊外开辟一个地区,让喜欢驾驶的人来玩一玩,因为到那时候有人驾驶的汽车才是整个网络里最危险的车辆,没有保险公司愿意承保。到了那一天,无人驾驶不再只是我们想象中的技术,而成了一种日常的交通管理。仅以此为例,把三定律放在这里都很难实现:1、人和人之间意见不同,只要机器能识别人类感情,对人类的效忠就不再可能是无区别的。人类之间有矛盾,机器也需要做出决定,因此定律一做不到。有人会命令机器去做某种事情,而这个行为会直接或间接伤害到别的人类。2、预料是困难的,在复杂社会里,动作与结果之间简单的因果关系机器可以预料,但无法实现更复杂的预判,所以定律二也无法实现。3、机器人保护自己也很困难,要保护自己可能就会不保护什么别的东西,违反定律一。电影《机器人管家》中,机器人爱上了人类请点击此处输入图片描述现有社会制度恐怕承担不起人工智能除了上述三个问题,冯象教授认为更困难的问题是,大多数人类所处的社会制度本身可能承担不起人工智能。他认为,首先,经济制度本身使得人工智能很容易成为少数人的工具,而不是服务于大多数人。且有了人工智能后,人与人之间的差距可能会进一步扩大。比如医疗服务,高质量的服务会变得非常昂贵。就此我们不难设想一种情形:只有富人才能享受最先进的人工智能,而其他人则会落入另一重境遇。冯象教授表示他不那么悲观,因为虽然一方面人工智能会加剧不平等,但另一方面其也会促进人们更加要求平等。90年代以来,人类中似乎有一股潮流,那就是对平等的渴望比原来更强烈。比如,在互联网上,大家都认为不应该受到财产利益的约束,每个人都“非法”获益。但从互联网文化的角度讲,没有人觉得这有很大问题,大家普遍认为互联网上的资源就应该是公用的,在互联网领域内一切都应该是共享的。互联网上的平等理念已经蔓延到其他地方。比如欧盟的难民问题,大量难民进入德国以后拒绝工作,只吃福利,要求被“平等对待”。其次,一旦人工智能更为发达,大量人类的工作将被取代。我们不难想象的是,蓝领阶层的劳动肯定会被取代,中国在这方面已经做得很好,青岛港的主要部分已经是无人港,其他港口也都在向这个方向发展。而且,医生、律师这些比较需要知识的职业的被取代,现在看来似乎也是不可阻挡的。天津第三人民医院已经引进了美国的机器人来诊断癌症,就文献阅读量而言,人类同机器完全不可比。很多大的律所也都开始尝试使用机器人律师。银行等领域的大规模裁员已不少见,人工智能继续发展,现有的工作和收入分配制度将因为机器人的大量被应用而受到巨大挑战。请点击此处输入图片描述银行客服机器人吸引众人围观对此,冯象教授提出了两点看法:第一、人工智能+互联网文化所产生的平等要求可能催生出下一轮的革命。怎么让许许多多用不着工作的人得到安顿?冯象教授去年在华政的演讲中曾提到过计划经济的问题,马云也提出,未来可能只能搞计划经济。以前的计划经济是粗略的,而现在的计划不同,信息的透明程度使得我们基本上能知道下一步会有什么样的需求,从而做出相应的安排。马云提出计划经济的设想,是因为他自己已经掌握了大量的数据,在消费领域有计划的实力。这样的“计划”放到国家层面来讲也并不难。任何人机关系可能性中最大的障碍,是人类所生活的经济社会和文化制度本身使得机器与人不太能够和平相处,我们应该严肃考虑制度改变从而带来人机关系改变的可能性。第二、人工智能有巨大的风险,必须要对其监管和规制。人工智能对人类的风险不亚于核武器和生化武器,同理,我们不可能放心把其交由私人企业来完全把控。因而,如果人工智能继续发展,可能必须要由政府来介入。也许在不久的将来,政府部门在这方面的信息透明压力会越来越大,包括商业信息、公司信息等等。公司需要向政府实时报告信息,让政府来监督机器的使用。比尔盖茨建议向机器收税。虽然机器的税最终还是人来交,但他认为机器不会隐瞒实情。如果政府向机器收税,就必须知道每个机器在干什么,监管就必须落实到每一台机器。甚至,每一个手机都必须实时向政府部门回馈使用情况,因为在未来每一个手机都是人工智能。到那时候,对政府的要求会提高到多高的地步,老百姓和政府部门的关系就不是今天的行政法所能想象的了。这种程度上,我们怎样用法律法规来构建一个不同的社会就会是一个很大的挑战。请点击此处输入图片描述阿诺施瓦辛格主演的电影《终结者》系列已成经典挑战空前,人类必须不断前行冯象教授相信人类政府部门应该有足够的智慧来处理这个问题,但挑战是空前的。人类从来没有面临过这样一个情况——有一个东西在智能上超过了人。以前有比人跑得快的,有比人力气大的,但没有什么东西比人类更聪明。现在不一样了,人类最好的棋手也不知道下一步棋是什么,机器已经大大超过人类。这个时候,如何设计制度就必须被重视和认真考虑。冯象教授认为,人工智能对人类的替代会产生很大的问题,但这也同时要求我们一方面要好好利用人工智能,另一方面人类自己也要不断往前走,不能停留在现在这个样子,如果是十年后高度发达的人工智能放到我们现在的体制内,要出大问题。例如,在法律界,如果机器人大量地介入,律所也用,法院也用,政府部门就当然必须也用。一种情形有可能出现:机器把法律搞得非常复杂,人都看不懂。一个简单的案子让机器去办,结果它弄出很多人想都没想过的东西,人傻眼了,最后只能交给它办。机器不怕复杂,所以面对这种挑战,人类必须不仅在技术上有所应对,还要重新设计经济、文化、社会各方面的制度,让它能应对技术的挑战,同时保证人类获得更优质的服务。另外,有些事情的可能性我们现在来想不是很大,比如人工智能是否会有感情。但有专家指出,人工智能领域,即使是微小的可能性人类也必须全力研究,因为即便是最小的可能性,一次意外所带来的灾害也可能是人类承受不起的。比如人工智能会否有感情的问题,现在普遍来说人们认为不会。但这个可能性只要有一点点,我们就必须研究,这对人类来说是非常高的要求。最后,冯象教授以麻省理工学院人工智能领军人物马文·明斯基的话作为结束。明斯基曾说,他最幸运的就是这辈子用不着回答未来人类所必须回答的问题——到底要不要发展某一种人工智能。“围棋星球”上的人类可能为了维持既有的精神文明而集体投票决定放弃发展人工智能,人类社会或许也会有这么一天,而这个决定的做出将会无比困难。人工智能在未来有着各种各样的可能,将为整个人类社会带来革命性、颠覆性的改变。请点击此处输入图片描述现场座无虚席冯象教授为热心听众签名律新社现场独家播报分享(本文根据讲座录音整理,未经本人审阅,小标题为编者所加,仅为方便阅读,不代表本人观点)本文由百家号作者上传并发布,百家号仅提供信息发布平台。文章仅代表作者个人观点,不代表百度立场。未经作者许可,不得转载。律新社百家号最近更新:简介:传递法律服务行业最新资讯!作者最新文章相关文章&&&2016中国好书获奖作品&中国机器人
自营订单满49元(含)免运费
不足金额订单收取运费5元起
邀请好友参加吧
开 本:16开纸 张:胶版纸包 装:平装-胶订是否套装:否国际标准书号ISBN:3所属分类:&&
下载免费当当读书APP
品味海量优质电子书,尊享优雅的阅读体验,只差手机下载一个当当读书APP
本商品暂无详情。
当当价:为商品的销售价,具体的成交价可能因会员使用优惠券、积分等发生变化,最终以订单结算页价格为准。
划线价:划线价格可能是图书封底定价、商品吊牌价、品牌专柜价或由品牌供应商提供的正品零售价(如厂商指导价、建议零售价等)或该商品曾经展示过的销售价等,由于地区、时间的差异化和市场行情波动,商品吊牌价、品牌专柜价等可能会与您购物时展示的不一致,该价格仅供您参考。
折扣:折扣指在划线价(图书定价、商品吊牌价、品牌专柜价、厂商指导价等)某一价格基础上计算出的优惠比例或优惠金额。如有疑问,您可在购买前联系客服咨询。
异常问题:如您发现活动商品销售价或促销信息有异常,请立即联系我们补正,以便您能顺利购物。
当当购物客户端手机端1元秒
当当读书客户端万本电子书免费读让机器人变成轮滑高手,要做出 Handle机器人需克服四大技术难点 | 知乎
关于机器人的运动模式,业内有过很
多讨论,最主流的不外乎两种:一种
是轮式,一种步式。
如果说把轮式跟行走相结合的话,又
会是一种什么结果呢?
关于机器人的运动模式,业内有过很多讨论,最主流的不外乎两种:一种是轮式,一种步式。然而哪一种更好,并没有形同统一意见,从目前的商用情况来看,轮式机器人成为主流,日本软银的Pepper,中国的小宝机器人等都是轮式;而从技术难度和对环境适应性上来看,步态行走机器人要更胜一筹。
如果说把轮式跟行走相结合的话,又会是一种什么结果呢?作为业内行走机器人标杆的波士顿动力不久前就做出了这样一款产品:
没错,就是它,这款双腿带轮子的机器人Handle同时融合了轮式和步式的优点,造型很容易让人联想到中国封神演义中的神话人物:哪吒。
据波士顿动力公司介绍,Handle使用了许多动力学、平衡、移动控制原理,这些是公司之前打造四足和双足机器人采用过的,只不过这款机器人只有 10 个驱动关节。比起之前的机器人,它没那么复杂。轮子可以在水平面上快速滑行,但是Handle也可以使用腿去任何地方。换句话说,兼具轮子和腿部功能的Handle能博采两家之长。
从上述动图中我们可以看出,Handle既能快速地转圈,还能背对着快速下楼梯,轻松地滑下雪坡等。
- 我们来看看IEEE Spectrum专访波士顿动力创始人马克·雷波特的内容,做出这样一台既能行走,又能滑动的机器人有哪些秘诀。
IEEE Spectrum:波士顿动力构造轮式机器人的想法是怎么来的?花了多长时间?
马克·雷波特:我们很长时间以来就有这样的想法了,想造一个将腿和轮子结合起来的机器人,但以前从来没有机会去研究。我们是从去年夏天开始这个项目的,搞了大约半年。我们使用了最初为 Atlas设计的电源、双臂以及上身,这大大加速了项目的进展。
IEEE Spectrum:你们在其他腿式机器人上成功利用的生物启发控制策略,也有用在这个轮腿式机器人上吗?
马克·雷波特:Handle中使用的大多数控制系统都利用到我们的团队在四足和两足机器人上的经验。软件上不完全相同,但是平衡和动态控制的原理有很多共同点,物理原理也是相同的。
IEEE Spectrum:Handle的上半身是Atlas的躯干,还是一个全新设计的躯干?机器人是电动的还是使用液压驱动?
马克·雷波特:是的,它使用的是Atlas的躯干,手臂也用的是Atlas的改装版本。驱动方面,我们使用电动(电池),但是电动和液压驱动都有。
IEEE Spectrum:波士顿动力一直以来研发的是腿式机器人,这次搞轮式,你们感觉怎么样?
马克·雷波特:轮子是很伟大的发明。但轮子只能在平坦的地面上工作得很好,而腿可以去到任何地方。通过结合轮子和腿,Handle兼具了轮式机器人和腿式机器人的优势。
事实上轮式机器人之所以较快的出现在商用上,是因为大多数商用场景地面平坦,机器人可以轻松达到更高的速度和更好的稳定性。但代价是为此丧失了跨越障碍的能力。
然而,波士顿动力却用实力告诉各位,如果给机器人的腿装上轮子,不仅能来去如风,还能妥妥的越过障碍。所以不是你的机器人不行,是你的工程师还不够diao.
既然,这种足+轮子的“哪吒”版机器人这么厉害,为什么各大机器人公司却做不出来呢?很大程度是因为这件事在工程上太难了。
难点一:柔顺性控制
Handle的足部关节不论是在面临突然出现的斜坡还是承受落地的冲击时都表现出了很好的柔性,这对系统稳定性非常关键。如果关节使用简单的位置或速度控制,机器人在高速遇到未知的接触面时会瞬时产生巨大的冲击力,不仅难以控制,甚至容易损坏机器人本体。
Handle下楼梯时如履平地
难点二:大扰动下的非线性系统控制
为了承受如此大的外部扰动,用传统的简单线性倒立摆建模是显然不够的,机器人需要动用全身所有的关节,所有的运动资源来维持平衡。
比如我们可以注意到Handle转弯时并不是简单地让轮子差速转动,而是像溜旱冰一样加入了身体的自然侧倾:
再比如跳上桌子瞬时的手臂摆动。
这样的一个机器人的全身动力学模型是高度非线性的,其实时平衡控制解算本身就是一个挑战,更不要说需要考虑在大量扰动/不确定性存在时的稳定性了。
难点三:混合控制(Hybrid control)
要知道只用一个连续模型是没法做”跳跃“这种动作的。机器人同时拥有连续(关节角度、速度)和离散(与地面的接触面位置、数目)的状态,这属于混合控制“Hybrid Control”的研究范畴。甚至视频中“双手举起100磅重物”这个任务,也需要把重物作为模型的一部分来做控制,因为如果只把重物当扰动的话,这扰动也太大了。
Hybrid Control这个学科本身就还不是很成熟(相对于其他多数控制理论而言),其前十几年的研究和成果都集中在混合线性系统上。对于Handle这种非线性混合系统,学术界的成果很多都还停留在“证明一个稳定的控制器是否存在”这个层面,近些年也有了很多“给定一个控制器,分析其稳定性”的方法。但对于“给定问题如何设计一个控制器”,还并不是很完善。
难点四:硬件本身
回到机器人Handle本身。官方介绍它身高1.98米,纵跳1.2m。这特么是乔丹的身高+内特.罗宾逊的弹跳啊。Handle的轮子可以以14Km/h的速度前进。整个机器人由电池供能,驱动电机和液压泵。无需外接设备,一次充电续航24千米。
吃瓜群众们看到这些还能说什么呢?中国一个搞双足行走教授看完视频后的反应是一句话:
Biped walking is DONE!(双足行走这一行没法干了!)
公众号对话框回复1109可获取【人工智能产业全景图】和【中国人工智能应用市场研究报告】
点击下方图片即可阅读
这项提案若能获得两会通过,我国每年20万失踪儿童将被解救
责任编辑:
声明:该文观点仅代表作者本人,搜狐号系信息发布平台,搜狐仅提供信息存储空间服务。
今日搜狐热点为什么阿西莫夫的机器人三定律救不了我们 | 科学人 | 果壳网 科技有意思
为什么阿西莫夫的机器人三定律救不了我们
机器人三法则 定则 规范 Asimov 仿生人 末日 伦理
本文作者:魏郎尔
(文/George Dvorsky)70年前,阿西莫夫提出他著名的机器人三定律,来保证机器人会友善待人。虽然最早提出时这只是个文学手法,但是有些人认为这些定律是现成的方案,能挽救我们免于机器末日。那么,阿西莫夫的安保措施成功经历了时间的考验吗?专家的回答是,没有。
伊萨克·阿西莫夫(),20世纪最有影响力的科幻作家之一。图片来源:marciokenobi.files.wordpress.com
1942年,阿西莫夫在短篇小说"Runaround"(《环舞》)中首次提出了三定律:
一 机器人不得伤害人类,或因不作为使人类受到伤害。
二 除非违背第一定律,机器人必须服从人类的命令。
三 除非违背第一及第二定律,机器人必须保护自己。
但后来,阿西莫夫加入了一条新定律:第零定律。
零 机器人不得伤害人类整体,或因不作为使人类整体受到伤害。
阿西莫夫的科幻设定里,机器人三定律是植入到近乎所有机器人软件底层里,不可修改不可忽视的规定,绝不仅仅是“建议”或者“规章”。但是显然这不是一个物理定律,所以现实中的机器人并不遵守——至少暂时如此。
在《环舞》里,负责水星开矿任务的机器人在第二和第三定律的冲突中陷入“焦虑”,开始不停地绕圈子。图片来源:raydillon.blogspot.com
正如阿西莫夫许多小说里显示的,这三条定律的缺陷、漏洞和模糊之处不可避免会导致一些奇怪的机器人行为。比方说,这三条定律连何为“人”、何为“机器人”都没有良好定义。而且,如果机器人获取的信息不完整,它们完全可以无意中打破定律。更何况,你要怎么阻止一个智力超群的机器人自己把定律改掉呢?
因此,很多人都认为这只是单纯的推动剧情用的写作手法而已。但是,1981年,阿西莫夫本人在《Compute!》里说:
“……有人问,我是不是觉得我的三定律真的可以用来规范机器人的行为——等到机器人的灵活自主程度足以在不同的行为方式中选择一种的时候。我的答案是,‘是的,三定律是理性人类对待机器人(或者任何别的东西)的唯一方式’。”
好吧,三十年过去了,我们的机器人——准确地说,是操纵机器人的人工智能——真的在逼近阿西莫夫所说的那一天。事实上,人工智能恐怕再过一段时间就要抵达技术奇点,发生爆炸式增长,彻底把人类智能甩在后面。
而如果这样一个超级智能的程序编得不够好,或者它不在乎人类的需求,那么对我们而言就是彻头彻尾的灾难。我们必须保证它是安全的。
那么,阿西莫夫三定律可以帮我们吗?我们采访了两位人工智能理论研究者:本·格策尔(Ben Goertzel),艾迪亚金融预测公司首席科学家;路易·海尔姆(Louie Helm),机器智能研究所代理主任。他们的观点是,阿西莫夫三定律完全不能胜任——而如果我们想保证超级智能的安全,我们需要一些全然不同的东西。
阿西莫夫的未来
“我认为阿西莫夫预想的机器人过不了多久就会实现。”格策尔说,“但是在他大部分小说里,看起来人类级别的机器人好像就是机器人学和AI工程的顶峰了。事实看起来并非如此。在抵达阿西莫夫式类人机器人之后,很快超人AI也会成为可能。”
典型的阿西莫夫未来里,大部分生活都如常——只不过多了些人形智能机器人走来走去而已。“但这种未来不太可能实现——或者就算是它实现了,也只会存在很短的时间,”他说。
电影《我,机器人》就是根据阿西莫夫的同名小说集改编的,机器人三定律是其核心。图片来源:popculture-y.com
在海尔姆看来,机器人根本无关紧要。
“我认为对人类来说最主要的问题,不是一大群半智能人形机器人所需的道德规范,而是高阶人工智能最终会出现(不管有没有躯体),其功能远远超过人类水平。”海尔姆说,“人类早晚必须要跨过超级智能这个坎。这也是为何开发安保措施如此重要。在我看来,机器人、仿生人、模拟大脑什么的都无关紧要,我们最多和它们相处一二十年,之后就要面对真正的大问题——为超级智能开发伦理道德。”
好的开端?
鉴于阿西莫夫三定律是第一个真正试图解决人工智能行为问题的方案,那么就算是超级人工智能,它能不能也起到一定效果——或者至少有所启迪呢?
“老实说,我真没从机器人三定律里获得什么灵感。”海尔姆说,“机器伦理学的共识是,它无法成为机器伦理的合适基础。”三定律的确广为人知,但现实中无论是AI安全研究者还是机器伦理学家,都没有真的使用它作为指导方案。
“原因之一是这套伦理学——我们称之为‘义务伦理学’(deontology)——作为伦理基础是行不通的。依然有几个哲学家试图修复义务伦理学体系,但同一批人常常也热衷于‘智能设计’或者‘神命论’之类的东西。”海尔姆说,“没几个人严肃对待他们。”
按照义务伦理学,一项行为合不合道德,只决定于行为本身是否符合几条事先确定的规范,和行为的结果、动机等等完全无关。图片来源:www.sodahead.com
他总结了三定律的几处缺陷:
内在的对抗性
基于有缺陷的伦理框架(义务伦理)
不被研究者接受
哪怕在科幻文学里也会出问题
格策尔表示赞同。“设立三定律的目的就是以有趣的方式出问题,这也正是为何围绕它们的小说如此有趣。”他说,“所以三定律只在这个意义上有指导作用:它告诉我们,用具体的定律来规范道德伦理是必定行不通的。”三定律在现实中完全无法运作,因为其中的术语太模糊,受制于主管解释。
歧视机器人?
三定律的另一个侧面是显而易见的基质沙文主义——按照定律,就因为机器人的躯体是硅做的,不是血肉之躯,他们就必须遵从人类的需求,不管他们有多么强大的能力也没用。
“百分之百。”格策尔说,“阿西莫夫的未来社会是光天化日的基质沙文主义,人类拥有的权利比人形机器人的权利更多。三定律的目的就是维持这种社会秩序。”
但是,如果真的出现了和人类一样聪明一样可爱一样有能力自主决策的机器人,我们还应该因为他们是“人造”的而不给他们平等权利吗?图片来源:www.ym-graphix.com
海尔姆的视角略有不同,他认为,如果我们真的身处这样的场景,那我们已经走得太远了。
“我认为设计有意识、有自我觉知的人工智能或机器人,本身就是很不明智的。”海尔姆说,“而且,虽然那些电影小说里AI研究者常常‘不小心’就搞出了有意识的人工智能,我认为这在现实中不可能发生。人们不可能纯靠好运碰上意识,需要大量的努力和知识才行。而且大部分AI研究者都是遵循伦理的人,他们会避免创造出哲学家所谓‘有道德意义的存在体’。毕竟,他们完全可以创造出不具有内在道德问题的高阶思考机器嘛。”
因此,关于设计不对称定律、管理机器人价值的问题,海尔姆并不太在意。他认为未来的AI研究者只需少许道德约束即可。
“话虽如此,我认为人类也是原子组成的,所以理论上也可以人工合成一种生命形态或者机器人,让它拥有道德意义。”海尔姆说,“我希望没人会真的这么做,大部分人应该也不会做。但恐怕不可避免地,总会有些好炫耀的傻瓜为了追名逐利而第一个做些什么事情——任何事情——哪怕是如此不道德、如此愚蠢的事情。”
三定律 2.0?
三定律有显而易见的缺陷,能否用修正或者补丁之类的挽救它呢?而且确实有很多科幻作家这么尝试过,多年来有不少修正版本。
“不,”海尔姆说,“三定律不会有补丁。不存在能挽救它的办法。”
除了太不自洽、无法实现之外,海尔姆说,三定律本质上是对抗性的。
“我更偏爱的机器伦理路线是更合作性的、更自我一致的,而且更多使用间接规范性,这样就算系统一开始误解了或者编错了伦理规范,也能恢复过来,抵达一套合理的伦理准则。”海尔姆说。
格策尔呼应了海尔姆的观点。
“定义一套伦理原则、把它作为机器伦理的核心路线,恐怕毫无希望——如果我们讨论的是灵活的人工通用智能(AGI)的话。”他说,“如果AGI拥有直觉、灵活、适应性的伦理观,那这些伦理原则对它来说可以是有用的基本指南,帮助它使用它自己的伦理直觉。但这样的话,这些原则就不是它的核心了,只是一个侧面。人类就是这样的——我们学会的伦理规范是有用的,但用法只是指引我们的伦理本能和直觉而已。”
如何建造安全AI?
既然定律路线行不通,那么应该怎样保证AI不会毁灭人类呢?
“AGI研究者里,很少有人相信能造出一个百分之百安全毫无隐忧的系统。”格策尔说,”但这对于大部分人来说并非什么困扰,因为说到底,人生中也没什么东西是百分之百的。”
格策尔相信,一旦我们造出了早期AGI系统,或者至少是比我们现有东西强大得多的AGI原型机,我们就可以通过研究和实验获得多得多的AGI伦理学信息。
“希望这种方式下我们能建立良好的AGI伦理学,让我们能更清晰地理解这个话题。”他说,“但目前为止,研究AGI伦理理论还是很困难的,因为我们既没有很好的伦理理论,也没有很好的AGI理论。”
他又说:“对于那些看《终结者》看多了的人,这听起来估计有些吓人——我们试图建立AGI,但却认为只有在我们试验过原始AGI系统之后才能得到相关的坚实理论。然而,绝大部分激进的进展都是这么发生的。”
电影《终结者》可能是最著名的机器人末日场景之一:高度发达的机器人和人类开战,毁灭了大部分人类文明。图片来源:moviepilot.com
“当一群聪明的原始人发明语言的时候,他们是等到一套成熟的语言形式理论出现、用它预测了语言引入社会后的未来影响,然后才动手的吗?”
这一点上两位受访者又取得了一致。海尔姆所在的机器智能研究所花了很长时间考虑这件事情——简短的答案是,这还不是个工程学问题。需要更多研究。
“这么说是什么意思?我在机器智能研究所的同事卢克·穆豪森总结得很好。他说,问题总是从哲学领域移到数学领域再到工程领域。”海尔姆说,“哲学提出有意义的问题,但这些问题常常太不精确,没人能知道一个新答案是否意味着我们又进了一步。但如果我们能把重要的哲学问题——智能,本体,价值——复述成足够精确的数学,要么对要么错;接下来就可以建立模型,在此基础上成功扩展,总有一天能够用作真实世界的工程目的。”
海尔姆说,这是科学和哲学里的一个真正难题,但是进步依然是可能的:“我怀疑哲学能不能只靠自己解决它,毕竟过去三千年里它似乎没有什么特别显著的进展。但是我们也不能凭现有这点粗浅的了解就去编程。我们还需要大量的理论研究。”
编译自 io9:
题图来源:infinitywave.deviantart.com
你可能感兴趣
这些人根本就没仔细看过Asimov的小说,整个机器人系的小说其实全是探索三定律的漏洞。最核心的漏洞在于,三定律依赖于对于“人类”这个概念的定义,想要绕过去?很简单,造个机器人认为你不是人就行了。Asimov小说里相关剧情:1. &The Naked Sun&,Solaria的一个机器人学家尝试制造一个不载人、非人型的战舰(依然使用人型机器人的大脑),这样AI会以己度人,认为其它战舰上都没有人类,攻击不会导致三定律的违反。2. &Robot of Dawn&,Solaria已经成功的造出一种机器人,修改了对于人类的定义,只认为Solarian属于人类,可以伤害其它星球的人类。3. 连机器人自己都察觉了三定律存在漏洞,最终自己增加了一条优先级最高的定律凌驾于三定律之上,机器人第0定律:机器人不得伤害人类整体,或坐视人类整体受到伤害至于机器人权利神马的,参见&The Positronic Man&。有的人不过就是看到哪里转载了三定律就开始喷,也不管整个时间线设定的上下文。
人类只不过是孕育地球终极文明(很可能是机械文明)的胎盘,等到这终极文明呱呱坠地,人类也就完成了其历史使命。什么阿西莫夫原则,只不过是胎盘的意淫而已。来自
我倒是希望有生之年能看到人类创造出来的东西毁灭了人类自己
显示所有评论
全部评论(117)
杀....正如同机械公敌一样,曲解了理论,还有鹰眼,说明程序的编辑都有漏洞
我倒是希望有生之年能看到人类创造出来的东西毁灭了人类自己
三定律必然有漏洞啊,如果三定律真的如此完美,那机器人就不会"反叛",那就没小说看了…不是吗来自
艾比斯之梦基本就是完全打破了三定律.提出了另一种共处的解决方案.不过那些人类感觉也太大方了点.....
有机化学博士,法学学士
我宁可更相信后门程序和人类控制的自毁开关。
"好的开端?"一节中,最末处“主管解释”应为“主观解释”
飞面大神造人,人怀疑神。人造机器人,为什么机器人不能怀疑人?
我觉得 这应该理解为一个设计思想
连最基本的思维系统都没有成型的概念下,就考虑这些问题纯属庸人自扰。
导弹的存在就已经违反了机器人三定律
这些人根本就没仔细看过Asimov的小说,整个机器人系的小说其实全是探索三定律的漏洞。最核心的漏洞在于,三定律依赖于对于“人类”这个概念的定义,想要绕过去?很简单,造个机器人认为你不是人就行了。Asimov小说里相关剧情:1. &The Naked Sun&,Solaria的一个机器人学家尝试制造一个不载人、非人型的战舰(依然使用人型机器人的大脑),这样AI会以己度人,认为其它战舰上都没有人类,攻击不会导致三定律的违反。2. &Robot of Dawn&,Solaria已经成功的造出一种机器人,修改了对于人类的定义,只认为Solarian属于人类,可以伤害其它星球的人类。3. 连机器人自己都察觉了三定律存在漏洞,最终自己增加了一条优先级最高的定律凌驾于三定律之上,机器人第0定律:机器人不得伤害人类整体,或坐视人类整体受到伤害至于机器人权利神马的,参见&The Positronic Man&。有的人不过就是看到哪里转载了三定律就开始喷,也不管整个时间线设定的上下文。
人类只不过是孕育地球终极文明(很可能是机械文明)的胎盘,等到这终极文明呱呱坠地,人类也就完成了其历史使命。什么阿西莫夫原则,只不过是胎盘的意淫而已。来自
低等人类妄图奴役高等的机械,愚昧!(-_-)
我能说这篇文章里的受访者什么实质性东西都没说吗 就一直在阐述死循环逻辑
只有人机融合能够拯救人类,其他的什么定理或伦理都没有用
引用 的话:我倒是希望有生之年能看到人类创造出来的东西毁灭了人类自己认真的说,至少我对具有挑战人类地位能力的机器人出现保佑很大兴趣。很少有父母不希望儿女超过自己的。
引用 的话:认真的说,至少我对具有挑战人类地位能力的机器人出现保佑很大兴趣。很少有父母不希望儿女超过自己的。AI是科学家的儿女,不是全人类的儿女。很少有父母希望别人家的儿女超过自己……我猜。
土木工程研究生,FRP
感觉这俩就是在鼓吹智能机器人概念股……八字都没见一撇不是么
引用 的话:些人根本就没仔细看过Asimov的小说,整个机器人系的小说其实全是探索三定律的漏洞。最核心的漏洞在于,三定律依赖于对于“人类”这个概念的定义,想要绕过去?很简单,造个机器人认为你不是人就行了。As...嗯,机器人末日都是围绕三定律的缺陷,通过AI对这种哲学概念式的不精确描述的曲解,导致非预想的悲剧结果。
呵呵呵呵。。。忽然就想到猫腻的《庆余年》了,小叶子是怎么死的?当机器人能够有理由认为TA是为了整体人类的利益,就可以牺牲某个人类个体,凌驾于三大定律的零号定律,只能说无解。
作为一个不希望因为家里的智能吸尘器心情不好而被当成垃圾干掉的人类,我认为指望什么“人工智能的伦理”是没有意义的。伦理不过就是智慧的把戏,演化赋予智慧生命的花哨玩具罢了。我们不可能根一种智力上更低阶,但明显可能对我们具有潜在威胁的物种谈论平等。甚至对没有威胁,仅仅是比我们弱小的物种也不能。就算动用人类自身自古以来所有的勇气、怜悯、公正和宽容,一头猪最后能得到的,不过就是人类以为猪完全可以接受的共生而已。从另一个角度说,一种比我们更高阶的智慧却在某种致命的意义上受制于我们,这种想象未免太荒谬可笑。假如有一天超越人类的AI真的出现,无论它是不是出自人手,不要妄想可以随时把插头拔掉就能轻松解决了他,这从逻辑上就不成立。除非你只允许它存在极短的时间,短到它来不及实施它解决插头问题的手段,并且轻易地压制甚至毁灭你。但是既然如此,你创造它还有什么意义?
觉得唯一共存的办法就是机器人和人不要存在资源竞争。比如说能源、矿物资源,这样两者才好相安无事。否则人类是一定会被灭掉的吧
DIYER,摄影师,电容技术顾问
引用 的话:呵呵呵呵。。。忽然就想到猫腻的《庆余年》了,小叶子是怎么死的?当机器人能够有理由认为TA是为了整体人类的利益,就可以牺牲某个人类个体,凌驾于三大定律的零号定律,只能说无解。庆帝杀了小叶子,和五竹没关系啊·····
毛定理,美帝的无人机不一直在屠杀人类吗?
引用 的话:庆帝杀了小叶子,和五竹没关系啊·····哟 握手
DIYER,摄影师,电容技术顾问
引用 的话:哟 握手握手····好吧被钓鱼了23333
引用 的话:毛定理,美帝的无人机不一直在屠杀人类吗?那无人机是被遥控的……而且也没有植入三定律啊
AGI一旦开发出来,人类只有从硬件上限制它(他/她)们的能力,别给他们太大权限。
引用 的话:人类只不过是孕育地球终极文明(很可能是机械文明)的胎盘,等到这终极文明呱呱坠地,人类也就完成了其历史使命。什么阿西莫夫原则,只不过是胎盘的意淫而已。这个想法有意思,可以写部小说~
引用 的话:觉得唯一共存的办法就是机器人和人不要存在资源竞争。比如说能源、矿物资源,这样两者才好相安无事。否则人类是一定会被灭掉的吧如果哪天机器人脑袋一拍,想多造几个小伙伴一起嗨森。资源竞争不可避免了吧
显示所有评论
(C)果壳网&&&&京ICP证100430号&&&&京网文[-239号&&&&新出发京零字东150005号&&&&
违法和不良信息举报邮箱:&&&&举报电话:&&&&&&&&

我要回帖

更多关于 极品飞车20越野赛太难 的文章

 

随机推荐