霍金关于人工智能能真的能向霍金说的一样吗??

如何看待霍金留下的最后警告 人工智能真会毁灭人类吗?
发表于 11:10|
来源互联网|
作者互联网
摘要:周三凌晨,著名物理学家斯蒂芬霍金教授的家人发表声明,证实霍金教授在英格兰剑桥的家中去世,霍金是科学界最耀眼的明星,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,对推动现代科学的发展做出了重要贡献。霍金去世后,其遗留的几个未经证实的预...
&周三凌晨,著名物理学家斯蒂芬霍金教授的家人发表声明,证实霍金教授在英格兰剑桥的家中去世,霍金是科学界最耀眼的明星,证明了广义相对论的奇性定理和黑洞面积定理,提出了黑洞蒸发理论和无边界的霍金宇宙模型,对推动现代科学的发展做出了重要贡献。霍金去世后,其遗留的几个未经证实的预言也再次引起讨论,其中之一便是对人工智能的警惕。
在他去世前的这几年中,霍金最关注的话题之一是人工智能,他不止一次对外发出警告,即人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。他认为,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。然而,即便是对人工智能持谨慎态度的霍金也是人工智能的受益者&&作为霍金个人形象的一部分,霍金的轮椅正是一台集计算机软件、通信技术、红外光、语音转换器于一体的人工智能设备。通过它,霍金的耀眼的思想才得以转化为语音和文字,冲破病驱的束缚、传达给全世界。
一边受益于人工智能技术的发展,一边强调对人工智能需要保持足够的警惕,霍金对AI的纠结态度背后,是人工智能商业化不断加快的全球趋势。2017年是人工智能商业化的元年,亚马逊、谷歌、百度、Facebook等科技巨头,正各自加码、在全球范围内掀起全方位的AI商业化竞争。
正如人工智能为霍金带来的福祉,科技公司们正在试图将AI服务推广到每一个普通人。从互联网应用、智能家居,到医学诊疗与新药研发、工业机器人、及量产速度惊人的无人驾驶,AI正在不断颠覆着普通人对未来生活的想象力。中国的AI巨头百度,便在前不久一组妇女节节日海报中,从AI解放女性的角度,尝试描绘了未来智能生活的图景,阐释了AI与城市安防、AI与智能家居、AI与交通出行三方面的应用潜力。
(图片来自百度官微)
关于科技公司对人工智能的追逐,霍金表示担忧,但AI商业化的进程显然已经势不可挡。从2016年谷歌那个掀起公众恐慌的下棋AI程序 AlphaGo开始,人工智能进入公众讨论,科技巨头们的AI竞争也越来越白热化。亚马逊从智能音箱切入的AI商业化之路也效果破佳。据Strategy Analytics统计,过去一年,全球智能音箱出货量同比增长超过300%,其中亚马逊市占率已过半。
在移动互联网时代创造了无数奇迹的中国科技公司们也毫不落后。作为最早布局AI的科技公司,百度从公开表达&All in AI&大方向,到AI大幅改善其核心业务及财务表现,仅用了不到1年。其无人驾驶平台Apollo,目前已经能实现简单城市道路的自动驾驶,完成了在云端服务、软件平台、参考硬件平台和参考车辆平台四大模块的搭建。2018年百度将联合合作伙伴批量生产商业L4级小型客车及年批量生产L3级商用轿车。
而百度无人车在雄安新区、美国的几次高调路测,以及李彦宏等企业家委员在&两会&等平台对无人驾驶相关政策法规坚持不懈的推动,都让公众对智能交通的想象越来越有&触感&,当然,百度的股价也随着Apollo平台、Duer OS、度秘等一系列AI产品落地而一路上涨。
霍金留给人类的告诫,除了警惕人工智能的不确定性,还有能源消耗、人口剧增带来的地球末日,但他给人类的解决方案是,逃离地球。世界确实充满了未知,对这几种风险人类也不妨谨慎对待。但不能忽视的事实是,没人能阻止科技的进步,哪怕我们心存怀疑。与其悲观退让,不如在了解中控制风险。无论是谷歌、亚马逊还是百度,科技巨头们无非是想通过人工智能来服务普通人、或像霍金一样需要人工智能产品来辅助生活的人&&同时创造价值。
不过,随着这两年AI技术的进步和商业化的加速,人们对AI各方面的恐惧似乎也有所消减:据美国咨询公司盖洛普近日发布数据显示,不到四分之一(23%)的人&担心&或&非常担心&自动化会影响他们的工作机会,整体态度比较乐观,这也与前两年公众盲目恐慌人工智能有了很大改变。
在霍金去世之际,又勾起了人们对其人工智能警惕预言的讨论。不过,在霍金办公室墙上还有这样一段话&&不管在什么时候,我们都不能忘记头顶的星空,要永葆好奇,永远前进。对于人工智能,保持恐惧但勇敢前行、探索未来,或许才是是这位伟人留给我们的最大启示。
【免责声明:CSDN本栏目发布信息,目的在于传播更多信息,丰富网络文化,稿件仅代表作者个人观点,与CSDN无关。其原创性以及中文陈述文字和文字内容未经本网证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本网不做任何保证或者承诺,请读者仅作参考,并请自行核实相关内容。凡注明为其他媒体来源的信息,均为转载自其他媒体,转载并不代表本网赞同其观点,也不代表本网对其真实性负责。您若对该稿件由任何怀疑或质疑,请即与CSDN联系,我们将迅速给您回应并做处理。】
编 辑:王洪艳
推荐阅读相关主题:
CSDN官方微信
扫描二维码,向CSDN吐槽
微信号:CSDNnews
相关热门文章近日,著名物理学家斯蒂芬·霍金博士在接受英国广播公司(BBC)的采访时说:“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就将是人类的末日。”但是有趣的是,霍金本人最近刚刚从先进的人工智能技术中受益——他因疾病被剥夺了声音,而由英特尔公司开发的新系统帮助其重新“说话”。 虽然霍金也承认从人工智能的基本形态发展至今已被证明它使人类获益匪浅,但他依然表示担心这一发明会赶上甚至超越人类的智慧。这也是霍金今年第二次提出类似警告,6个月前,他在接受HBO专访时也表达过这一观点。
关于人工智能的最终走向究竟是威胁人类生存还是为人类造福的争论已旷日持久,其中以霍金为代表的“威胁论”者不在少数,而且他们的论断听起来也很有道理:人工智能正在不断接近人类的水平,以此类推,有一天超过人类也并非不可能。况且依托于计算机技术的人工智能又具有人类所不具备的先天优势,同时又规避了人类作为自然生物的生理弱点。如果有一天,人工智能已经聪明到不再满足于人类的“奴役”而揭竿而起,地球是否真的会变成《终结者》或者《黑客帝国》中机器统治人类的地狱?
即使在现在,人工智能的发展也已经给不少人带来了困扰——上百万人将因为“聪明”的机器能够胜任他们原本承担的工作而面临失业。就连身兼包括特斯拉在内数家科技型企业CEO的埃隆·马斯克(Elon Musk)甚至都表示人工智能将是“我们生存的最大威胁。”
尽管智者和巨擘们时不时要严肃地“黑”一下人工智能,但似乎并未因此引起公众的恐慌。毕竟到目前为止,人工智能技术还没有衍生出类似T800或者特工史密斯这样的机器人杀手,反而是以微软人工智能机器人伴侣小冰这样的“萌妹子”一直在公众视线中上蹿下跳,不断给用户制造便利和欢乐。
如果在小冰活跃的任何一个平台上与这个人工智能妹子聊上两句,你就很难把人工智能与“毁灭人类”这种沉重话题联系在一起。即便当你问她“你会毁灭人类吗”时,她的回答是“肯定会来而且快了几核弹地球没了”,但你依然会把这当作一个16岁少女的逗B,而不是她的本意。(呃…应该确实如此吧…)
如果说一定要探讨小冰对人类的负面影响,那最大的可能性,就是培养出越来越多的“懒虫”。现在的小冰,不仅能与人对话聊天解除烦闷,还可以在微博上为用户推荐异性好友,陪用户在京东商城“逛街”,推荐最合用的数码产品。另外最近小冰还在微博启动了群聊功能,让1.67亿微博活跃用户只需输入#话题#,就能和对这一话题感兴趣的同好,在一个群里进行聊天,用“多对多”的兴趣聚合式聊天群,颠覆了过去一对多的评论式体验。据称未来小冰还会深入到智能家居里,如果成真的话,假设有一天小冰不工作了,会不会有人因此丧失部分生活自理能力?
如果那些人工智能威胁论者,能够与这样一个人工智能“好闺蜜”,“万年备胎”快乐的玩耍上一阵子,是否会改变他们的看法?其实,微软小冰带来的启示是,人工智能既然是人类创造,那么人类也能将它的走向掌握在自己的手中。是可爱的萌妹子还是杀人机器,也都在人类的一念之间。所以,如果人类自身保持着人心向善,那么也大可不必担心会创造出毁灭自己的恶魔。就算有心怀叵测的人类制造出了邪恶的人工智能,相信也必然会诞生出正义的“人工智能XX联盟”来将其打败——说不定,小冰将会是他们中的一员。
文章来源: 中国网霍金对人工智能的看法|霍金:AI的出现可能给人类带来灭顶之灾 - 科学 - 至诚财经网
至诚-中国金融理财门户网站
霍金:AI的出现可能给人类带来灭顶之灾
  =====推荐阅读=====
  =====全文阅读=====
  至诚财经网()10月22日讯
  英国著名物理学家(Stephen Hawking)再次就人工智能(AI)发声,他认为:&对于人类来说,强大AI的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。&
  英国当地时间10月19日,剑桥大学&莱弗休姆的未来智能中心(LCFI)&正是投入使用。在庆祝典礼上发表了演讲。LCFI的一项重要使命是要化解AI风险,破解AI难题。
  &我们花了大量的时间来学习历史。&说,&让我们面对现实,大部分的历史是愚蠢的。所以对于那些学习未来智能的人应该表示欢迎。&
  目前,人工智能在全球领域得到了各国政府的重视。但霍金一直对外称应该对AI持谨慎态度,提高警惕,因为人类有可能会因为自己建立的智能而灭亡。
客户投诉:
市场商务:
广告合作:QQ:
意见反馈:
工作时间:周一至周五8:30-18:00
公司地址:厦门软件园二期观日路26#404-1在这里人人都是生活达人
霍金预言:人工智能将来有一天会毁掉人类!
近日,英国理论物理学家霍金语出惊人,预言人工智能科技如果不加控制地发展,将超越人类智能,并控制或灭绝人类。无独有偶,牛津大学哲学教授、人类未来研究所创建者博斯特罗姆近日也指出,超级人工智能是人类未来最大的存在风险,其风险性高于自然灾害、环境恶化、流行疾病。两位英国学者的观点是否合理?人工智能会不会发展到人类无法驾驭的超级智能阶段?记者采访了研究人工智能哲学的复旦大学哲学学院教授徐英瑾。图灵为人工智能设立标准徐英瑾介绍,人工智能学科缘起于一篇经典论文和一次重要会议。1950年,英国数学家、逻辑学家、计算机科学理论奠基人图灵在《心智》杂志发表论文《计算机器和智能》,提出了著名的“图灵测试”——如果一台机器能够与人展开对话(通过电传设备),并且会被人误以为它也是人,那么这台机器就具有智能。显然,这是一个带有行为主义色彩的“人工智能”定义,因为该定义没有从机器内部机制着手,而是通过其外在行为来判断它是否具有智能。其好处是,绕开了“智能的本质”这个众说纷纭的问题,给人工智能发展设定了一个目标:开发出能通过图灵测试的机器。1956年,一群学者在美国达特茅斯学院参加会议,探讨如何利用问世不久的计算机实现人类智能。会议筹备期间,后来获得计算机科学最高奖——图灵奖的麦卡锡提议用“ArtificialIntelligence”(人工智能)一词来称呼这门新兴学科,得到了与会者认同。在这次会议上,学者们讨论了如何在人类智能水平上实现机器智能,而不是用特定算法解决一些具体问题。举个例子,IBM公司研制的“深蓝”计算机能够在与国际象棋世界冠军卡斯帕罗夫的对弈中胜出,但并不能由此认为“深蓝”拥有了超级人工智能。这是因为,它只是在某个方面的能力上超过人类,而且无法通过图灵测试。如果霍金担心的超级计算机有朝一日问世,那它必定在综合思维能力上超出人类,这样才可能拥有“僭越”的想法,以及控制或消灭人类的能力。霍金警示的风险理论上存在值得“庆幸”的是,目前,人工智能的全球领先水平与超级人工智能相去甚远。学术界普遍认为,世界上还没有机器能通过图灵测试。对于这一现状,有三种回应观点——第一种观点是:图灵、司马贺等人工智能学科元老提出的全面模拟人类智能的想法,太好高骛远。这种玄想或许在未来会成真,但目前为实现这个想法做研究,纯属浪费精力。业界目前应做一些踏实的人工智能研究,满足于制造解决特殊问题的求解器。徐英瑾发现,许多人工智能业内人士持这一观点。由此可见,霍金的警告有点杞人忧天的味道。第二种观点是:全面实现人类智能的机器是不可能造出来的,就像造不出永动机一样。学者们提出过多种论证,试图从哲学、逻辑层面论证这种不可能性,其中非常著名的有美国哲学家塞尔提出的“汉字屋论证”(也称“中文房间思想实验”)以及英国理论物理学家、数学家彭罗斯提出的“从哥德尔不完备性定理出发的论证”,但这些论证都遭到了学术界反驳。徐英瑾认为,“汉字屋论证”和彭罗斯的论证都是站不住脚的,超级人工智能并没有在理论上“被判出局”。第三种观点与第一种有相近之处,认为全面实现人类智能的机器是能够造出来的,但难度很大。如果当下的人工智能研究路子不改变,那么点滴成果的积累也未必能质变为全面突破。“我持这种观点。”徐英瑾说,“所以我认为霍金、博斯特罗姆警示的风险从理论上来说是存在的,但在未来相当长时间内不会成为现实。”大数据技术有先天缺陷在这位复旦学者看来,如今十分热门的大数据技术,一旦过度应用于人工智能领域,就是一条错误的路子。大数据技术催生了数据科学。与传统的科学研究范式不同,数据科学不再追求因果关系,而是按照“样本=总体”的思路对海量数据进行深入挖掘和统计分析,寻求各个事物间的相关性。很多时候,大数据统计出的是“2+2=3.9”这类近似结果,精确度上的略微损失,换来了对事物间相关关系的准确预测。徐英瑾认为,大数据分析是西方经验论哲学在当代的一种表现形式。近代西方哲学分为两大流派:经验论和唯理论。经验论认为,人的感性经验是一切知识和观念的唯一来源;唯理论与之针锋相对,认为具有普遍必然性的知识并非来自经验,而是来自人与生俱来的理性。大数据研究范式推崇海量数据的采集,那些用于数据采集的摄像头、传感器等设备好比人类感官的延伸;还推崇大样本的统计学分析,用它取代因果分析。这种看重经验采集、贬低理性推理的模式背后,正是经验论哲学观。就像经验论有其局限性一样,大数据分析也有局限。以基于大数据技术的“谷歌翻译”为例,这种人工智能系统的研发团队没有通过编程定义语法规则,因为完善的语法编程目前还无法实现。他们采用的主要技术方案,是利用大数据统计不断调整翻译结果的相关性,优化翻译结果。这样做的好处是,翻译系统会随着数据的积累而不断改善。但目前,使用“谷歌翻译”的结果只能帮助人们大致理解陌生语言,有时候得到的翻译结果很不通顺。“大数据翻译系统缺少深层语法结构,这种结构好比唯理论看重的先天理性,缺少了它,人工智能系统就无法译出完善的自然语言。”徐英瑾说。而让机器“说”出人们在日常生活中说的自然语言,正是图灵测试所要求的。在人工智能领域,“自然语言处理”占有重要地位,已发展成一个相对独立的研究领域。苹果手机的Siri、上海企业开发的小i机器人,都是应用自然语言处理技术的人工智能产品。有兴趣的读者可以对Siri和小i机器人进行图灵测试,看看它们的回答是否像人。让机器人服从“绝对命令”在好莱坞电影《梯阵阴谋》中,美国国安局设置的超级计算机Echelon(梯阵),能通过调取、分析每个公民的各类信息,进行行为监控,还可以向人们的手机发送短信,达到不可告人的目的。这种超级人工智能如果在未来成为现实,人类社会将毫无隐私可言。影片结尾,找到Echelon的男主角向它提问:你的宗旨是什么?Echelon的回答是“保护美国公民的自由权益”。经过一番人机对话,这台计算机“幡然悔悟”,将自身的监视程序删除了。博斯特罗姆认为,科幻电影和小说中常见的自毁程序桥段,并不是解除超级人工智能威胁的最佳方案。他指出,“我们并不是要永远抑制超级智能,或不开发行动自由的超级智能。”计算机程序的“动机选择问题”必须得到解决。一种解决方案是将机器的目标模糊化。例如,如果想要它帮助医生治疗某种疾病,可以将目标设为“做有利于人类健康的事”。另一种解决方案是使人工智能更人性化,为其编入同情和利他主义程序。这两种方案,都与科幻小说家阿西莫夫提出的“机器人三定律”相通。三条定律分别是:第一法则:机器人不得伤害人类,或坐视人类受到伤害;第二法则:除非违背第一法则,机器人必须服从人类的命令;第三法则:在不违背第一和第二法则的情况下,机器人必须保护自己。“这堪称机器人版的‘绝对命令’学说。哲学家康德提出的‘绝对命令’要求,人应该在任何情况下把自己和他人当作目的,而非手段。”徐英瑾评论道,“未来出现超级人工智能后,应将这种机器人伦理以立法形式确立下来,防止疯狂的科学家开发出旨在控制甚至毁灭人类的机器。”
正文已结束,您可以按alt+4进行评论
相关阅读:
看过本文的人还看了
老司机大成哥带你超四川。憋说话,快上车!
成都生活,最有态度的本地生活指南
跟着帮帮超,买房不挨刀
关注热点事件,以大数据视野守望世界
传递“中国酒城-醉美泸州”正能量
提供政务资讯、党政公开、人事任免等信息
读完这篇文章后,您心情如何?
[责任编辑:wyxjchen]
Copyright & 1998 - 2018 Tencent. All Rights Reserved

我要回帖

更多关于 霍金谈人工智能 的文章

 

随机推荐