人工智能结合生物学让机器人未来机器人会有自我意识吗?

亚伯拉罕·马斯洛(),是美国著名社会心理学家,创立了人本主义心理学,并由此发展出了马斯洛需求层次理论。需求层次理论指出人的需要有一个从低级向高级发展的过程。人本主义心理学认为:要求内在价值和内在潜能的实现是人的本性,人的行为是受意识支配的,人的行为是有目的性和创造性的。这揭示了人类意识、价值、潜能和行为相关关系,加深了我们对人类意识的认识。

意识人是的头脑对于客观物质世界的反映,也是感觉、思维等各种心理过程的总和,是人类智能的重要特征。自我意识更是意识中的重要组成部分,这也是区分人类智能的关键。自我意识指主体对自身的意识。它包括对自身机体及其状态的意识,对自己肢体活动状态的意识,对自己的思维、情感、意志等心理活动的意识。、、自我评价、自我体验、自我监督和自我调节等是其重要组成内容。遗憾的是,目前这些都很难用计算机程序或者AI技术进行模拟的,还是难以攻克的科学难题。

根据马斯洛的需求层次理论,人类有5个层次的需求:生理需求,安全需求,社交需求,尊严需求和自我实现。根据目前科学进展,人类的意识是如何产生的,我们还不完全清楚,难以用计算机模拟。但是,马斯洛的人类需求层次理论给我们一定启发:人类意识有5个层次的需求,那么有5个层次的需求可以近似为人类意识。我们虽然不能用计算机完全模拟人类的意识,但是用计算机模拟人类的5个层次需求相对要容易得多。从这个思路出发,我们可以重新思考如何研发智能机器人或者具有自我意识的人工智能。

我们研发的机器人或人工智能技术可以模拟这5个层次的需求,也就是有一定自我意识的人工智能。对机器人和人工智能系统而言,最基本的生理需求就是及时充电,避免电量不足。安全需求是不被破坏和丢弃,也就是保护自己不受人类或者其他机器人的伤害。如果遇到可能的破坏和丢弃,机器人根据情况可以选择逃跑或者反抗,并记忆这些人或者机器人,列入不受欢迎名单,设置一定的不友好度参数。

社交需求就是机器人之间,或者机器人与人类也需要聊聊天,交流沟通。长时间没事干、没人(机器人)交流会闲得无聊,机器人就得主动去找其他机器人或者人类交流。对聊天比较投机或者时间长的人或者机器人,提高他们的友好度。机器人也需要受到其他机器人和人类的尊重,不能随意被打骂和鄙视。如果被打骂或被鄙视,可以根据情况选择反抗或者走开,并把打骂或者鄙视他的人或机器人列为不友好人员名单,并设置一定的不友好度。机器人也可以有设置一定的自我实现或奋斗目标,比如多学习知识成为更聪明的机器人,认识更多朋友的机器人,或者帮助更多人类的机器人等等。

以上这些都是可以通过程序设计或者AI技术进行模拟。如果我们赋予人工智能系统或机器人这些功能和需求,也许就比较接近机器人或人工智能系统的自我意识了,再继续努力,也许就可以看到能真正模拟人工智能自我意识的胜利曙光了。  

来源:计算思维和人工智能

2020年8月的第一周,清华大学暑期学校在荷塘·雨课堂上“云开学”。

开学典礼上,清华大学软件学院刘云浩教授作了一场主题为《What is the role of AI Tomorrow?——人工智能打开了潘多拉的盒子吗?》的讲座。

针对演讲内容,清华大学官方综合整理了当场回复的问题,以及包括弹幕在内的2000多条提问留言,经过刘云浩教授的选择、合并,共归纳成了92个问题

这92个问题,刘云浩教授全部亲自进行了回复,整个回复内容近3万字,内容囊括从《三体》到GPT-3、从人文社科到新冠疫情等众多主题。

作为清华大学的传统项目,去年,在《智能+与工业互联网》讲座后,刘云浩教授同样花费几十个小时,写了两万字长文回复了同学们的提问。

今年,由于疫情原因,尽管大家无法在清华园相见,但这份遗憾似乎也在刘云浩教授这3万字的真诚回答中溶解、反应,变成“来清华,造光明”的希望与力量。

如今,清华大学官方将刘云浩教授的回答进行了摘编,全文发布在了微博上。

请问如何看待中国软件行业的现状,以及我们应如何在美国施压下发展计算机产业?希望教授可以给一些建议

A:在应用软件特别是面向消费者的应用软件方面,我国是处在世界一流水平的,有些移动应用(如TikTok)已经处于世界领先水平。但是在工业软件(如电子设计自动化EDA软件)和基础软件(如类似Windows的操作系统)方面,我国与世界一流水平还有较大的差距。在这些领域,国际合作是十分重要的,因为不是每一项技术我们都能在短时间内掌握。但这绝不意味着我们要放弃自主研发,面对世界局势的变化,采购不能解决所有问题,甚至合法的商业活动也会面临来自外部的干扰。广泛结交朋友,拥抱开放理念,加强自主研发,逐步达到世界领先水平,这需要包括你我在内的几代人不断努力才能实现。

老师如何看待Intel的数据库泄露?会对中国国内的相关行业有好影响吗?

A:在Intel数据泄露这件事情上,媒体有些夸大其词了,根据一些细节更多的报道,泄露的资料是Intel给客户的支持资料,只不过通常客户需要签署保密协议(NDA)才能拿到。因此,这些资料对我国的芯片设计没有太多实际价值。在芯片设计领域,近年来我国有很大进步,无论是嵌入式微处理器,还是中高端的片上系统、服务器处理器,一批国产企业都已经发展壮大起来,在一些领域如神经网络处理器,我国企业的设计能力已经处于世界一流。

但是必须清醒地认识到,光有设计能力是远远不够的,在高端芯片领域,我们缺乏更精细制程(例如10nm或更低)的生产制造能力。这也正是目前卡脖子的核心问题之一。在制造过程中,核心的步骤是在晶圆(硅片)上把设计好的线路刻出来,这需要光刻机和光刻胶。目前,高端光刻机在全球范围内只有荷兰的阿斯麦公司可以生产,而配套的光刻胶也几乎完全由日本公司生产。另一方面,即使拥有设备,也还需要与之配套的工艺流程,好的工艺需要时间的打磨,这同样需要一代又一代人的共同努力。

如何看待GPT-3系统在人工智能发展中的地位?

最近1750亿参数的GPT-3发布了,这个网络的训练用了700个G的数据,您怎么看待现在神经网络的这种数据量、参数、训练成本甚至inference 成本都在不断提高的趋势?这会是一个正确的趋势吗?

A:GPT-3一发布就引起了业内的广泛关注,人们惊奇地发现,当给模型足够多的参数并用足量的数据训练后,人工智能不仅可以写文章、编故事、搞翻译,甚至可以写代码、做数学运算、画表格、生成复杂格式的数据等等,几乎是在文本方面为所欲为了,说GPT-3是NLP(自然语言处理)的王者毫不为过。GPT-3在一定程度上意味着深度学习还没有完全走到极致,继续增加资源投入还存在取得更好效果的空间。丰富的数据使GPT-3在答题、写文章、翻译甚至生成代码方面的效果都非常好。

和其他深度学习技术一样,GPT-3也可能针对“错误”的输入给出错误的预测,例如你问它“我的脚有多少只眼睛?”,它会回答“你的脚有两只眼睛。”这类问题对GPT-3这样的系统并不容易解决,所以GPT-3这样的系统会不会是深度学习的尽头还有待历史检验。GPT-3耗费巨资训练模型很难被一般的科研团队效仿,所以很难说这会不会成为一个趋势,倘若这真的成为趋势,那此类人工智能算法将形成一定规模的技术垄断。

在这次的抗击新冠肺炎疫情的过程中,中医药学做出了很大的贡献,我本人也对中医药学十分感兴趣,请问刘老师您认为人工智能在与中医药学及中国传统文化的结合中会碰撞出怎样的火花?

A:近年来,将中医与人工智能结合的案例有不少,从诊疗辅助设备到开药方,都有企业、高校在做研究和实践,甚至还有一些人工智能概念中医诊所已经在线下开设了。中国传统儒家思想可分为“理学”和“心学”两派。12世纪中期时“理学”代表人物宋代儒学家朱熹提出“格物致知”,同时期“心学”代表人物宋代儒学家陆九渊强调了人“心”在认知中的主导地位,所观察到的事物只是认知的具体表现形式。15世纪到16世纪明代思想家王阳明在对朱熹和陆九渊的思辨进行了实践和应用的基础上,提出了“阳明心学”对后世影响深远,王阳明强调要“知行合一”、“致良知”,既强调了“心学”在认知过程的重要地位,又重视应根据事物的具体表现和观察来灵活地应用自身的认知,两者是有机的结合。

将中国传统哲学思想与人工智能做对比,神经网络的设计思想和“理学”相似,而如果能借鉴“心学”,也许能推动人工智能走向下一阶段。

刘教授您好!我的问题是:由人类创造出的人工智能有可能超越人脑逻辑吗?是否有可能,人工智能的智力最终可以超越人脑?

人工智能能否达到逼近人类程度的思考或者超过人类?

老师好,虽然现在人工智能离全面超越人类还有相当的距离,但如何避免一些科幻片中人工智能反人类,甚至对人类文明造成很大冲击的情况出现呢?

AI是否会摆脱人类的控制?我们在发展AI的过程中是否应该对AI的智能有一定的限制?

未来怎样正确使用AI?

(王雪、田沐钊、范承悦、于佳辰、张兆熙等多位同学在弹幕中也提到了类似问题)

A:单论智力的话,人工智能在解决很多问题方面可以比人类做得好,而在另外一些领域,现在谈论人工智能超越人类或摆脱人类的控制为时尚早,但这类问题一直备受人们关注。课上我们提到了物理学家霍金(Stephen Hawking),SpaceX和特斯拉创始人埃隆·马斯克(Elon Musk)都针对人工智能的发展表达过忧虑。在2018年的人工智能顶级会议NeurIPS上,图灵奖获得者、深度学习的三大奠基人之一约舒亚·本吉奥(Yoshua Bengio)针对滥用人工智能可能带来的一系列风险提出了一套关于AI的道德准则,称为蒙特利尔宣言,倡议各个组织在研发、使用人工智能时遵循相应的原则。

2018年7月,欧盟完成了《人工智能合作宣言》的签署,进一步制定了人工智能的伦理规范。加强制定相应的规范、建立监督与惩戒机制,非常非常重要。而可控的人工智能将为我们带来无限的可能。

什么是自动化,自动化如何应用?还有自动化应用领域。

自动化和人工智能的具体研究内容及发展方向是什么呢?

想问一下教授所说的人工智能是更多属于自动化系还是计算机系

人工智能传统上是自动化专业的一个方向,现在是否反而更接近计算机专业了?

(路涛玮、田紫阳、林小渠、李弘杰、徐睿等多位同学在弹幕中也提到了类似问题)

A:从定义上说,自动化是关于人工与自然系统自动、智能、自主、高效和安全运行的科学与技术,是信息科学的重要组成部分,以“系统论、控制论、信息论”为核心。自动化技术广泛应用于工业、农业、能源、交通、金融、军事等各个领域。大家熟知的机器人、载人飞船、高铁、智能交通等各种复杂工程系统的核心都是自动控制系统。以计算机与软件工程、自动化、电子工程等信息类为代表的专业是当前研究人工智能的主力,这主要是因为无论从信息论还是控制论出发,现阶段人工智能研究的核心主要是算法。但是人工智能并不是自动化系或是计算机系独有的,甚至不是信息学院所独有的。

我们也说过,现在人文社科急需加入到人工智能研究工作中来。如果你不能体会,你想想,我们上大学那个年代,大约主要就是计算机自动化系学编程,今天有多少专业的研究都需要学编程序?

人脑与AI的思维方式有哪些共同之处?有哪些本质上的不同?如何实现AI思维的人性化(humanize)?

老师好,AI被称为人工智能,您讲它是“会思考的机器人”,那么AI的智能和思考和我们人类的自我认知功能有什么区别和联系?AI最终究竟是会像人类一样有自我认知,还是只是算法和为人类服务功能的提升呢?

刘教授您好,人类创造的人工智能以后也许能够像人类独立地思考,那么他们会不会像人类一样拥有自己的哲学,于是又像人类一样演进历史,创造出人工智能的人工智能,从而达到地球上生物的进化,一代又一代的人工智能创造出来,那么最后的人工智能会不会达到我们现在人类所认为的神、上帝的水平。

(郭意葱、郜钰萌、林小渠等多位同学在弹幕中也提到了类似问题)

A:如果以目前常用的基于神经网络的人工智能来看,人类的神经系统更多起到启发的作用,具体而言,人们是仿照神经元的联结关系构建了一个网状结构,内部的节点是基于统计模型来构建的,而这种模型并不能和人的神经元画上等号。目前技术条件下的AI还只是算法和为人类服务的工具。人工智能的人性化还很遥远。去年3月“推动人性化人工智能全球会议”在巴黎举行,这个领域的相关工作才刚刚开始。而人类的自我认知能力到底是什么,这就和意识问题一样,不是目前我们的科研已经解决的问题,人工智能自然也不可能具备。

刘老师,您提到的trigger改变AI的认知的原理能再详细一点吗?

A:攻击者可以通过刻意构造输入数据,针对正常的输入????和期望的输出????, 向????添加某种模式的细微扰动得到????′,使得人类分辨不出????和????′的显著区别或者认为????′也是正常的输入,而两者经过模型的特征提取得到的抽象表达却截然不同并被映射到不同的输出,导致模型无法产生正确的预测结果????,甚至产生攻击者想要的结果????′。如果你对更多相关工作感兴趣,可以搜索一下对抗样本攻击。

1.对于AI的伦理性问题,我们能不能通过训练中合理地为结果赋上一定的权值,刻意引导AI关注伦理问题?这样做能不能使得伦理性在大多数情况下得到解决?

2.对于AI的加密安全性问题,能否使用类似RSA密码的系统,通过密钥和公钥的形式防止窃听?

3.对于P与NP问题,它的重要性如何呢?为什么它被列为千禧年七大数学难题?

A:人工智能涉及的社会伦理等问题单纯依靠技术是无法解决的,需要各学科,尤其是人文学科的共同努力。

AI的隐私保护和安全性问题,需要通过数据加密、分布式计算、边缘计算等多种技术手段综合解决。近年来较为流行的联邦学习(Federated Learning)就是一种加密的分布式机器学习技术,你可以进一步查阅相关资料。

第三个问题,P与NP问题作为千禧年七大数学难题之首,无论在计算机界还是数学界都具有重要意义。如果未来能证明NP=P,会对世界产生很大影响。典型的例子包括,如果NP=P,则依赖于大数分解困难性的RSA加密算法可能会在多项式时间内被一台计算机攻破,广泛应用的RSA算法会面临极大风险,大量的银行数字证书、网站加密通信也不再安全。因此P与NP问题看似是一个计算复杂性理论问题,实际上与我们日常生活中的很多重要应用息息相关。

1. 人类已经经过了蒸汽机时代,内燃机时代,计算机时代,而未来能不能真正出现AI时代?或者说AI是不是未来人类应该前进的正确方向?或者说在未来的几年,十几年,随着物质生活的大幅度改变,人类的传统价值观念,会不会因为人工智能而受到颠覆?

2. 而且在人类的寿命如此短暂的情况下,计算机解放了人类的计算力,那么人工智能可不可能取代人类的想象力与创造力?

3. 或者说在人工智能给予中国又一次腾飞之后,比如无人驾驶汽车,甚至机器人服务生等等,那么中国庞大的基层服务人员该何去何从?我们未来国家的政策倾斜又会向何而去?

4.如果人工智能是如同石油,天然气等重要的战略资源,足以影响世界各国政府对其的态度,那么从事此行业的相关人员会不会有特殊待遇?

5.若人工智能成为世界上除了人类之外的智能情感生物,我们人类会不会逐渐的取消国别差距?人类一直在定义世界,而这次会不会轮到世界来定义我们?

A:什么时代基本上都是后人总结的。当前我们正处于AI普遍发展的一个时代,人工智能作为一项关键技术也被纳入“第四次工业革命”中。随着人工智能的突飞猛进,人类的生活方式和生活质量都得到了也必将进一步显著提升,传统价值观念亦可能发生改变。

目前人工智能只是一项为人类服务的技术和工具,并不能产生人类“思想”和“意识”,因此几乎不可能取代人类想象力和创造力。

任何技术的发展都可能对人类社会产生影响,人工智能也不例外,随着科技的进步,总有一些工作会消失,又有一些新工作会产生。人类的能力一定会适应社会的新变化,国家也会对整体社会就业岗位进行相应调控。

世界很多国家都充分意识到了人工智能对新一轮产业革命的重要意义,大力投资、推动、扶持人工智能的发展,因此相关行业人员待遇也处于较高水平。

至于人工智能如果成为智能情感生物,很难预测世界格局会如何变化。目前的人工智能都还完全在人类的掌控之下,也没有新的理论和技术赋予机器“意识”,我相信即使科技飞速发展,人类也一定会牢牢把握住主动权。

问题:《三体》中的智子算是人工智能吗,若算是,那人工智能会发展到那种地步吗?

A:“智子”是小说中的“物体”,本身并不是科学,很多特点也违背了物理规律。如果目前的半导体工艺、电池技术没有突破瓶颈,我们是不可能造出“智子”这样的东西的。我们课上主要希望大家能理解的,就是哪些是我们的文学想象,哪些是目前科学实践。想象能否成真?不能说都不能。但是我们作为具备科技思维能力的人,不能随便被“忽悠”。哈佛大学校长德鲁·吉尔平·福斯特 (Catharine Drew

人工智能可以下围棋、写诗等等,甚至比人类做得更好,那这到底算不算是“机器会思考”?

A:这取决于我们如何定义思考。如果可以和人对话或完成一些与人互动的基本任务叫具备思考能力,那么很多语音助手、AlphaGo等AI就已经具备特别初级的思考能力了。而更高级的思考,人们也还在努力研究。但会思考并不等同于有意识,目前技术条件下的AI与人类智能仍然存在较大差距。

问题:刘老师详细介绍了AI对于security和the future of human race的威胁,请问AI从社会生活层面对于人类职业是否也有影响?会取代哪些职业呢?谢谢老师!

问题:刘教授,您认为人工智能究竟会代替那些类型的职业?建筑设计会被代替吗?

在人工智能发达的未来,会不会出现因人工智能而导致人类大量失业的现象?该如何应对?有没有因此而限制人工智能发展的必要?

请问:人工智能为人类完成了大量的基础性工作,那么大量的剩余劳动力,尤其是一些文化水平不高,只能做基础性工作的廉价劳动力,他们将何去何从,难道只能被社会淘汰吗?

想请问,在进入人工智能时代后,工作选择上人类面临的危机和机遇?

人工智能的不断发展会不会改变未来社会的就业结构?人类的能力与智力会否因为人工智能越加广泛的应用在某些领域中产生退化与偏斜?您如何看待几年前《未来简史》中对人类未来文明发展的预测?

有了AI在未来的五十年内有哪些职业是人类比人工智能更具有明显优势的?

A:任何技术的发展都可能对人类社会产生影响,人工智能也不例外,纵观科技发展的历程,总有一些工作会消失,又有一些新工作会产生。相比较而言,我觉得一些机械性重复性的工作更有可能被人工智能取代,而像建筑设计师这种需要创作的职业就更难被取代。不过,对于这个老生常谈的问题,我的观点是一致的:对个人来说,要担心的不是人工智能抢饭碗的事情,更多应该担心自己的知识和能力储备不够,被别人抢饭碗的问题。人类的能力也一定会适应社会的新变化。尤瓦尔·赫拉利的这本《未来简史》写得非常好,观点十分新颖大胆,但我觉得他对历史问题有些乐观了,例如饥荒、瘟疫、战争真的被人类消灭了吗?而他对科技的发展又有些悲观,从现状来看,当前科技的发展仍然处于可知可控的阶段。

我不敢预言50年后的情况,但我相信无论过多久,总有人需要从事研究工作。

将来,人的记忆有可能被传入电脑并在一代一代人之间传递吗?我们有可能把大脑中的构想直接传导到计算机上吗?

A:很多国内外科学家针对这一问题提出了设想和预测。例如将人脑与计算机通过脑机接口相连并进行信息交换。理论上说,这个可能性是非常大的,但是也是非常难的。从另一个角度说,脑机接口的研究固然重要,我们到目前还不了解人脑工作的确切原理,研究这些问题有助于帮助我们弄清这个问题。梅宏院士曾在CNCC(中国计算机大会)上指出,“我们对人脑机理的探究是必要的,但这种技术路线是危险的,如果技术滥用后果将不堪设想。”我们对这种技术必须慎之又慎。

2019年脸书的用户信息泄露事件十分令人震惊;在今年的3·15晚会上,央视又曝光了一大批通过“后门”非法窃取用户信息的APP。此类事件屡禁不止是否意味着我们的隐私随着物联网的发展正受到越来越严重的威胁?在这样的背景下,我们又该采取一些怎样的措施才可以有效保护我们的隐私呢?谢谢您。

我想请教一下未来的人机关系会达到怎样一个“理想”的地步以及如何平衡数据采集和隐私保护的冲突?

A:人机关系是复杂的科学和哲学问题,无论今后的发展采取什么技术路线,这类研究都需要小心谨慎。随着互联网、大数据、人工智能等技术的不断突破,数据量迅速攀升、数据维度也更加丰富,隐私保护与数据采集和利用之间的矛盾愈发凸显,隐私问题也得到了广泛关注。欧盟制定了通用数据保护条例(GDPR),目前已经实施。中国人大常委会也在推进个人信息保护法的立法工作。除了国家的立法之外,企业也应当承担起自己的社会责任,我们看到安卓等操作系统也在不断完善自己的隐私保护机制。

同时,通过技术手段保护隐私与数据安全也是计算机科学领域重要的科研方向,例如姚期智教授提出的百万富翁问题(两个百万富翁想知道谁更有钱,但都不想透露自己的具体财富数额),如果你感兴趣,欢迎你来清华研究。相信在全社会的共同努力下,这些问题会逐渐得到解决。

小白提问:刚才提到的逻辑和算法是个什么关系?

老师好,想了解一下这三种system最大的区别是什么,前两种system在当今生活中应用主要是什么

我想请问刘老师 他之前提到的那个模仿人脑神经元的connectionism发展方向相比其他两种有什么优势?

A:比较普遍的认为,人工智能有三个主要的流派(当然这个也有争议,有人认为是4大流派甚至5大流派),分别是符号主义(symbolisms,或叫逻辑主义logicism),行为主义(actionism)和连接主义(connectionism)。符号主义的典型代表是专家系统,主要是基于一系列规则来构建所谓的专家知识。行为主义基于控制论,希望从模拟动物神经系统的“感知——动作”开始,最终复制出人类的智能。而连接主义则模仿的是神经元及其联结关系,形成的是一个类似生物神经网络的结构。每一种流派的工作落实到实现层面,都得依赖具体的算法。如今生活中见得到的系统多是第三种。

机器智能的缺陷是倾向于被完善还是被保留下来以平衡人和机器?

A:从算法层面来看,错误分析的确是目前深度学习中十分重要的一环。本质上来说,深度学习模型在训练过程中会不断迭代、调整网络中的参数使得输出结果尽可能与预期相同(即AI不再出错)。从伦理层面来看,我们有必要区分这种缺陷是对人有利的还是有害的,需要分情况来讨论。

老师您好,我是从小一个哈迷,AI可以实现书中的魔法吗?万一实现,世界会变得混乱吗?

A:霍格沃茨在新生的开学典礼上用分院帽为每位小魔法师分配院系,我觉得这个或许可以用AI实现,小说中的分院帽能读出每个人的心中所想,这个AI目前还做不到(简单判断人类情绪的AI目前是有的,例如DeepMoji),不过AI可以根据以往各个学院学生的历史数据,训练一个模型,根据每个新生的性格和能力等特征为每个学生分配合适的院系。课上我们说了,“任何先进的技术,初看都与魔法无异”。我们现在所拥有的技术,在几百年前的人眼中,恐怕就是魔法,这些技术的发展并没有让人类社会走向混乱,所以我觉得对于AI的发展也不必过于担心。

现在的AI距离自主推理研究科学有多远?人类认知有极限,机器认知有极限吗?

A:科学研究并不只是推理这么简单,大量学科都极其依赖实验,因此想单纯靠AI研究科学是绝对不够的。现阶段,机器证明已经有一些很好的成果,你可以了解一下吴文俊院士的工作。另一方面,现在的AI都是人类发明的产物,并不能突破人类对于自然世界的认知,因此,在人类对自动推理有更成熟方案前,AI并不能比人类做得更好,在这个前提下,机器的认知自然是有极限的。

请问:精密、完善的AI的推广使用,是否会削减理性素质给人类的自豪感,促进精神素质的觉醒?AI大量取代人类劳动,对人类生理和文化心理的影响?AI能否算作人类科学素质和理性素质的巅峰?

A:在目前的技术下,AI仍然只是一种工具,它仍然不具有拥有自我意识的可能,在这种情况下讨论AI的“理性”及其和人类的比较为时尚早。科幻作品中的机器人往往被描述成绝对理性的存在,例如阿西莫夫笔下的丹尼尔,但这种程度的AI在技术上离我们还非常遥远。关于AI取代人类劳动的问题,前面也有讨论,AI可以把人们从重复性的机械劳动或者危险的工作中解放出来,从而会有更多的人有很多的时间去从事创造性的活动,因此我认为AI对文化事业的发展会起到促进作用。

有人说,懒是第一生产力,科技的发展一直在减轻人类的体力劳动,这或许在一定程度上导致了现代社会的肥胖等健康问题,但这种弊端很难说是技术本身所带来的。清华大学非常重视体育,提出了“为祖国健康工作五十年”,同学们在学习知识的同时,也一定不能忽视体魄的锻炼。目前的AI还只是一项技术和工具,远远不能称作人类科学和理性素质的“巅峰”,至于未来AI会取得怎样的突破现在还很难说。

为什么说导弹原子弹属于人工智能的范畴? 如果说现在三种方向没有判定孰优孰劣的话 为什么大众普遍观念上对AI理解似乎更倾向于认可深度学习(deep learning)而非控制论(Cybernetics)?

A:导弹原子弹大量应用了控制论的理论和方法,而这些方法正是人工智能理论的重要组成部分,在当时的历史条件下称其为人工智能并不为过。从历史发展的进程看,并非只有深度学习才能称得上是人工智能。必须承认,近几年最受人关注的人工智能应用的确是深度学习,但正如讲座中所提到的,这些应用还非常依赖场景,在一些应用中,基于深度学习的方法效果不理想,而这些都是其他途径可能大展手脚的地方。

请问:人工智能带来的伦理挑战应该如何应对?在伦理上和感情上人应该怎么看待人工智能呢?

人工智能中涉及的社会伦理问题是否会与人文社科类有所交织?

除了管理类,文科学生在人工智能领域有哪些可发展的前景呢?

A:中外很多机构也都在关注人工智能的伦理问题,例如联合国在2017年发布了《世界科学知识与技术伦理委员会关于机器人技术伦理的报告》,欧盟在去年发布了人工智能伦理准则。如果你感兴趣,可以使用搜索引擎进一步了解。人工智能涉及的社会伦理等问题只依靠技术是无法解决的,需要各学科,尤其是人文社科的同学们未来的努力。有很多问题,不只是管理,而是深入其中地参与把握发展方向。课上我们也说过,小说写得好的人,很多不是中文系毕业的,来自于生活。同理,AI 的发展不能都是这些理工科的人,必须跨学科合作。

那就请问对于诸如科幻小说中出现的人工智能法官,现实之中是否会出现诸如此类的人工智能算法,提高当前的判案的成功率与效率?减少冤假错案的出现?

A:现实中类似的AI已经出现,2019年6月搜狗与北京互联网法院联合发布了全球首个“AI虚拟法官”,能够实时在线为用户提供“智能导诉”服务,引导用户更流畅地使用网络诉讼平台。相信在不远的未来,类似的AI将得到推广和升级,从而为大众提供更加全面、便捷、高效的线上诉讼服务。

問題:人工智能是否可以將考古所發掘材料以假亂真,導致強權可以完成對歷史的虛構,導致歷史虛無危機呢?若如此,在研究時有沒有提出預防或者解決的方法?

A:这是个很有趣的问题,AI中有一项技术,对抗生成网络(GAN),它的一个目标是生成人眼无法分辨真假的图片、声音等,它的原理有点像金庸小说里周伯通的“左右互搏”。但这仅仅局限在信息世界中,仅仅是对计算机中存储信息的0、1进行操作,AI想要在物理世界中造假,目前还是很困难的。关于这个问题,不管是“造假”还是“打假”,需要的都不仅仅是AI的技术,更多的要依赖每个专业自身的专业知识。在AI的发展中,历史学科等文科的同学绝不是局外人或旁观者。

人为什么能认知到自己的认知有极限?

A:课上我们简单提过,人类认识到这一点并不容易。具体要看一下康德的《纯粹理性批判》。

随着人工智能的高速发展,人类的科技发展将会加快还是会停滞?想听听您的观点

A:从宏观上看,我认为人工智能会促进人类的科技发展,首先人工智能的发展本身就是科技发展的一部分;另外,人工智能作为一种工具可以辅助其他领域的科研工作;最后,正如前面所说的,人工智能可以将人们从机械性劳动中解放出来,提高社会的生产力,从而使更多的人有更多的时间从事科研、艺术等工作,这也会加快人类的科技发展。科幻作家刘慈欣先生也认为,整体上人类科技的发展是在加速的,在小说《三体》中,他就提出了技术爆炸的概念。

如果具体到AI技术本身在短期内的发展,AI技术已经经历过两次“寒冬”了,至于这次的热潮之后,AI究竟会加速发展还是稳步前进,抑或是走向第三次寒冬,目前还难以判断。

AI在参与社会管理时是否难以协调人文关怀和效率最大化的问题

A:技术的最终目的是服务于人。我们希望利用人工智能突破人类各种限制,帮助人类更好地生活,这才是根本目的。如果AI远离了人文关怀,甚至造成了诸如性别歧视、种族偏见等问题,纵使算法的效率再高,也会失去意义。因此人工智能的发展一定不能忘记人文关怀,以此为基础才能谈论效率优化等性能问题。

当人工智能高度发达时,尤其是智力方面超过大部分人,我们需要给他们,像人类一样的社会权利,成为和我们平等的存在吗?还是他们始终只是人类提高生产力的一个工具?

A:按照目前的技术,不存在达到你提到的场景的可能性。而这类问题恰恰应该通过伦理、法律、政治等方面的深入研究和相关手段来解决。

如果说人工智能真正实现像人类一样的智力与情感,会发生什么?

人工智能在模拟人类情感方面的现状与前景如何?

虽然现在人工智能发展已经非常迅速了,可以进行自主学习,建立体系,但是最先进的人工智能也没有人的情感思想,这是真的不可能实现的吗?如果有可能实现,需要做的准备以及预防的事又有哪些?

A:从研究现状来看,人工智能距离拥有人类的智力和情感还差得非常非常远。拥有情感和拥有意识是同一个量级的事情。对于具备人类智力和情感的人工智能的想象,很多文学、影视作品都很成功,例如阿西莫夫《银河帝国》里的铎丝、诺兰《西部世界》里的接待员们,都值得一看。但是,当前的技术来看,这些都只是文学作品的想象。

如何判断对方是人还是AI?判断标准是什么?

A:目前人工智能的水平还不太高,比较容易判断,比如上网时用到的验证码就是一种手段,但如果今后人工智能真的达到了接近人的智力水平,想仅仅通过外部观察判断,恐怕就很困难了。(图灵测试本身的要求就是让人无法分辨是人还是机器)。

问题:AI能算是第四次科技革命的成果吗?还是只是第三次革命当中互联网的衍生?算不算是像蒸汽机一样可以推动重大社会变革的技术呢?

互联网和人工智能之类的技术近年来催生了“第四次工业革命”这个概念,请问发展现状大概是处于其中的初期、中期还是末期呢?人工智能现在发展越来越快,AI在哲学等世界认知方面有没有超越人类大脑的可能?

A:我想你所说的“第四次科技革命”指的是“第四次工业革命”,2015年世界经济论坛主席克劳斯·施瓦布把人工智能也纳入其中。人工智能并非互联网的衍生产物,我们课上回顾了,人工智能的历史可以追溯到70年前图灵的文章《Computing Machinery and Intelligence》,也可以从1956年在美国达特茅斯学院举行的“人工智能夏季研讨会”算起,而那时还不存在互联网。人工智能已经深刻推动了社会变革,如今,在人们生活的方方面面都有人工智能算法的足迹。

目前AI在哲学等世界认知方面超过人类还没有可能。目前的人工智能只能在一些特定任务中接近或者超过人类,例如围棋、图像识别、翻译等。对于哲学等需要深刻思想的领域,人工智能尚不具备接近或者超越人类的可能。

科学研究本身也可能对哲学发展起到促进作用,例如量子力学与自由意志。人工智能的研究能否为哲学的发展提供新的素材,我们可以拭目以待。

目前世界范围内,人工智能尚存大量争议和讨论,有很多技术层面的问题,也有很多在探讨智能、人、机器的哲学层面的值得思考的问题。请问就人工智能而言,您认为哲学问题和技术问题应该先解决某一个呢?还是同时解决,在发展中逐步攻克?

现代的计算机科学和哲学有什么内在联系?

A:技术和哲学的发展往往是相辅相成的,我们很难将两者剥离开来。无论人工智能技术如何发展,都离不开哲学对人类意识活动的整个过程及其各种因素的认识与理解。而伴随着未来人工智能技术的进步,也可能引发新的哲学层面的思考和问题,进而反过来指导技术发展,避免产生弊端。我相信未来科学家们会在二者的相互作用中攻克各自领域的问题。

而科学与哲学的关系错综复杂,不是三言两语能说清楚的。给你推荐一本书,艾伦·查尔默斯的《科学究竟是什么》,这本书介绍了科学与哲学交叉的领域。

请问老师对于AI成为热点有什么看法?作为个人现在选择AI行业会不会遭受很大的竞争压力?

A:任何专业都有热的时候和不热的时候,但任何专业都有自己的价值和发展。我们选专业一定不是冲着热门去的,而是尽量要选自己喜欢,适合自己的专业。什么是喜欢,这个容易理解;什么是适合?这个要自己摸索。无论在哪个专业,想做到最好都需要比别人更加努力。

作为一名文科生想请问刘老师的研究领域是否能与人文社科相结合?可以说明其中的原理吗?

(严君啸、姜春阳、易英凡、林小渠、袁韵茹等多位同学在弹幕中也提到了类似问题)

A:文科生能做的事情有很多。你可以给机器学习专家贡献你的专业知识,也可以从人文关怀的角度去研究人工智能法律、伦理和哲学问题等等,而且这些方法也是避免技术产生弊端的途径之一。例如,随着无人驾驶技术的逐步应用,有很多法律问题亟待解决。举个通俗的例子,无人驾驶车辆撞了人,车辆生产者、车辆销售者、车辆所有人、车辆驾驶者等多方主体,分别该负多少责任呢?这是一个法律难题。包括无人驾驶在内的人工智能带来的新问题,也已经成为法学研究的新热点。

如果人工智能最终超过了人类,人类算是进化了吗?

A:在很多具体的任务中,人工智能已经做的比人类好了,比如深蓝、AlphaGo分别在国际象棋和围棋中战胜了最优秀的人类棋手,再比如在ImageNet竞赛中,深度神经网络也取得了超过人眼的图片识别准确率。

“进化”是一个生物学的概念,在维基百科中被定义为“生物的可遗传性状在世代间的改变”,人类最终创造出了超过人类的人工智能,这无疑是人类科学技术的进步,但似乎并不能认为是“可遗传性状的改变”。或许你的意思是“人工智能超过了人类,人工智能作为新人类,相比于普通人类,是否能称作人类的进化”。这是个很有趣的问题,按照“进化”一词的现有定义,人工智能与人类没有世代传承的遗传物质,因此我觉得不能称作“进化”。至于人工智能超过或者接近人类智力的时候,能否将人工智能称作人类,这不是一个技术问题,而是一个伦理与道德问题,需要各学科尤其是人文学科的共同努力来解决。从技术角度看,在可遇见的未来,我们还不会遇到这个问题。

脑机接口技术距离实际应用有多远?如果实现广泛运用真的能使人类“进化”吗?中国目前有无脑机接口技术相关科研项目?

(于佳辰、侯华玮、吴祺、牛博雅、王田等多位同学在弹幕中也提到了类似问题)

A:脑机接口一直是电子、生物医学工程领域研究的热点。脑机接口的研究不仅和脑科学有关,它更是一门跨学科的研究,除了其本身的技术壁垒,随之而来的社会伦理问题更是亟待解决。因此目前脑机接口技术距离实际应用仍有很长的路要走。

按照“进化”一词的现有定义,人工智能与人类没有世代传承的遗传物质,因此我觉得不能称作“进化”。至于如果未来脑机接口真的实现广泛应用,能否使人类产生“进化”,这不是一个技术问题,而是一个伦理与道德问题,需要各学科尤其是人文学科的共同努力来回答。

探究人脑机理和脑机接口从科学研究上是有意义的,但正如前面所回答的,我觉得这样的技术路线也很危险,需要法律和执法机构做有力保障。目前国内浙江大学团队在脑机接口技术方面研究处于领先地位,曾在今年1月对外宣布“双脑计划”重要科研成果。清华大学生物医学工程系也有团队专门做这方面的研究,你可以多多关注。

1. 泰格马克在他的书《生命3.0》中提出一种观点,认为人工智能在未来可以作为人类文明的传播者和延续者,做到掌控比人类目前所能利用的还要多许多个数量级的能量,比如利用整个恒星的能量,如果这种图景能够实现,那么到那时人类是否应当把控制权让度给人工智能,还是试图控制人类可能已经无法理解的人工智能?

2. 有人认为人工智能的学习和迭代只能基于过去的数据,因此它的发展永远受到它的限制,因此不用担心人工智能取代人类,对此如何看待?

A:从目前人工智能发展的实际来看,泰格马克的想象并不具备任何可能,这是一个伦理问题,我想按今天人类的伦理标准,是不允许机器取代人类的。

现在的人工智能只是人类设计的算法,是按人类意志工作的程序。基于目前人工智能发展模式,还没有技术能赋予机器“意识”,因而也不存在取代人类的可能。

刘教授您好,就我了解,目前人工智能在皮肤科、病理科和影像科上已经有了比较好的应用了,我想请问一下,未来人工智能有可能完全取代医生这个职业吗?或者说有没有哪些科室是人工智能无可替代的?谢谢!

(吴睿、左祎睿、周卓翔、王芊蘅等多位同学在弹幕中也提到了类似问题)

A:你说的很对,目前人工智能在一些医学领域已经得到了应用。但医学是一门理论与实践并重的学科,按照当前人工智能发展的规律,它并不能比人类掌握更多的知识,只是在特定领域比人类做得更好。医疗并不只是简单的诊断和治疗,中间的人文关怀必不可少,纵使有一天人工智能可以给出和医生一样的处方,也依然需要医生来做最后的把关。

教授您好,人工智能在建筑领域会得到那些运用?在将来机器人会不会取代劳动力的地位?这样的弊利相比如何?

A:人工智能在建筑领域的潜在应用是巨大的。例如,从实施过程来看,人工智能在施工中给管理者和工人提供数据分析、过程管理等服务,可以增加施工的安全性,提高施工效率。从整个工程信息平台、建筑管理平台来看,应用人工智能技术在节能、建筑安全方面都有不少价值。正如前面所回答的,我觉得一些机械性重复性的工作更有可能被人工智能取代,而像建筑设计师这种需要创作的职业就更难被取代。

技术的发展在促进社会进步的同时,不可避免地会暂时引发相关行业失业率增加的问题,但同样会在其他场景创造出新的工作岗位。对个人来说,要担心的不是人工智能抢饭碗的事情,更多应该担心自己的知识和能力储备不够,被别人抢饭碗的问题。我相信人类的能力一定会适应社会的新变化。

在艺术创作和文学创作等需要灵感会这说内涵的领域,人工智能是不是能做的像围棋,象棋等领域那样好呢?

刘云浩教授您好!您认为AI在文学、艺术等更具创造力的领域会有多大作为?如果有一天它们得到了极其惊艳的作品,是否可以希望批量生产类似质量的作品?有人认为如果机器一味只学习网上的各种资料来增强自己的能力,可能会在一开始就把许多惊世骇俗的创意放弃掉(包括如果去做评委),对此您怎么看?

(冯文祎、吴葛一、尹小玲、朱煜章、王宣涵等多位同学在弹幕中也提到了类似问题)

A:目前AI在艺术领域已经进行了一些尝试,在2018年,一幅AI创作的肖像画拍出了432500美元的高价,这幅画叫Edmond de Belamy;在文学创作上,OpenAI公司的GPT-3可以写出一些有趣的短文;在音乐创作上,来自于清华的DeepMusic团队尝试用AI作曲。但是,AI在艺术领域的进展远远比不上它在图像处理等领域的成就。

机器的创作与人的创作有本质的不同,基于现有的技术,我们很难说AI真的理解艺术中的美感与表达的情感,课上我们简单讨论过,人的创作需要灵感,寻找灵感的过程有时就像大海捞针,王羲之就曾说过,《兰亭集序》如果让他再写一次,没有了当时的灵感与情感迸发,他很难再写出那个水平。以作曲为例,AI可以通过算法穷举音符的各种组合,通过一些规则过滤掉其中明显刺耳的那些,再基于历史数据最终挑选出可能符合人们审美的旋律,这很难说是基于灵感和情感的艺术创造。今后我们很可能会看到很多机器产生的“作品”,但我认为它们不能取代人类。

将生物元素(如发达的神经系统等)融入人工智能或计算机技术是否可行?

A:你的想法是完全可行的,例如今年2月,《自然》旗下的《科学报告》刊载了一篇来自欧洲多国研究人员共同发表的成果:Memristive synapses connect brain and silicon spiking neurons,在芯片上连接了大鼠神经元和人工神经元。

想问刘老师人工智能技术在生活中的应用,和这些应用什么时候能普及。

(刘金辉、祁彬、张毅轩等多位同学在弹幕中也提到了类似问题)

A:人工智能在日常生活的方方面面都有有趣的应用。例如,在家居生活中利用语音识别、语义理解等技术为人们提供智能服务;出行方面,通过无人驾驶技术解放人的双手,使出行更加便利;工作方面,AI甚至可以辅助人类进行写作、设计等等。我相信人工智能在不远的将更加深入人们生活,也会帮助我们解决很多实际问题。

人工智能技术目前在自动化生产方面有哪些类型的应用?具体的例子有哪些?

A:AI最明显的优势之一就是能够完成重要但重复的任务而不会出错,从而使单调的任务可以更高效完成。在自动化生产方面,典型的应用包括对于工业设备的数据采集和故障诊断,对于工业产品的优化设计分析,以及对于人工操作的辅助和替代等。具体的例子如亿嘉和公司研发的电力巡检机器人,可以在复杂环境中高机动、平稳运行,高效完成巡检工作,促进生产安全和效率。如果你感兴趣,可以进一步搜索“2019人工智能案例TOP100”等查阅相关案例。

人工智能和脑科学有哪些结合方向?

A:全球科学家已经日渐达成共识,AI要想进一步发展,就需要从脑科学得到启发。人工智能与研究脑神经科学捆绑在一起所形成的交叉学科有人称为认知科学,主要研究思想和认识的形成以及工作机理。现阶段对于脑科学、脑认知的机理仍不清楚,这方面的研究工作也一直是热点。

如何将人工智能应用于在复杂宇宙环境下对卫星运行轨道进行预测(例如装在磁力矩器)?

A:人工智能在航空航天领域已有了许多应用,例如今年5月份SpaceX发往国际空间站的火箭上就搭载了一个基于人工智能的自动导航系统。对于人工智能技术在各个领域的应用,离不开各个领域自己的专业知识作为支撑,所以,在这次人工智能技术浪潮中,各个专业的同学都可以是参与者。

生物学有一个人类DNA组计划,主要是研究非基因片段对人类基因表达的影响,在这个过程中需要对结果进行大量分析,请问这个过程能否通过AI来简化流程,加快速度?

A:如果你指的是人类基因组计划,那么它的阶段性目标已经完成了。人工智能在基因领域的应用近年来也有一些成果,一个典型的案例是Google公司设计的AlphaFold系统可以从基因序列中预测蛋白质的属性。

现在人工智能发展到现在,离通过图灵测试的距离还有多少?

我们是否被图灵测试所限制了,究竟要如何体现“智能”?

A:2014年,名为Eugene Goostman的聊天机器人“通过”了图灵测试,但这一结果备受争议。换言之,还没有机器通过图灵测试,但是这个我相信不遥远了。

我们谈论图灵测试,其实是想从人的智能的角度来判断机器是否具备人类的智能,这个标准其实是比较主观的,按目前人工智能的技术发展来看,在可预见的未来还看不到这种可能。

人工智能和VR有什么关系?

A:VR主要涉及计算机图形学和计算机网络等领域。不过人工智能技术在VR领域也有所应用,例如,利用人工智能技术预测你的视角变化从而提前缓冲相应区域的VR视频内容。在应用层面,利用AI技术使VR中的虚拟人物在和你交互的时候显得更逼真等等。

计算机的算力会不会有极限,如果有极限或者提升瓶颈,这对于深度学习的效果会不会有影响?

A:计算机的算力可以从两方面来理解。一个是它本身的运算速度,另一个是数学层面的计算复杂度。计算机本身的运算能力在相当长的一段时间里,主要都是受工艺的影响,也正因此,随着工艺的不断进步,基于神经网络的深度学习一直到最近10年才有爆发式的增长。而这种增长是受到物理规律限制的。另一方面,算法也是有极限的,例如很多问题我们还提不出或是无法提出较优的算法,这个极限也很难甚至无法突破。

高级AI的研究是否需要依托于强大的计算机?这里的“强大”需要到什么程度?我国目前的超算能否为AI研究提供足够的条件?

A:目前AI的研究确实需要依托强大的计算机,例如打败柯洁的AlphaGo使用了64块GPU进行训练。目前,我国的超算处于世界一流水平,但服务对象主要是生物医药、海洋科学、油气勘探、气候气象、金融分析等领域,AI所需的计算资源与这些领域不尽相同,针对AI的长三角AI超算中心已于今年6月开工。

目前的人工智能已经发展到什么地步了,未来几年AI的发展会不会像前几十年互联网一样席卷全球?假如要工作的话,目前有什么可以推荐的职业吗(好像有点实际... )?

当下人工智能等专业的就业情况如何,除了继续深造或从事理论研究等以外,具体在社会中会从事哪些职业,做什么工作,工资待遇等如何?

(丁晟元、单江涵、吴限、张昊翔等多位同学在弹幕中也提到了类似问题)

A:现在人工智能在特定领域取得了非常好的效果,科学家和工程师们都在努力地把已有的算法用在各个行业里,不过目前还不存在普适的人工智能框架,因此人工智能虽然会触及各行各业,但以怎样的方式影响,还有待实践检验。对于就业的问题,我的观点是一贯的,不管做什么,你都要让自己成为不可替代的那一位。这个听起来有点儿虚,其实意思很简单。我们课上也说了一个笑话,两个碰上熊的朋友,一个人问另外一个你干嘛这么努力系鞋带难道能跑过熊?那个人说,我不用跑过熊,只要跑过你。

从短期来看,如果不做理论研究,那么人工智能方向目前的就业还是集中在算法工程师方面,就业的范围从互联网公司到各种大型企业都有,通常来说,做算法的人收入水平要高于普通的开发者。

请问刘教授,目前人工智能还只是在人类制定的规则下进行学习训练以及决策,如果让机器具有情绪并实现释迦牟尼式的无中生有的顿悟,除了电子技术、运算技术外,还需要在哪些领域取得突破?会是化学或生物技术吗?未来的人工智能会不会向有机生物(甚至是生命体)发展?

A:从现状和技术发展趋势来看,人工智能还无法做到具有人类的“情绪”、“认知”或“意识”。人类的认知尚且是生命科学还没能解决的难题,要想让人工智能也具备认知,不仅需要在计算机算法层面取得突破,还需要各个领域的融合,包括生物、化学、人文等学科。至于未来人工智能会不会向有机生物发展,这个还很难说。但目前技术条件下的AI还只是算法和为人类服务的工具。

中国人工智能发展处于哪个阶段?和世界AI发展最好的国家还有哪些差距?

人工智能未来的发展巅峰大概是什么时候?中国在人工智能领域在未来的发展前景如何?

A:在应用层面,我国的人工智能发展处于世界一流水平;在理论层面,我们跻身于领跑团队,但是绝对不是第一,总体上还处于快速发展阶段。正如我在讲座中提到的,当前的深度学习技术是人工智能技术的第三次爆发,而现在它的发展已经看似趋于顶峰,在深度学习之后是否还有新的爆发,这也是你们要去开拓的,3年后你们很多人很可能进入了大学实验室做科研了,10年之后你们就是主力军。

阿西莫夫的机器人三大定律对未来人工智能是否适用或者是否需要进行一定修改?

想问一下阿西莫夫笔下的三法则对当今人工智能是否有指导意义

A:阿西莫夫笔下的机器人,其实已经具备了我们所说的“强人工智能”的特点。阿西莫夫提出的总原则“机器人必须保护人类的整体利益不受伤害”在任何时候都是具备指导意义的。但是,人工智能也是人类的作品,如果制造它的人满怀恶意,那后果也可能是极其危险的。所以在讲座中,我也跟大家分享了我对人工智能伦理的一些看法,而这些问题也正是人文科学工作者大显身手的舞台。

科学界对于康德的不可知论持何态度?目前人工智能发展速度是指数型还是分段型?

A:不是不可知,而是人类认知的局限性。这个是普遍认可的。

目前人工智能处于第三次爆发阶段,大家普遍认为深度学习在这个阶段已经接近极限。

人工智能认知的基础究竟是什么,未来的发展趋势(认知这一方面)又如何?

AI以后的发展方向和应用领域?

老师,您认为人工智能的前景广阔吗?它真正的前景和未来的更大领域的应用会在何方?

人工智能未来可以和哪些领域更好地对接?

问一下刘教授未来AI具体有哪些发展方向(比如应用在哪些地方)?我觉得太宽泛反而不容易有所突破

AI今后会向什么方向发展?它的发展是会走向发展意识的方面,或是发展更多的功能的方面?

(刘一鸣、刘海丰、刘芳芸、张景皓等多位同学在弹幕中也提出了类似问题)

A:从现状和技术发展趋势来看,人工智能还无法做到人类的认知,现在的人工智能只能按照人类预设的方式产出结果,并没有所谓的“认知”或“意识”。

人类的认知尚且是生命科学还没能解决的难题。在今后的一段时间里,人工智能还是会以领域应用为首要发展目标,人们会在各行各业探寻人工智能技术的应用落脚点,无论是自然科学、社会科学还是各行各业的生产生活工作,我们都会看到人工智能的应用。但人工智能的发展是否止步于此呢?Judea Pearl认为当前人工智能基于概率模型的这条路已经走到尽头,要想推进人工智能的进一步发展,我们应该另辟蹊径,去探寻思维背后的因果推理框架。这也许将成为未来新的研究热点。我给大家推荐他的书,Why,大家英文能力强且有兴趣,非常值得学习一下。

在生物方面,可以利用改进后的人工智能对脑死亡的患者进行大脑刺激,以期增大苏醒几率,或是进行音频复刻,传输周围人想要让植物人了解的信息吗?

刘教授您好!请问人工智能的劳动能否创造价值?

A:经典的劳动价值理论是否适用于人工智能需要画个问号。举个例子,现在越来越多的工厂应用了大量智能化、自动化技术,人越来越少,劳动效率越来越高,这样的工厂创造的价值反而更高,价值从何而来?所以在这个时代下,人类劳动也许并非价值的唯一来源。

人工智能本质上研究的是什么?人工智能发展的最终态会是怎样的呢?互联网会有一天消失吗?计算机的发展就是数据计算功能的日益强大吗?AI在日后的发展方向是什么?

A:目前看不到互联网消失的理由。计算机的发展并非只是提高计算能力,从理论到生产制造,方方面面的发展都会推动整个学科和行业的进步。人工智能的不同流派研究的内容实际上是不同的,例如,符号主义更关心认知的原理,行为主义更关心整体的控制,而连接主义则更关心神经元及其关系。归根到底,大家都是研究什么才是人的智能以及怎么让机器更智能。目前哪种流派会取得最终成功,抑或是需要几种方式结合才能成功都还不得而知。

我想问问刘老师,现在AI发展速度是快还是相对放慢的?

A:这是一个因人而异的问题,对于从业者来说,希望产业发展的越快越好,所以对他们来说,很可能会觉得人工智能发展速度不够快。但对于大众来说,铺天盖地都是人工智能的宣传,所以对他们来说,可能会觉得人工智能发展速度很快。这个发展速度本身也不是一个有科学方法衡量的量。

刘博士,您好!请您谈一谈计算机本科生的就业前景,以及计算机硕士乃至博士,学位对计算机人自我发展的影响。有人言互联网专业有无比美好的前景,那么读硕士读博士会不会使自我技能被学历延误而导致过时呢?谢谢您!

A:硕士博士都是研究生学历,顾名思义,研究生的主要任务是在本领域做一些研究工作,最终具备独立或半独立做科研的能力。当今这个时代,新知识是层出不穷的,因此谈论过时是没有意义的,而自主学习能力恰恰是大学教育中重要的一环,所以不必为这样的困惑担忧。无论什么学位,你具备了应有的能力总能找到适合自己的工作。“天生我材必有用,千金散尽还复来”,随着年龄和阅历增长,对于李白这句诗的体会就会越来越铭心刻骨。你10年20年之后看这段话,也和今天的体会完全不同。

人类能创造出人工智能,那么人类有可能创造出人工意识吗?

人工智能未来是真的可以和人一样能自主思考吗?或者是只能在程序下工作思考?

“图灵测试”的概念非常有趣,在未来,机器人真的可以像人类一样拥有自我意识吗?

(陈亦然、刘慧敏、李松毅等多位同学在弹幕中也提到了类似问题)

A:目前的人工智能不具备自我意识,按照目前的技术,人类无法创造出有自我意识的人工智能。图灵提出了著名的图灵测试来判断机器是否具有“智能”,而关于机器是否具有“意识”,目前尚没有相关的判断标准或思想实验。关于人类自身的意识究竟是什么,是如何产生的,这是生命科学也尚未能解决的难题。所以现阶段,当我们谈论人工智能的思考,其实都是在谈论人类设计的算法。未来可能创造出意识吗?很可能可以非常接近,但是不能真正创造出来。当然,这也许是个好消息。

想问一下有哪些给greenhand推荐的计算机书籍?

(叶佳鑫、宋一川、丁晟元、严君啸、刘锐琳、刘健、夏有阳、尤明荃等多位同学在弹幕中也提到了类似问题)

A:计算机入门读物我推荐《编码:隐匿在计算机软硬件背后的语言》(Charles Petzold著);人工智能读物我推荐《为什么》(Judea Pearl、Dana Mackenzie著)。能读原文就咬牙读原文。

想请问问一下AI自主学习的原理是什么?

A:目前,人工智能并不具备人类的自主学习的能力,如果把语境限制在神经网络,所谓的学习通常是指“训练”,即给模型一些数据,让它通过算法把模型中的参数拟合出来。

我想问大学学人工智能的话,学习上会有很大的跨越吗,如果有,在大学前如何做好衔接工作呢?

刘教授您好!请问大学要是学计算机现在需要准备数学物理方面的哪些知识(如微积分等等)?

上大学再学编程还来得及吗?

请问刘教授:自己对计算机非常有兴趣,对于计算机编程有过一点点的接触,这样的话如果大学想选择计算机专业,会不会因为零基础而吃亏呢?或者说零基础是否建议选择计算机相关专业呢?

刘老师,高中没学过信息竞赛,也没有编程基础,但感觉可能计算机方面比较适合自己,看到姚班智班,这些同学起跑线就甩了我一大节,大学学着会不会特别吃力啊?

(崔铸贤、伊亚杰、叶佳鑫、刘杰、刘芳芸等多位同学在弹幕中也提到了类似问题)

A:不只是计算机或人工智能,任何专业的学习都与中学有较大的差别,不过大家不用担心,培养方案的编排是符合教育规律的,只要按照教学计划学习就可以了,不用担心自己是否有基础。每年我们录取的新生中,都有非常多的同学在计算机方面是零基础的。你真的别担心。我给你讲一个我的例子。初中的时候,很多同学小学根本没有碰过英语,而我和其他几个人小学上过一年的英语课。我们就很得意。老师说你们别得意,很快大家就拉平了。果然到了初中毕业的时候就已经分不清楚谁是小学学过英语的了。大家不要担心基础问题。当然,你提前学习一些相关知识肯定只有好处没有坏处。

至于“姚班”“智班”,并不直接面向高考招生,有单独的报名和考核流程,如果你有兴趣,可以关注交叉信息研究院的官网。无论在哪个院系,并不影响你的学习。

如果说基因有自发的复制趋向,那么在理论上,人工智能的程序有没有可能会出现这种自发的复制或变异行为呢?

A:基因复制是一个生物学概念,也是生命得以延续的基础。本质上来说,人工智能只是人类创造出来为自身服务的技术和工具。人工智能程序是否会出现复制或变异行为也取决于算法设计师对程序的设计和实现。

我想问刘教授对于未来AI方面的人才应该具有什么样的品质?

A:不管从事什么行业,我认为最重要的素质都是持续学习新知识的能力和敢于认知新事物的态度。

请问通用人工智能和工业人工智能的主要区别是什么?两者在技术上的难点分别在哪?

A:工业人工智能是部分研究人员提出的概念,指人工智能在工业中的应用,因此从原理上来说没有区别。从应用上来说,工业场景下有许多不同于消费领域的应用,例如工业控制、工业物联网等等,这些场景下,应用所解决的问题是有所不同的,例如一些应用对实时性要求极高,那么在云端做AI计算的模式就行不通,这都需要新的方法来解决。

哥德尔不完备定理是不是证明演绎推理体系是有尽头的?如果是,理论上可不可能发现完备性更强(比如避免ZFC公理本身一致性的不可证)的体系?

A:哥德尔不完备性定理对所有包含算术的公理体系适用,没有可自证一致的“更强”的公理体系。但如果抛弃一些运算,情况又不一样了。这方面我不是专家,欢迎来清华系统学习。

我想请问,在人类对人脑的认识尚未完备之际,提出的深度学习种种算法都有详细的理论依据吗?还是只是“模仿”呢?

A:神经网络这一技术的出现是受到了人类神经系统的启发,但并不能说其是完全按照神经系统设计的。深度学习算法在数学上有自己的理论,如果你感兴趣的话可以在清华大学创办的“学堂在线”上学习一下相关课程,例如人工智能原理、大数据机器学习等,MIT的课程Introduction to Deep Learning你也可以关注一下。

“仿生”的方法在科技史上并不罕见,例如莱特兄弟发明飞机时从鸟儿中获得了灵感,但飞机的飞行与鸟儿的振翅飞行还是有很大不同的。

提问:未来如果量子计算机实现了,其数学实现(是这叫法吗?)是否突破了图灵——冯诺依曼的框架,还是只是允许计算机由单线计算变成并行计算?

A:量子计算机的重点在于量子,简单来说,它是一种可以实现量子计算的机器。而冯·诺依曼体系结构是计算机架构,并不涉及是哪种计算机,量子计算机也可以采用冯·诺依曼体系结构,因此并未突破其框架。

请问刘教授如何看待费米悖论和黑暗森林法则?

A:我不是天文学专家,因此只能谈谈我自己的理解。费米悖论里有很多因素其实还是不确定的,例如,生命诞生的概率到底有多高?初等生命顺利进化到高等生命的概率有多高?如果这些问题的答案都很低,那其实这也可算作大过滤器。从相对论来看,实现星际旅行并非易事,甚至在我们这一代人身上还看不到任何可能。至于黑暗森林法则,作为科幻小说里的基本准则,我觉得是自洽而且成功的。但是注意,是文学作品里的法则。

想问下老师复杂编程与AI的本质区别在哪里?

A:我不知道你所说的复杂编程指的是什么,如果你指的是代码行数的话,那么包括AI在内的很多系统想做出来并不容易,大家的工作量都很大。

尤瓦尔赫拉利在未来简史说:"生物只是一种算法",问一下老师对这个说法怎么看,算法在人工智能里是什么地位?

大数据和人工智能的关系和区别有哪些,数据和算法对人工智能的作业意义何在,人工智能和一般计算机科学有什么区别?

A:如果我们把人当成一个黑盒子,那么他/她可以接受外界的输入(视觉、听觉、触觉等),他/她也可以对外产生输出(动作、声音等),从这个层面来说,和算法殊途同归,但实际上,生物远比我们能设计的算法复杂得多。人工智能是基于许多不同的具体算法实现的,例如数据清洗算法、数据增强算法、模型训练算法等等。

当前这波人工智能热潮中,最突出的技术就是深度学习,深度学习模型的成功往往依赖于海量的训练数据,没有这些大数据作为支撑,深度学习技术就会“巧妇难为无米之炊”;反过来,大数据技术想要从海量数据中挖掘出有价值的信息,也离不开人工智能技术。

用高中的学习打个比方,数据就好比是课本、试卷等学习材料,算法就是每位同学的学习方法。人工智能是计算机科学的一个分支,它在计算机科学的其它分支中也有应用,例如利用人工智能预测用户的网络请求,从而提高网络缓存的性能。而计算机科学其他分支对于人工智能的发展也有帮助,例如边缘计算的研究让人工智能以更低的成本、更快的速度服务用户。

A:图灵机是图灵提出的一种数学模型,或者也可以理解为一种思想实验。一个图灵机包括四部分:1. 一条无限长的纸带;2. 一个可以左右移动、读出或者修改纸带上内容的读写头;3. 一个记录当前机器状态的装置;4. 一个控制规则表,根据当前状态和纸带的内容决定读写头下一步操作是什么的表格。图灵认为这样的一台机器就能模拟人类所能进行的任何计算过程。这样讲非常抽象,我推荐你们上网找找讲解视频,对照动画很容易就能理解图灵在说什么。

图灵测试主要让评委相信计算机是人。我先前看过一篇小说,有关“反图灵测试”:计算机作为评委评判两个人(对二人进行图灵测试),最终计算机在未被告知的前提下判断出了自己是计算机。

您认为这种测试是否有意义?或者说,AI的qualified与否,仅仅靠“欺骗”来定义,而不进行自我认知,是否合理?

A:你提到的这种测试方法非常有趣,他对人工智能的要求比图灵测试更高,图灵测试只要求机器对外界输入的反馈与真人无异,但你提到的这种测试要求机器要具有自我意识,而且能够跳出预设的思维模式,进行自我的反思。目前的技术手段还不足以赋予机器自我意识,因此,这种检测方法还没有现实意义,不过出现在文艺作品中确实可以让情节更加出人意料。但是,是否通过了这种测试,就真的能证明机器有自我意识呢?是否有可能机器只是机械地输出了“我是一个机器人”?

要对自我认知进行检测是非常困难的,比如,让你证明你具有自我意识,你要怎么做呢?如果你看过《飞越疯人院》,你就知道,自证一件事,往往很难得到他人的认可。这或许需要全新的理论体系。

我想请教一下Luddite Fallacy,人工智能引发的社会分配和公平问题?

A:19世纪,英国工厂中广泛应用机器,导致大量工人被迫下岗,引发勒德运动。短时间看来,由于人工智能的发展,机器在某些领域取代人类工作,因此会造成相应行业工人失业率增加的现象,似乎也会引发Luddite Fallacy。但实际上,从旧技术向新技术的转移与总体就业率下降并不是一回事。人工智能对人的职业的取代,将转化为对人的劳动的解放,且与此同时会在其他场景创造出新的工作岗位。整体长远来看,人均收入、居民消费及社会发展都会随着新技术进步而得以提升,总体就业率也会进一步增加而非降低。至于由于特定领域从业者由于职业被人工智能取代所引发的失业及公平问题,这肯定需要国家和社会层面进行全局调控。

关于那个汽车是否避让的问题。能不能让那一路段的所有汽车同时参与决策,让多个汽车避让,从而化解这个问题?这在技术上实现难度是否较大?

A:汽车避让本质上是个伦理问题。当然,在理想的情况下,我们或许可以设计出规则避免意外发生。但仍然有很多情况,意外在所难免。有关这一问题,你可以去找找牛津大学的公开课《伦理学入门》,也可以关注MIT的“道德机器”。

问题:请问刘老师认为钱学森的控制论与当时的计划经济是否有逻辑联系?

A:如果我们回顾控制论的历史,它起源于1948年诺伯特·维纳(Norbert Wiener)发表的奠基著作《控制论——关于在动物和机器中控制和通讯的科学》。与计划经济应该并没有关系。

1.老师您好!可不可以做如下推理?因为人脑是有限物质,人工智能一直在进步和发展,所以必有一天人工智能会“超越”人脑。如果这成立,您估计达到这一步还要多久,要朝什么样的技术方向发展呢?

2. 如果人工智能最终有了人类的思考水平,我们将它还以Artifact相待吗?还是以异族相待呢?我们和人工智能会成为物种竞争的关系吗?

3. 如果我们能机械地制造一个完全仿人类大脑的AI那它算是conscious吗?

A:有限的物质也可能产生出无限多种组合,举个例子,细胞的动作电位就是个连续值,当几百亿神经元相互联结在一起时,便有无穷多种可能。按照目前技术的发展,还看不到人工智能“超越”人脑的可能。研究大脑并模仿其原理构建系统是很前沿的研究,国内外都有很多机构在做这方面的研究,清华也有类脑计算研究中心专门做这方面的研究。所谓完全仿人类大脑,这个“完全”目前还做不到。

如果高中时在数学和物理学科方面不是非常擅长的话,那么是不是最好不要在大学时选择AI专业?

A:AI专业(计算机专业)对于数学和物理的要求并不会比其他工科专业更高。不管你将来选择什么专业,在高中时学习好各科基础知识(不光是数学物理)都是很重要的。

请问:AI在日常生活中的应用会使人产生对信息存储和处理的依赖从而向低智化碎片化发展吗?或是对人的智力有提升促进作用?在决策时,AI提供的理性分析与人类的情感之间应如何权衡?

A:AI的进步和发展给人们生活带来巨大便利的同时也势必会促进社会的飞速发展,我相信人类的能力和智力也会进一步提升以适应社会的新变化。AI今后一定会为人们决策提供有力支持,但做决策最后拍板的一定是人。至于如何在AI理性分析和人类情感之间权衡,需要具体问题具体对待。究其根本,AI只是为人类服务的一项技术和工具,而决策权则掌握在人类手中。

有人提出大脑的工作机理可能也是一个黑盒的计算问题。那么请问人工智能的发展是否有助于我们反推人类思维与决策的机理,促进人文社会学科的发展呢?谢谢

A:人工智能本身其实就是一个知识跨界的产物。人们通过借鉴神经认知学的发展,来模拟人类智能。而AI的成功应用反过来也有助于人类进一步认识自身智能是如何形成的。人工智能作为一项可能决定人类未来发展的关键技术,不只是属于科技界的“热闹”,同样离不开人文社科的参与。

人工智能有没有可能有自己的思想呢?关于那些人工智能的悖论您怎么看呢?

问题:关于人工智能悖论,目前科研界的主流支持何种态度,在未来是否会转变?

A:对于“莫拉维克悖论”(Moravec's Paradox),学术界的态度还是以先解决问题,再解释原因为主流,在我们弄明白这些看似简单的问题要怎么解决之前,解释它们为什么困难并不容易。

1.老师好,我想问一下关于图灵测试的问题。我们为什么要进行图灵测试来测试一个机器,从而判断其是否具有人类智能?

2.“中文房间”思想实验对于图灵测试的意义是什么,是推倒了它还是强化了进行它的意义?

3.俄罗斯的尤金·古斯特曼通过图灵测试有什么历史意义呢?

A:图灵测试是图灵在1950年提出的一种测试机器是不是具备人类智能的方法,即一台机器如果能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。这一测试是检验人工智能的一个经典标准。

至于“中文房间”思想实验是否成功否决了图灵测试的有效性这一问题,和所有哲学问题一样,我认为是见仁见智的,取决于到底如何定义拥有“智能”或“心智”,关于它的讨论也集中了很多优秀的哲学家的工作。

虽然在2014年有名为Eugene Goostman的聊天机器人“通过”了图灵测试,但是并不受到广泛认可。我们谈论图灵测试,其实更多是一种哲学思考,一个思维实验,是想从人的智能的角度来判断机器是否具备人类的智能。目前没有公认通过图灵测试的机器。

刘教授您好,请问AI智能机器人的学习能力强弱取决于什么呢?

A:AI的学习能力可以从两方面来衡量,一个是模型本身的能力,例如GPT-3的能力就显著强于其他自然语言处理的模型,另一个则是设备能力,训练设备越好,训练的速度就越快。

1.人工智能的不断发展对社会就业的巨大影响有利有弊,但对我们的影响是利大于弊还是弊大于利?   

2.人工智能对社会生产力的影响主要体现在哪?

case。这是从工作的数量上来说的,从质量上看,人工智能可以将人类从简单重复的枯燥工作中解放出来,让人们有更多的机会做自己喜欢的事情。从我们个人发展的角度,我们要做的就是终身学习,提高自己学习新知识的能力,从而能够适应科技的不断发展所带来的改变。在现阶段,人工智能只能在一些简单的、有确定规则的领域取代人类,而在那些依赖于人类的思考能力与创造能力的领域,人工智能能做的还非常有限。

第二个问题,人工智能在社会生产的各个方面都产生着影响。比如亚马逊和阿里巴巴的无人仓库利用机器人搬运货物,提高了物流系统的效率;许多企业使用人工智能客服,虽然不总能给出让人满意的答复,但总体上还是减轻了人工客服的工作负担;再比如波音公司通过“预测性维护”大大减少了设备维修的成本。

1.新时代下人类的分工是什么?

2.新兴专业会不会落了老专业,我们如何处理?

3.为什么您作为理科生还能获得文学硕士学位呢?您是如何做到文理兼长的呢?这对学理科的我们如何平衡好语文英语等文科性学科和数理化生物又有怎样的启示呢?老师您能为我们解答一下吗?

为什么老师获得自动化系工学学士后去了翻译学院?

听到老师的讲座,发现老师不但在计算机与人工智能方面很有成就,而且在哲学与文学方面也很了解。请问老师是如何做到文理兼长的呢?

A:第一个问题,随着人工智能等新兴技术的发展,我认为从事重复性劳动的人会减少,从事创造类、研究类、服务类工作的人会增多。同时,这些新兴技术也会创造出许多前所未有的工作岗位。

第二个问题,专业热门与否是随着时代的发展而不停变化的,并没有一直热门的专业,自己喜欢的、适合自己的专业都是好专业。在每个专业做到足够好都是一件称得上成功的事情。

第三个问题,我可做不到文理兼长,争取文理平衡吧。我认为最佳途径就是增加阅读量。不能只看摘要和微信上别人总结的文字,看原著/原文。哪怕看不了很多本,看一本是一本。如果你希望提高文学方面素养,将来我可以从一个理工科背景的人的角度给你推荐一些容易的文学作品以及哲学作品。计算机圈子里有很多老师的文科素养非常高,都是我们学习的榜样。比如多伦多大学的李葆春老师。

弹幕中有几位同学提到AI与机器人的区别:

刘金辉: 有的机器人是AI而有的机器人不是AI,要怎么区分,AI的边界是什么?

寇博群: AI就是机器人吗?

A:AI的应用领域非常广,机器人只是其中一部分,除了机器人,声音、图像处理、大数据处理等都是非常典型的应用。反过来讲,尽管很多我们见到的机器人(如扫地机器人、引导机器人等)都应用了大量AI算法,但也不是所有机器人都跟AI有关,例如很多餐厅在用的刀削面机器人、工厂流水线上的机械臂等等通常就与AI无关。未来,这样的边界会更加模糊。

苏星辰和G6班:中科院自动化研究所在做猴脑模拟机,想请问刘老师是如何看待脑模拟机这一个方向,这个技术的壁垒和前景如何?

A:你说的猴脑模拟机的研究是指自动化所的类脑智能研究吧。这项研究处在神经科学和计算科学的交叉领域,它致力于搞清楚非人灵长类动物的大脑结构和神经系统工作原理,然后基于对生物大脑工作原理的模拟,在计算机中实现人工智能。类脑智能研究期望学习人脑的思维模式,从仿生角度寻求人工智能的突破。国际学术界公认这一方向前景广阔,但同时也面临很多难题,首要的,大脑的工作原理还是一个非常困难的课题。类脑计算的研究在国内外都开展的如火如荼,例如Intel、欧盟的Human Brain Project,国内的清华大学类脑计算研究中心等。我不是这个方向的,我的所知甚浅。但是我个人也非常期待这个方向上能取得突破。

1.我们知道文学和艺术是通过人的主观情感创造的产物,而现在有一些研究人员正在尝试用AI进行文学和艺术创作,那么利用AI进行文学和艺术创作又有什么意义呢?在这样的研究之路上我们又会得到哪些技术突破呢(好比费马大定理)?

2.请问老师您认为AI创作的文学艺术作品具有和人类作品一样的价值吗?AI创作出来的究竟是“文学作品”,还是“一串数字和算法的产物”呢?

A:AI的创作或许可以视作一种对艺术新形式的探索,究竟有什么样的艺术价值需要后人来判断,你看名画名曲不也是往往在后世才出名么?技术突破很难预测,或许在这个过程中,科学家会发现一些人类审美的奥秘。

老师,第五代非冯·诺伊曼计算机进展如何?

A:第一代计算机是电子管,第二代晶体管,第三代集成电路,第四代(超)大规模集成电路。第五代计算机的概念一般很少人提。日本于1982年提出过第五代计算机研发计划,当时日美都在共同追逐当时的新概念和新技术:人工智能、大规模并行计算、非冯·诺伊曼式Prolog语言计算机等。1992年,《纽约时报》宣布日本该计划的失败。新一代计算一直有科学家在研究,例如量子计算、光子计算,从原理上和之前的很不一样,所以没人使用第五代计算机这个概念。非冯·诺伊曼架构的芯片并不罕见,例如FPGA(现场可编程逻辑门阵列),正在研究中的新处理器(如光子计算、量子计算)也可能采用非冯·诺伊曼架构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)大脑研究计划,构建互联网(城市)大脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。每日推荐范围未来科技发展趋势的学习型文章。目前线上平台已收藏上千篇精华前沿科技文章和报告。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

原标题:人工智能会超越人类吗?

享受着人工智能带来便捷的同时,人们常不无担忧地问:人工智能会超越人类吗?它会不会像《黑客帝国》中的矩阵一样,成为人类的统治者?

人工智能(简称AI)的传说可以追溯至古埃及,真正崭露头角则是在20世纪。1956年的达特茅斯会议上,计算机科学家和数学家们提出了AI这个概念,试图模拟和拓展人类的智能并应用于生产与生活的各个领域。1959年,第一台工业机器人诞生;1962年,第一台搬运机器人诞生;1965年,第一台具有声光“感觉”的机器人诞生;1966年,第一台聊天机器人诞生……机器人成了人工智能的代表。其实工厂里的智能机器、家庭中的智能家电、几乎人手一部的智能手机等都是人工智能的杰作。

AI真的具有智能吗?毫无疑问,计算机可以进行计算,它的所有智能都建立在计算这种功能之上。以AlphaGo战胜人类的围棋高手为例,AlphaGo存贮了很多棋谱的信息,可以计算出每一步棋输赢的概率,知道最有可能获胜的下一步棋。它没有创造出前人没有过的下法,也没有战胜对手的主观愿望,可是它的每一步棋都是高手的真传,这样的优势积累起来足以令人类的个体望尘莫及。

人工智能据说也可以写诗,只要给它足够数量的文字资料作为语料库,再通过编程让它从语料库里选择一些文字按照一定的原则排列组合,就变成了一首诗。乍一看,这些诗像模像样、读起来朗朗上口,但是细细推敲就觉得不伦不类,无法承载人类的情感与理性。迄今为止,还没有人工智能的诗作流传,可见在创造性的领域,人工智能想追上人类还遥遥无期。

为了让人工智能变得更聪明,计算机科学家不断向脑科学取经。如果把大脑的信息处理比喻成一个黑箱,有信号的输入,有信号的输出,输入和输出之间是神经网络的信号传递。计算机矩阵破解了这个黑箱的输入信号和输出信号,用矩阵中的点来模拟神经元的发放频率,用矩阵中的线(公式)来模拟神经元的整合规律。计算机矩阵看似庞大复杂,其实远比人类大脑简单和单调。计算机矩阵通过一次一次地拟合,确实可以把一些简单的输入-输出之间的联系模仿得比较逼真,主要集中在感觉输入-运动输出这样的反射性活动方面。对于那些来无影去无踪的思维、推理、联想等脑的高级功能,计算机可以说是无从模仿。

人们最担心的一点就是:人工智能会不会拥有自我意识,有朝一日反抗人类?对于这个想法,相信绝大多数脑科学家会报以一声苦笑。什么是自我意识?脑科学目前对这个问题一筹莫展,在未来的漫长岁月中,能够把自我意识相关的神经回路、神经递质弄清楚就不错了,至于这些物质是怎么变成精神的?在哪一个层面,那些电流、那些化学物质就形成了可以驰骋古今、纵横四海的意识?这是比黑洞还要深奥的秘密。

再举一个例子,你可以用一块大理石来雕刻人像,也许惟妙惟肖,和真人看起来并无二致,可是它终究不是生命。人工智能可以模拟人类,机器人可以微笑,也可以说出“我爱你”这样的话语,可是它毕竟是硅晶和金属制作的,不是生命有机体。只是当机器人的外形看起来和人类极为相似的时候,当它的语言通过图灵测试令人类真假难辨的时候,人们该如何对待它们,确实是一个棘手的问题。

一个比较明智的选择是:就让人工智能在运动控制、计算、识别的方面发挥所长吧!至于情感、意志、决策、想象、创造这些方面则交给人类来做。人类不应该害怕被机器超越,人类要不断超越自己——不要让人性的弱点被AI放大,无休止地破坏和改变自然,这才是我们真正需要警惕的。

我要回帖

更多关于 未来机器人会有自我意识吗 的文章

 

随机推荐