人工智能技术的应用和人工智能这块功能谁值得投资?

“智能投顾本质上就是投资系统,其投资能力和长期可持续业绩才是核心竞争力。其背后团队必须包括有多年投资经验的基金经理,并将策略人工智能化。”羽时金融董事长兼首席投资官李延刚在接受第一财经专访时表示。他也正是上述获得良好成绩的“羽时炼金术”智能投顾系统的创始人。

自2012年以来,智能投顾发展迅猛,海外则主要以美国的Betterment、Wealthfront和Motif Investing为主。截至2015年末,智能投顾管理资产规模已达500亿美元(占总规模的近0.1%),预计到2020年有望突破2.2万亿。

“机器人炒股”这一在中美大热的概念,究竟面临什么机遇与挑战?

李延刚表示,当前智能投顾系统主要依靠的是量化投资技术和大数据挖掘技术。中国股市发展从最初的记价板记录交易的1.0阶段,到K线图、基本面研究、各种技术指标等的2.0阶段,发展到了现在越来越依靠人工智能技术的3.0阶段,智能投顾大发展时代已经来临。

核心:人的经验+人工智能

野村证券在近期发布的金融科技专题报告中指出,智能投顾总体有几大功能:投资者评估(风险承受的能力和意愿);建立投资组合,即筛选指数基金(ETF)、多元化策略等;模拟动态市场表现。

而较之传统的资产管理模式,智能投顾的优点首先在于提供更优惠的投资建议(投资顾问的平均费用为整体投资组合价值的1.3%,而机器人投顾则仅为0~0.5%),且起投门槛更低 (美国智能投顾的门槛为美元,一般的则需美元);其次,采用基于算法的量化投资;第三,是能够更自由地获得可比数据。

但李延刚对记者强调,在中国,一个真正优秀的智能投顾系统背后,投资经验和人工智能是两大不可或缺的关键。

李延刚曾任加拿大伦敦资产管理有限公司基金经理以及中海基金副总裁,2010年和2011年他管理的中海量化基金业绩稳定在20多位,一度排名全市场第一。

他认为,智能投顾必须具备三大特质:团队必须有具备多年投资经验的基金经理,“要知道如何系统化管理投资研究过程,而且能够把投资经验总结成可复制的模式”;第二,要利用这一可复制模式做自动化筛选及量化投资;最后,要借助先进工具,寻找团队将策略人工智能化。

当前,“羽时炼金术”系统的运作模式主要为——建立全方位的股票分析大数据系统对投资机会进行多角度的分析筛选,包括结构化和非结构数据,如实时抓取众多上市公司的公开信息,包括公告、年报、并购重组资讯等;搜集整理上市公司对外调研记录;监测投资者关系互动平台等。

有时因调研内容非常细碎,很难结构化,因此“机器+人工干预”仍是当下的主要模式。不过李延刚称:“将来随着挖掘技术不断优化,人工监控管理的必要性就会下降,成本也会下降。”

横向比较,中美智能投顾的差异仍十分明显。

“例如美国的Betterment和Wealthfront等侧重于大类资产配置,并以指数基金(ETF)为依托,而国内一般投资者的投资标的仍局限于股市和房地产市场,因此当前中国智能投顾仍侧重布局A股。”李延刚介绍。

美国的智能投顾系统与国内相比,标的更为多元。作为世界上规模最大、增长最快的在线理财咨询公司,Wealthfront提供的主要产品和服务是自动化的投资组合理财咨询服务,包括为用户开设、管理账户,及进行投资组合的评估。

当前Wealthfront管理资金规模约20亿美元,咨询费率约为0~0.25%。值得一提的是,其税收损失收割服务(Tax-loss Harvesting)每年能为投资表现增效2.03%。诀窍是将当期亏损的证券卖出,用已经确认的损失来抵扣所获投资收益的应交税款(主要是资本利得税),投资者可以将这些节省的税款再投资,从而使得投资者税后收益最大化。

智能投顾的中国机遇与挑战

中国智能投顾行业的发展空间大于美国,但挑战与机遇共存。

“基于市场研究预测,智能投顾行业在美国是500亿到600亿的美元,在中国市场规模可能会更大一点。这是因为中国有13亿人,通过互联网的媒介,投资理财需求的市场前景是非常光明的。”中国人民大学汉青研究院教授、“长江学者”青年学者李勇指出。

目前,国内出现了弥财、平安一账通、百度股市通等主打机器人投顾概念的产品。

例如,弥财号称为中国版的Wealthfront,其于2015年4月获得高瓴资本、清流资本1000万人民币天使投资。较为特别的是,弥财的投资标的涵盖了175个国家,海外投资组合包含 8 只ETF(股市和债市)。据悉,其6只ETF来自领航(Vanguard),另外两只是贝莱德(BlackRock)旗下的安硕 (iShares) ETFs。

此外,“羽时炼金术”系统旨在为投资者解决两大问题——“选策略”、“选股票”,以及“市场晴雨表”(又叫择时)。该系统通过智能化投资系统和事件驱动策略,分析市场海量资讯,智能匹配相关热门个股。据本报记者梳理“羽时炼金术”的过往表现,一般主题投资收益都在10%~30%,唯有于7月28日下架的“体育主题”跑输大盘(-6.23%)。

李延刚表示,智能投顾预计将会改变投资者的投资理财方式,借助系统自主管理投资组合,摆脱了目前把资金交给基金管理机构不放心、不透明的问题,也解决了从证券交易中介机构得不到有效投资信息服务等的窘境。

不过肯阳资本中国区总经理李向辉也对第一财经记者指出,“智能投顾现在尚无统一定义,更不要说监管了。”

野村指出,长期来看,与个人理财顾问相比,机器人投资顾问还存在许多局限。

第一,人工智能所依赖的深度学习技术是一个“黑箱”。比如,即便是算法开发者本人,都无法预知机器人的下一个决定到底是什么。这给机器人投顾的工作带来了不确定性,也让投资者增加了不信任感。

其次,对于用于训练算法的数据而言,数据隐私和数据脱敏(data demasking)的监管框架仍然缺失。面对人工智能强大的数据挖掘和信息处理能力,个人隐私在机器人面前宛如一层薄纱。

  人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

  人工智能是的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、、和等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

  人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得,和。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,等等,总的说来,人工智能研究的一个主要是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。

  2017年12月,人工智能入选“2017年度中国十大流行语”。

  人工智能的研究是高度技术性和专业的,各分支领域都是深入且各不相通的,因而涉及范围极广。人工智能学科研究的主要内容包括:、自动推理和搜索方法、和、知识处理系统、自然语言理解、、智能机器人、自动程序设计等方面。

  1)知识表示是人工智能的基本问题之一,推理和搜索都与表示方法密切相关。常用的知识表示方法有:逻辑表示法、产生式表示法、语义网络表示法和等。

  2)常识,自然为人们所关注,已提出多种方法,如非单调推理、定性推理就是从不同角度来表达常识和处理常识的。

  3)问题求解中的自动推理是知识的使用过程,由于有多种知识表示方法,相应地有多种推理方法。推理过程一般可分为和非演绎推理。谓词逻辑是演绎推理的基础。结构化表示下的继承性能推理是非演绎性的。由于知识处理的需要,近几年来提出了多种非演泽的推理方法,如连接机制推理、类比推理、基于示例的推理、和受限推理等。

  4)搜索是人工智能的一种问题求解方法,搜索策略决定着问题求解的一个推理步骤中知识被使用的优先关系。可分为无信息导引的盲目搜索和利用经验知识导引的启发式搜索。启发式知识常由启发式函数来表示,启发式知识利用得越充分,求解问题的搜索空间就越小。典型的启发式搜索方法有A*、AO*算法等。近几年搜索方法研究开始注意那些具有百万节点的超大规模的搜索问题。

  5)机器学习是人工智能的另一重要课题。机器学习是指在一定的知识表示意义下获取新知识的过程,按照学习机制的不同,主要有归纳学习、分析学习、连接机制学习和遗传学习等。

  6)知识处理系统主要由知识库和推理机组成。知识库存储系统所需要的知识,当知识量较大而又有多种表示方法时,知识的合理组织与管理是重要的。推理机在问题求解时,规定使用知识的基本方法和策略,推理过程中为记录结果或通信需设数据库或采用黑板机制。如果在知识库中存储的是某一领域(如)的专家知识,则这样的知识系统称为。为适应复杂问题的求解需要,单一的专家系统向多主体的分布式人工智能系统发展,这时知识共享、主体间的协作、矛盾的出现和处理将是研究的关键问题。

  人工智能的研究可以分为几个技术问题。其分支领域主要集中在解决具体问题,其中之一是,如何使用各种不同的工具完成特定的应用程序。AI的核心问题包括推理、知识、规划、学习、交流、感知、移动和操作物体的能力等。强人工智能目前仍然是该领域的长远目标。目前比较流行的方法包括统计方法,计算智能和传统意义的AI。目前有大量的工具应用了人工智能,其中包括搜索和数学优化、逻辑推演。而基于仿生学、认知心理学,以及基于概率论和经济学的算法等等也在逐步探索当中。

  “人工智能”一词最初是在1956年达特茅斯(Dartmouth)学会上提出的。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。例如繁重的科学和工程计算本来是要人脑来承担的, 现在计算机不但能完成这种计算, 而且能够比人脑做得更快、更准确, 因之当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”, 可见复杂工作的定义是随着时代的发展和技术的进步而变化的, 人工智能这门科学的具体目标也自然随着时代的变化而发展。它一方面不断获得新的进展, 一方面又转向更有意义、更加困难的目标。目前能够用来研究人工智能的主要物质手段以及能够实现人工智能技术的机器就是计算机, 人工智能的发展历史是和计算机科学与技术的发展史联系在一起的。除了计算机科学以外, 人工智能还涉及、、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。

在定义智慧时,英国科学家做出了贡献,如果一台机器能够通过称之为图灵实验的实验,那它就是智慧的,图灵实验的本质就是让人在不看外型的情况下不能区别是机器的行为还是人的行为时,这个机器就是智慧的。不要以为只做出这一点贡献就会名垂表史,如果你是学计算机的就会知道,对于计算机人士而言,获得就等于物理学家获得一样,图灵在理论上奠定了计算机产生的基础,没有他的杰出贡献世界上根本不可能有这个东西,更不用说什么网络了。

  科学家早在计算机出现之前就已经希望能够制造出可能模拟人类思维的机器了,在这方面我希望提到另外一个杰出的数学家、哲学家布尔,通过对人类思维进行数学化精确地刻画,他和其它杰出的科学家一起奠定了智慧机器的思维结构与方法,今天我们的计算机内使用的逻辑基础正是他所创立的。

  我想任何学过计算机的人对布尔一定不会陌生,我们所学的布尔代数,就是由它开创的。当计算机出现后,人类开始真正有了一个可以模拟人类思维的工具了,在以后的岁月中,无数科学家为这个目标努力着,现在人工智能已经不再是几个科学家的专利了,全世界几乎所有大学的计算机系都有人在研究这门学科,学习计算机的大学生也必须学习这样一门课程,在大家不懈的努力下,现在计算机似乎已经变得十分聪明了,刚刚结束的国际象棋大赛中,计算机把人给胜了,这是人们都知道的,大家或许不会注意到,在一些地方计算机帮助人进行其它原来只属于人类的工作,计算机以它的高速和准确为人类发挥着它的作用。人工智能始终是计算机科学的前沿学科,计算机编程语言和其它计算机软件都因为有了人工智能的进展而得以存在。

  现在人类已经把计算机的计算能力提高到了前所未有的地步,而人工智能也在下世纪领导计算机发展的潮头,现在人工智能的发展因为受到理论上的限制不是很明显,但它必将象今天的网络一样深远地影响我们的生活。 

  让我们顺着人工智能的发展来回顾一下计算机的发展,在1941年由美国和德国两国共同研制的第一台计算机诞生了,从此以后人类存储和处理信息的方法开始发生革命性的变化。第一台计算机的体型可不算太好,它比较胖,还比较娇气,需要工作在有空调的房间里,如果希望它处理什么事情,需要大家把线路重新接一次,这可不是一件省力气的活儿,把成千上万的线重新焊一下我想现在的程序员已经是生活在天堂中了。

  终于在1949发明了可以存储程序的计算机,这样,编程程序总算可以不用焊了,好多了。因为编程变得十分简单,计算机理论的发展终于导致了人工智能理论的产生。人们总算可以找到一个存储信息和自动处理信息的方法了。

  虽然现在看来这种新机器已经可以实现部分人类的智力,但是直到50年代人们才把人类智力和这种新机器联系起来。美籍俄裔数学家、控制论的创始人(Norbert Wiener)在上的研究最终让他提出了一个论断,所有人类智力的结果都是一种反馈的结果,通过不断地将结果反馈给机体而产生的动作,进而产生了智能。我们家的抽水马桶就是一个十分好的例子,水之所以不会常流不断,正是因为有一个装置在检测水位的变化,如果水太多了,就把水管给关了,这就实现了反馈,是一种负反馈。如果连我们厕所里的装置都可以实现反馈了,那我们应该可以用一种机器实现反馈,进而实现人类智力的机器形式重现。这种想法对于人工智能早期的有着重大的影响。

Theorist程序,它是一种采用树形结构的程序,在程序运行时,它在树中搜索,寻找与可能答案最接近的树的分枝进行探索,以得到正确的答案。这个程序在人工智能的历史上可以说是有重要地位的,它在学术上和社会上带来的巨大的影响,以至于我们现在所采用的方法思想方法有许多还是来自于这个50年代的程序。

  1956年,“人工智能之父”和LISP语言的发明人(ZT) (John McCarthy)召集了一次会议来讨论人工智能未来的发展方向。从那时起,人工智能的名字才正式确立,这次会议在人工智能历史上不是巨大的成功,但是这次会议给人工智能奠基人相互交流的机会,并为未来人工智能的发展起了铺垫的作用。在此以后,工人智能的重点开始变为建立实用的能够自行解决问题的系统,并要求系统有自学习能力。在1957年,艾伦·纽威尔和赫伯特·西蒙又开发了一个程序称为General Problem Solver(),它对维纳的有一个扩展,并能够解决一些比较普遍的问题。别的科学家在努力开发系统时,创建了表处理语言LISP,直到现在许多人工智能程序还在使用这种语言,它几乎成了人工智能的代名词,到了今天,LISP仍然在发展。

  在1963年,受到了美国政府和国防部的支持进行人工智能的研究,美国政府不是为了别的,而是为了在冷战中保持与苏联的均衡,虽然这个目的是带点火药味的,但是它的结果却使人工智能得到了巨大的发展。其后发展出的许多程序十分引人注目,SHRDLU是维诺格拉德(T.Winograd)于1972年在美国麻省理工学院建立了一个用自然语言指挥机器人动作的系统。在这个大发展的60年代,STUDENT系统可以解决代数问题,而SIR(Selective Rail)系统则开始理解简单的英文句子了,SIR的出现导致了新学科的出现:。在70年代出现的专家系统成了一个巨大的进步,他头一次让人知道计算机可以代替人类专家进行一些工作了,由于计算机硬件性能的提高,人工智能得以进行一系列重要的活动,如统计分析数据,参与等等,它作为生活的重要方面开始改变人类生活了。在理论方面,70年代也是大发展的一个时期,计算机开始有了简单的思维和视觉,而不能不提的是在70年代,另一个人工智能语言Prolog语言诞生了,它和LISP一起几乎成了人工智能工作者不可缺少的工具。不要以为人工智能离我们很远,它已经在进入我们的生活,,决策支持等等方面都有人工智能的影子。让计算机这个机器代替人类进行简单的智力活动,把人类解放用于其它更有益的工作,这是人工智能的目的,但我想对科学真理的无尽追求才是最终的动力吧。

  人工智能的第一大成就是下棋程序,在下棋程度中应用的某些技术,如向前看几步,把困难的问题分解成一些较容易的子问题,发展成为搜索和问题归纳这样的人工智能基本技术。今天的计算机程序已能够达到下各种方盘棋和国际象棋的锦标赛水平。但是,尚未解决包括人类棋手具有的但尚不能明确表达的能力。如国际象棋大师们洞察棋局的能力。另一个问题是涉及问题的原概念,在人工智能中叫问题表示的选择,人们常能找到某种思考问题的方法,从而使求解变易而解决该问题。到目前为止,人工智能程序已能知道如何考虑它们要解决的问题,即搜索解答空间,寻找较优解答。

  逻辑推理是人工智能研究中最持久的领域之一,其中特别重要的是要找到一些方法,只把注意力集中在一个大型的数据库中的有关事实上,留意可信的证明,并在出现新信息时适时修正这些证明。对数学中臆测的题。定理寻找一个证明或反证,不仅需要有根据假设进行演绎的能力,而且许多非形式的工作,包括医疗诊断和信息检索都可以和定理证明问题一样加以形式化,因此,在人工智能方法的研究中定理证明是一个极其重要的论题。

  自然语言的处理是人工智能技术应用于实际领域的典型范例,经过多年艰苦努力,这一领域已获得了大量令人注目的成果。目前该领域的主要课题是:计算机系统如何以主题和对话情境为基础,注重大量的常识——世界知识和期望作用,生成和理解自然语言。这是一个极其复杂的编码和解码问题。

  4、智能信息检索技术

  和精化技术已成为当代计算机科学与技术研究中迫切需要研究的课题,将人工智能技术应用于这一领域的研究是人工智能走向广泛实际应用的契机与突破口。

  专家系统是目前人工智能中最活跃、最有成效的一个研究领域,它是一种具有特定领域内大量知识与经验的程序系统。近年来,在“ 专家系统”或“ ”的研究中已出现了成功和有效应用人工智能技术的趋势。人类专家由于具有丰富的知识,所以才能达到优异的解决问题的能力。那么计算机程序如果能体现和应用这些知识,也应该能解决人类专家所解决的问题,而且能帮助人类专家发现推理过程中出现的差错,现在这一点已被证实。如在矿物勘测、化学分析、规划和医学诊断方面,专家系统已经达到了人类专家的水平。成功的例子如:PROSPECTOR系统(用于地质学的专家系统)发现了一个钼矿沉积,价值超过1亿。DENDRL系统的性能已超过一般专家的水平,可供数百人在化学结构分析方面的使用。MY CIN系统可以对血液传染病的诊断治疗方案提供咨询意见。经正式鉴定结果,对患有细菌血液病、脑膜炎方面的诊断和提供治疗方案已超过了这方面的专家。

  人工智能的一个比较流行的定义,也是该领域较早的定义,是由当时麻省理工学院的约翰·麦卡锡在1956年的 达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性(见下)。另一个定义指人工智能是人造机器所表现出来的智能。总体来讲,目前对人工智能的定义大多可划分为四类,即机器“像人一样思考”、“像人一样行动”、“理性地思考”和“理性地行动”。这里“行动”应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。

  强人工智能观点认为有可能制造出真正能推理(Reasoning)和解决问题(解决问题)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:

  • 类人的人工智能,即机器的思考和推理就像人的思维一样。
  • 非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。

  弱人工智能观点认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。

  强人工智能的研究目前处于停滞不前的状态下。人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解强人工智能和弱人工智能的内容与差别。就现下的人工智能研究领域来看,研究者已大量造出看起来像是智能的机器,获取相当丰硕的理论上和实质上的成果,如2009年康乃尔大学教授Hod Lipson 和其博士研究生Michael Schmidt 研发出的 Eureqa计算机程序,只要给予一些数据,这计算机程序自己只用几十个小时计算就推论出牛顿花费多年研究才发现的牛顿力学公式,等于只用几十个小时就自己重新发现牛顿力学公式,这计算机程序也能用来研究很多其他领域的科学问题上。

  “强人工智能”一词最初是约翰··希尔勒针对和其它机器创造的,其定义为:

  关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了个中文房间的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。

  也有哲学家持不同的观点。丹尼尔·丹尼特在其著作《意识的解释》(Consciousness Explained)里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。 有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如西蒙·布莱克本(Simon Blackburn)在其哲学入门教材Think里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。布莱克本认为这是一个主观认定的问题。

  需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在一百多年前是被认为很需要智能的。并且,即使强人工智能被证明为可能的,也不代表强人工智能必定能被研制出来。

  比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。

  专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。

  通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。

  人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CB Insights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。

  创新生态布局成为人工智能的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表有微软、、、等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。

  人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“”快速发展,在、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的等问题已经显现出来,需要抓紧提供解决方案。

  经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?

  从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家发布《国家人工智能战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。

  从人工智能向人机混合智能发展。借鉴脑科学和的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。

  从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。

  人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。

  人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及和产业界投入的日益增长,人工智能应用的化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个的年均可以翻一番。2018年的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿。

  人工智能将推动人类进入型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司在《信息流引领人工智能新时代》中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。

  人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。

  人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。

  当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在、、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。

  高度重视。党中央、国务院高度重视并大力支持发展人工智能。习近平总书记在党的十九大、2018年两院院士大会、全国网络安全和信息化工作会议、十九届中央政治局第九次集体学习等场合多次强调要加快推进新一代人工智能的发展。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路,旨在构筑人工智能,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。

  态势喜人。据发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投最大的国家,我国人工智能企业在人脸识别、、安防监控、智能音箱、等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,大学、清华大学、等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的、教育科研活动非常活跃。

  差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司Compass 对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。

  前景看好。我国发展人工智能具有市场规模、应用场景、资源、、普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补的不足。

AI行业处在商业落地初期,目前呈现出场景多、需求碎片化的行业痛点。本文指出边际成本是未来AI竞争的核心要素,我们认为,龙头有望率先实现AI行业的“工业革命”,并受益于数据-模型的反馈优化机制带来的先发优势,未来将占据较高份额。我们预计AI核心的平台、算法层将朝着一超多强的格局演变,持续底层投入的龙头企业能够建立成本及全栈技术的护城河,并通过大模型的技术路线解决碎片化的问题,在未来竞争中占领高地。

边际成本是未来十年AI行业竞争核心要素,AI平台及算法层有望演进为类似基础软件的分化格局,龙头规模效应优势明显。各行业的数字化转型意味着大量AI模型需求,AI模型通用性低导致项目碎片化、交付效率低是行业目前痛点,未来高生产效率、低边际成本是AI竞争焦点。龙头厂商通过全栈底层能力提升实现AI模型的工业化生产,从根本上提升效率。另一方面,用于AI模型的算力增长、算法效率优化呈现新“摩尔定律”,且基于数据-模型反馈机制,龙头算力、算法正向循环强化巩固先发优势,我们预计AI在关键的平台层、算法层有望形成龙头遥遥领先的分化格局。

持续底层投入才能铸就技术成本、效率的护城河,国内目前底层技术自研能力较为稀缺。在AI技术体系内,软件框架是核心,目前主要由海外巨头引领,国内仅少数巨头具备底层自研能力。算力层方面,AIDC能力国内稀缺,我们认为,AI公司自建算力中心或将成为未来趋势,同时自建AIDC实现AISC算力云化是突破英伟达CUDA生态壁垒的关键;平台层方面,基于软件训练框架、生产平台、部署框架等,AI算法行业有望迎来“工业革命”,实现效率的大幅提升。算法层则借力大算力下通用模型带来的海量场景模型发挥规模效应,降低边际成本。

大模型技术路线是解决碎片化问题的突破点,技术、资本壁垒较高,是AI巨头之间的战场。传统的精妙模型在长尾需求中暴露短板,近年大模型发展加速,是实现通用AI的重要方向。大模型+小模型是降低算法边际成本的关键架构,但技术和算力壁垒高,常见开源框架对于大模型场景的性能支撑不足,通过自主框架进行底层定制优化是实现大模型的关键。

国内技术进步、生态建设不及预期,行业竞争加剧,海外出口管制风险。

图表:全文章节结构框架

一、算法边际成本是未来十年AI市场竞争焦点

目前AI行业痛点在于碎片化、边际成本高

AI行业碎片化的本质在于模型生产仍停留在“手工作坊”时代

目前AI项目落地还停留在“手工作坊”阶段,存在重复造轮子情况,边际成本高。目前国内大部分AI项目的落地是以项目制的形式,主要包括需求阶段、打光阶段、数据阶段、算法设计阶段、训练评估阶段、部署阶段和运维阶段。其中,数据阶段和训练评估阶段往往需要多次循环,专家驻场收集数据并训练模型,发现指标无法满足需求后再重新进入数据阶段,一个项目往往需要专家团队驻场数月完成。

图表:目前AI项目开发的流程繁琐,数据阶段和训练评估阶段的循环占用了大量时间

资料来源:极市平台公众号,研究部

碎片化的本质原因在于现阶段AI模型的通用性低,模型生产还停留在“手工作坊”的时代,单个模型只适用特定任务。即使同样的算法在不同场景落地,也会演化出非常不同的版本,一旦场景和任务发生变化,就需要重新收集、标注数据、训练模型。由于客户需求多样,以至于几乎每个项目都要重复进行这一流程,研发流程难以复用。

需求端:数字化意味着大量模型需求,高生产效率,低边际成本是关键

全社会的数字化是人工智能的重要目标,同时也意味着巨量的建模需求。随着数字信息世界、物理世界融合,产生的数据量是以前的成千上万倍,以无人车为例,一辆无人车每天产生的数据量大约5-10T。数字化社会海量的数据只能交给机器处理,因此需要更多的算法来识别和检测,在机器处理完成后再把数据传递给人员。

巨量的模型需求需要较高的AI模型生产效率、较低的算法边际成本。如果要完成设备数字化的建设,必然需要涵盖社会的方方面面,像人脸识别这类流量大、数据多、投入产出比高的场景占少数,还存在大量的范围广、差异大、频次低的长尾场景,这样广泛的场景凭借定制化开发的路线难以实现全面的数字化覆盖。

供给端:AI人才稀缺、基础设施不完善导致项目落地成本高

技术层面,深度学习作为一门新的学科人才稀缺。上世纪90年代的互联网潮流吸引了大部分计算机科研和工作人员,也导致了深度学习的沉寂,直到2012年Hinton带领的团队在ImageNet挑战赛中大幅降低图片识别错误率,深度学习才开始被业界和资本关注,全球范围内极少数人专注于此领域研究,导致人才供给非常稀缺。

深度学习人才稀缺导致整体项目实现难度、成本高,未来解决方案落地推广的核心方向在于降低边际成本。早期AI落地多以项目定制为主要形式,这样重人力的落地方式和AI人才稀缺性造成AI项目的人力成本很高,AI的落地仅限于人效高的场景,长尾场景解决方案的投入产出比让甲方和乙方望而却步。我们认为,未来解决方案落地的方向在于降低边际成本。

大模型时代强者愈强,数据-模型反馈优化机制决定先发优势

大模型时代下,AI模型进入工业化生产模式,规模效应导致马太效应

大模型预训练的难题被攻克,预训练大模型成为降低边际成本的关键。GPT-3的出现让业界充分认识到,大模型是产业未来趋势。即先使用预训练大模型,得到一套模型参数,然后用这套参数对模型进行初始化,再进行训练,预训练大模型能大幅提高模型的生产效率。

基于预训练大模型的时代到来,模型生产的效率提高、边际成本降低。包括商汤科技、百度、华为等国内AI龙头企业在GPT-3面世之前就前瞻认识到,基于预训练大模型的AI模型工业化方式是未来趋势,并在训练框架、算力平台等底层技术设施上大力投入,目前已经在工业化AI生产的方式上拥有较强的先发优势。

数据-模型反馈机制为龙头企业带来较强的先发优势

数据-模型反馈优化机制是深度学习技术的重要特点。深度学习模型的准确性很大程度是数据驱动的,数据量大、质量高、多样性强很大程度上解决了训练过拟合的问题,是好模型的基础。因此,人工智能的数据反馈机制是由深度学习底层技术原理所决定的。

图表:数据量不足容易带来过拟合问题,更多的数据有利于更好的模型

资料来源:fast.ai,研究部

数据反馈机制意味着先发优势,抢占标杆客户是目前AI行业的重要竞争点。由于AI行业独特的数据反馈机制造就了行业的先发优势,当下处于AI大规模商业化落地的早期阶段,跑马圈地、抢占优质的大客户是AI行业关键竞争点。

AI新“摩尔定律”下,龙头凭借边际成本优势有望主导一超多强格局

AI模型正经历从“手工作坊”到工业化生产的转变

AI的工业化时代需要新的底层基础设施,高强度的底层投入才能解决生产效率问题。只有在底层硬件、训练框架、算法模型、通用技术上大力投入,才能解决生产效率问题,如果不投入底层技术,AI项目难以摆脱以重人力方式落地的限制,AI公司不得不在应用层投入大量人力。看起来,与应用层AI公司类似,大力投入底层技术设施的AI公司同样保持着数千人的研发团队,但其建立起了远远更强的竞争优势。

由于AI底层投入资金量大、风险大,全球仅个别巨头在AI底层投入重金,国内企业大多布局风险更低的应用层,仅少数企业在AI技术底层大力投入。底层投入资金需求大、时间长、风险高,实力雄厚的美国互联网巨头对AI底层技术战略性投入力度较大,但中国的AI产业主要受需求拉动,大多数AI公司布局应用层。

深度学习平台方面:国内大部分公司的AI研发都选择使用外资巨头开源的TensorFlow、PyTorch等深度学习底层框架。

图表:企业使用AI底层框架企业占比调研情况

资料来源:《德勤中国成长型AI企业研究报告:迈向巅峰之路》,中金公司研究部

算法方面:算法研发是一个高风险的事情,算法的领先需要庞大的队伍投入,需要研究人员不断突破算法的极限,持续在顶级期刊中发表论文。

硬件方面,为了支持框架和算法,需要的计算力大,但大量GPU并联计算会导致严重内存墙和算力墙等问题,大幅增加训练的成本,因此需要对硬件和框架做深度优化。

图表:我国AI公司技术层次分布(2020年)

资料来源:中国新一代人工智能发展战略研究院,中金公司研究部

通过底层投入,AI模型生产和部署正在经历从“小作坊”到工业化生产的转变。以商汤科技AI大装置为例,与 “手工作坊”式AI模型的打造方式不同,传统AI大装置是更像是流水线工厂,可以从底层上对各种场景的算法模型进行抽象,使用各种算法工具模块,通过组合算法套件模块化的进行新场景的定制,以很低的边际成本规模化生产、部署AI模型。

龙头厂商通过全栈底层能力的提升,在效率上实现千倍提升,率先实现从项目制向标准化服务转变,AI行业开始分化。以商汤为例,受益于多年来在底层技术的持续投入,其算法的生产效率显著提高。根据公开资料,商汤部分算法的生产效率在过往5年中提升了约1000 倍,同样精度的一个算法模型,5年前可能需要10个研究员花半年时间来研发,现在只需要一个研究员花三天就可以完成研发。

大模型+大装置解决边际成本问题,碎片化痛点有望解决

AI行业不会向碎片化的方向发展,而是强者愈强。在大模型路线下,除了需要的训练数据量更少,模型精度更高外,AI模型的边际成本还会受益于三个因素的影响大幅降低:底层基础设施可复用、模型研发流程可复用、研发流程自动化。因此AI行业将出现强者愈强的马太效应,我们认为,AI行业不会向着碎片化的方式发展。

底层基础设施可复用,降低边际成本。以商汤科技的AI大装置为例,公司将多年累积的硬件、框架和AI算法和落地经验结合起来,一起融合到AI大装置,尽可能的减少重复研发。

模型研发流程可复用,大模型提升AI通用性。在大模型压缩制造小模型的工业化生产方式下,AI公司可以生产大量的、覆盖不同场景的模型,遇到新场景时,可以通过将原有的模型模块化组装,快速制造新模型。

研发流程自动化(AutoML),开发门槛降低,人员成本降低。AutoML能自动执行部分工程性任务,减少了AI模型生产过程中对专家的需求量,使机器学习的使用门槛降低,不再需要招聘大量深度理解AI工程的专家。

具备规模效应的AI企业将在算法生产建立强大的先发优势

依靠底层技术投入,AI龙头的先发优势和规模效应主要体现在如下方面:

底层投入技术、人才、资金壁垒高,时间窗口短:底层技术投入属于高风险、回报周期长的项目,仅有国内外少数龙头企业能大力投入。由于底层基础设施中算力和算法的新“摩尔定律”,率先投入基础设施企业能在技术迭代中与竞争对手迅速形成代差,因此底层基础设施投资的时间窗口期短。

通用大模型+小模型的方式减少定制化:通过不断在算法、算力和数据上的突破极限,生产智能程度尽可能高的通用模型,减少进入新场景时定制化带来的数据收集、算法生产等边际成本。

算法生产上建立数量级的领先,模块化生产大幅降低进入新场景的边际成本:通过大量的模型积累,AI企业可以沉淀可复用的算法底层模块,再模块化组装的方式生产AI模型。

由于数据-模型反馈优化机制的存在,规模效应会带来强大的先发优势,龙头公司进一步掌握定价权。由于边际成本低,诸如商汤等龙头公司能够率先低成本地解决长尾场景,满足客户的商业场景的闭环,并取得在AI行业的定价权。抢占各细分领域的关键客户后,龙头能得到更多的数据,进一步优化自身的模型,积累更丰富的算法库,从而有了更低的边际成本。数据反馈机制为AI龙头带来强大的、难以复制的先发优势。

图表:AI龙头有望率先解决长尾场景,完成商业模式的闭环,解决碎片化问题

资料来源:WAIC2021,中金公司研究部

AI基础设施的算力、算法呈现新“摩尔定律”,AI行业或将出现类似半导体行业的龙头独大格局。龙头本身算法效率领先,相同算力下能训练生产更优质的模型,同时最先进的AI模型约每几个月算力需求就会扩大一倍,构建高并行效率的AIDC的难度更高,成本更大。我们认为,随算法和算力的持续迭代,行业有望形成类似半导体行业龙头独大的格局,边际成本领先的龙头如商汤等将持续领跑。

算力方面,根据斯坦福大学和麦肯锡联合发布的《2019人工智能指数报告》,2012年之前最先进AI模型计算量每两年翻一倍;2012年之后计算量每3.4个月翻一番,从2012年到2020年3月已增长30万倍。

算法方面,OpenAI发现最高效的AI模型,所需的算力每16个月就会减少1/2。

图表:算力增长和算法的效率增长均呈现出新“摩尔定律”

资料来源:OpenAI,中金公司研究部

远期来看,物理世界的数字化有望带来全新的商业模式,AI工业化生产的龙头企业凭借先发优势有望率先推动新场景、新商业模式。人工智能技术有望重塑社会的工作流程,带来成倍的效率增长,并在B端和C端建立新的商业模式。但这样的愿景背后需要强大的算力、强大的空间感知能力、海量信息的实时的提取和更新能力等等,率先实现AI的工业化生产的企业有望率先实现远期商业模式的愿景:

B端:龙头企业可以构建基于城市物理空间的数字化搜索的引擎和推荐系统,将虚拟世界的搜索转化到物理世界的搜索,实现物理世界的搜索引擎。

C端:通过元宇宙,将类似现实世界的虚拟世界投射进去,所有现实世界的商业模式都可以在元宇宙中再造。

二、AI大装置:持续底层投入铸就技术成本技术护城河,国内底层自研能力稀缺

AI技术体系架构:软件框架是核心,全栈能力铸就护城河

AI技术体系分为算力、平台软件、算法、应用软件及解决方案

深度学习分为训练(training)和推断(inference)两个环节:训练需要输入,训练出一个复杂的深度神经网络模型;推断指利用训练好的模型,使用待判断的数据去“推断”得出各种结论。

AI产业技术体系架构可划分如下:

算力层:包括AI芯片和AIDC。AI芯片需要具备极强的并行计算能力。AIDC中的智算中心需要根据算法进行深度优化,提高并行计算效率。

平台软件层:平台层是支撑AI大规模训练生产、部署的技术体系,包括训练框架、模型生产平台、推理部署框架、数据平台。其中训练、部署软件框架是整个技术体系的核心,软件框架作为深度学习算法的工程实现,是巨头竞争的核心点。

算法模型层:算法模型本质上是特殊的软件,是AI企业公司在科研和产业经验中的先进算法在平台上的沉淀。

应用软件及解决方案层:应用软件指基于AI算法模型的赋能之后,以解决方案的形式实现场景落地。

图表:AI行业整体技术体系架构

资料来源:中国信通院,中金公司研究部

软件框架是整个AI技术体系的核心,巨头以开源软件框架为核心打造生态:

主流推断软件框架:推断计算量相对小很多,往往限定性能及功耗,典型的有TensorRT(英伟达)、TensorFlow Lite(谷歌)、SensePPL(商汤)等

现有格局:谷歌早期在软件框架领域领先,美国其他巨头探索模型互换、模型迁移以联合对抗谷歌;近年来pyTorch为代表的技术框架在工业界发展势头较好,有赶超谷歌之势。国内仅商汤、百度等极少数企业具有自研底层软件框架能力。

图表:国内外典型深度学习软件框架情况

资料来源:CSDN,中金公司研究部

TensorFlow由Google Brain团队主要支撑,与Facebook推出的pyTorch一道成为全球主要活跃社区,以功能全面,兼容性好、生态完备著称。

开源框架具有强大的规模效应。人工智能开源软件框架生态的核心,是通过使用者和贡献者之间的良好互动和规模化效应,形成现实意义的标准体系和产业生态。绝大多数的深度学习框架的组件都有共通之处,由类似的技术堆栈组成。

图表:不同深度学习软件框架技术栈对比

资料来源:CSDN,中金公司研究部

基于开源框架的模型训练具体是做什么?——调节超参数,生成参数

参数是由数据驱动调整:神经网络训练的最终目标是找到一套合适的模型参数(简单理解为神经网络权重W和bias b),但参数是在训练过程中自动更新生成的。

超参数由训练者人工输入并调整优化,超参数是训练过程中的“调节旋转”,用于控制模型的结构、效率,常见超参数有:Learning rate(学习率)、Num of iterations(迭代次数)、Num of hidden layers(隐层数目)

图表:深度学习模型优化流程

资料来源:CSDN,中金公司研究部

图表:深度学习模型典型超参数

资料来源:CSDN,中金公司研究部

算力层:自研芯片+自建AIDC是破局英伟达CUDA生态极佳路径

AI作为一门新学科,其所需要的算力不同于传统信息科学,需要从芯片、AIDC、传感器到算法的深度改造和适配。AI大模型训练成本非常高,以GTP-3为例,训练一次的成本达到约1200万美元。AI超算中心训练大模型时采用超大规模、并行计算的异构算力,技术难度非常高,往往需要自研AI芯片、AI传感器、训练框架和算法,并进行深度的适配和优化以减小能耗。

芯片层面:英伟达凭借CUDA生态占据产业链核心位置

AI训练环节,GPU是目前主流;推断环节,ASIC是主流。

CPU:擅长统领全局等复杂操作,但不擅长处理并行计算场景。

GPU:GPU提供多核并行计算能力,核心数量非常多,拥有更高的浮点运算能力和访存速度,相比CPU等硬件能大幅提升训练速度。

ASIC:特定用途集成电路,在控制功耗的同时不断提升专用计算能力,对AI芯片进行定制,在特定场景下实现芯片的高性能和低功耗。

FPGA:现场可编程门阵列,集成大量基本门电路及存储器,主要特点是可编程。灵活性高,性能/功耗适中。

图表:人工智能芯片应用情况

资料来源:商汤科技公众号,中金公司研究部

英伟达在人工智能产业生态中提供关键底层软硬件能力。以cuDNN为例,它是NVIDIA深度神经网络软件开发包中的一种加速库,为深度神经网络中的卷积、池化、归一化和激活函数层等标准流程提供高度优化的实现方式。大部分的深度学习框架都支持cuDNN加速工具,包括Caffe、TensorFlow、PyTorch等。

CUDA生态是英伟达主要壁垒。英伟达从2007年开始前瞻转型HPC(高性能计算),在10年时间内大力投入统一计算设备架构CUDA生态。目前CUDA生态已形成丰富、完善的软件工具库,成为了人工智能开发者的首选,其生态是英伟达在AI领域主要的护城河。

超算层面:重资本构建厚城墙,ASIC云化是突破英伟达生态壁垒的极佳策略

简单的硬件积木式堆叠效率低,AIDC建设技术难度高。计算性能受制于高速互联网络,而数据拥堵会大大降低系统效率。此外,硬件的积木式堆叠的加速效果不会线性增长,会导致更低的系统效率,甚至出现多个GPU还不如单个GPU的情况,同时导致过大功耗,增加AIDC超算中心计算成本。

AI超算中心是AI时代的新型数据中心,需要大量落地经验。由于AI算法属于计算密集型算法,海量的数据处理任务和人工智能的训练和推理更适合GPU、FPGA、ASIC等并行计算能力强的芯片。超算中心中硬件的架构设计至关重要,需要考虑到网络、存储、电源、散热、管理和软件等多方面因素,以实现超低延迟和高带宽访问,建设过程需要大量行业实践经验。

AI模型对算力需求的指数级增长是建造AI超算中心的重要原因。2018年业界充分认识到大模型的威力后,模型的参数规模越来越大,对算力的需求也越来越大。2012年到2018年间,芯片的计算性能仅提升了30多倍,但从算法对AI模型所需的算力来看,AlexNeT到AlphaGo Zero,算法对算力的需求却提升了30万倍。因此,建造超大规模的人工智能超算中心是AI下一阶段发展的方向。

图表:大规模预训练模型算力需求增长

资料来源:MEET 2021智能未来大会,中金公司研究部

图表:全球AI超算进展梳理

资料来源:MEET 2021智能未来大会,中金公司研究部

自建AIDC与算法有协同效应,AI公司自建算力中心或将成为趋势。超算中心巨额的计算成本和技术难度一直是阻止AIDC建设的重要因素,而自建算力的情形下,可以提高算法和算力的适配程度,降低计算成本。

由于超算中心对于训练大模型、降低算法成本至关重要,国内外巨头纷纷超前布局AI超算中心。由于超算中心是计算大模型的关键,国内外巨头均在近几年大力投入AIDC基础设施。

国内AI公司近年来大力投入AIDC,目前进展领先。国内AI厂商重视AI基础设施,近年来大力投入AIDC建设,以商汤科技在建的AIDC为例,其包含两万块 GPU,能提供 3740 PFlops算力,是目前亚洲最大的AI超算中心。商汤AIDC完整训练一次GPT-3仅需一天,其目标是未来进行更大规模参数模型的训练。

超算中心需配合自研训练框架才能充分释放效能,国内龙头框架技术全球领先。深度学习框架需要基于底层异构芯片,支持超大规模模型的训练。目前的开源训练框架难以解决内存墙和显存墙的问题,并不适用超大模型的训练,因此需要自研训练框架。国内龙头企业自研框架如SenseParrots、MindSpore已经能完成高性能的分布式大型网络的并行训练,训练框架技术全球领先。

自研芯片+自建超算,是国内ASIC突破英伟达CUDA生态壁垒的极佳策略。寒武纪等国内ASIC厂商芯片相对于英伟达GPU在性能上并无劣势,英伟达的核心壁垒在于CUDA生态,但ASIC更高的定制化造成生态更难以形成。但通过自建超算、基于私有的软硬件极致优化ASIC,再以云服务的方式提供封装好的算力,则可以解决AISC通用性差的问题,是突破英伟达GPU生态壁垒的极佳战略。

平台层:工业级的算法生产流程掀起AI算法的工业革命

平台层是支撑AI大规模训练生产、部署的技术体系,连接算力层和算法层。机器学习平台指的是将机器学习从理论变成实际应用的一整套工程,最底层是训练框架,决定了AI模型的上限;其次是模型生产平台,影响AI模型生产的效率;第三层和第四层分别是推理部署框架和数据平台。如下图所示,深度学习模型平台一般分成四层:

图表:深度学习模型平台

资料来源:华为官网,商汤科技官网,中金公司研究部

目前美国巨头在训练框架领域遥遥领先,国内仅有少数企业自研框架。由于AI人才储备远多于中国,且积累时间较早,美国在基础层与技术层的布局领先中国,目前美国谷歌与脸书两大互联网巨头分别拥有TensorFlow与PyTorch等行业主流框架,而国内仅有商汤、百度、华为、旷视等少数企业自研训练框架。

图表:GitHub收藏数和贡献率排名TOP16的框架(大部分属于外资巨头开发)

资料来源:GitHub,中金公司研究部

相比于开源框架,自研底层框架能够实现更高的性能上限。随着AI进入工业化时代,实现大规模的产业落地,海外的开源框架开始在很多方面出现局限性,包括在网络结构、设备兼容、性能与功耗均衡和各种自动化设计等。国内商汤、百度、华为等龙头公司自研的框架在设计之初就考虑到大模型训练的内存墙和显存墙等问题,能实现更高的性能上限。

自主框架能适应AI的产业落地,具备自主性和协同效应。虽然主流的开源框架利用先发优势,生态建设方面遥遥领先,但这类框架所提供的能力无法契合AI大规模落地的产业需求,因为这类开源框架更多是面向普及应用的。但产业界需要工业级的模型生产平台,自主框架能为AI技术赋能百业提供有力的支撑。

在算法框架的自主性和先进性支撑下,自研框架能为大量企业提效赋能。以商汤和百度为例,商汤SenseParrots框架的 GPU集群的并行处理效率损失仅为10%左右,计算速度提升接近900倍,远强于开源框架的方案。

图表:主流开源框架对比(大部分开源框架设计时未充分考虑多GPU支持能力)

资料来源:DEVOPEDIA,中金公司研究部

基于训练框架,模型平台可大幅优化数据流程和模型生产流程的耗时,实现AI算法大规模生产。在AI落地工程中,通常数据流程和模型生产流程占工程耗时占比最长。而模型生产平台能通过标准数据接口、数据增强技术、数据前处理技术等技术提高AI落地效率。

国内龙头模型生产平台推出时间晚,但架构更完善,起点高,在部分技术领域做到全球领先国内的开源框架由于开源时间晚,虽然生态上有劣势,但是在搭建时考虑未来需求,架构更完善,起点更高。

推理部署指把已经训练好的模型放在云端或设备端并运行。当AI模型经过复杂的训练之后,往往需要较大的计算性能,只能部署在云端的计算中心。也可以将模型压缩成很小的模型,直接部署在终端设备进行推理。硬件方面,目前云端推断主要使用云服务器+FPGA芯片代替GPU和CPU,谷歌使用自研的ASIC芯片为AI训练和推理同时提供服务。设备端推断则一般通过芯片的高度定制化以实现低功耗。

如同训练框架,推理部署框架的生态同样是核心竞争要素之一。为开发者提供足够友好、易用的工具环境,让其迅速获取深度学习加速算力,从而降低深度学习模型研发和训练加速的成本和研发周期,是推理部署框架的核心竞争要素,国外开源框架如英伟达TensorRT和英特尔OpenVINO形成较强生态,竞争较为激烈。

图表:目前推理部署框架主要部署在设备端和云端

资料来源:雷锋网,中金公司研究部

深度学习推理部署框架需求分散,研发门槛相对较低,自研厂商相对较多。不同于深度学习模型训练具备相对明确的需求,推理框架的需求相对分散,主要有三个,精度需求、易用需求、性能需求。由于几乎不可能出现一个框架同时在三个需求上做到极致,如TensorRT 和 OpenVINO 虽然性能好,但是支持的平台单一,进行模型转换存在精度和掉点的问题。因此我们认为,推理部署框架的竞争格局会相对较为分散。

国内部分厂商自研推理框架性能卓越。国内目前的云端推理框架基本都依赖对TensorRT和OpenVINO的集成,芯片厂商在AI业务落地过程中会提供计算库,使用芯片厂商计算库导致AI业务落地的全链条端到端的效率低,在计算性能、内存占用和功耗等方面离业界差距较大。而国内AI龙头自研推理框架推出时间点晚,充分考虑推理框架的各种需求,且不受海外芯片厂商计算库限制,还具备明显性能优势,如商汤SensePPL在多种AI视觉模型的推理当中,SensePPL 的端到端性能超过了TensorRT和OpenVINO,在各类终端上加速比都大幅超越CAFFE推理框架。

资料来源:CSDN,中金公司研究部

未来大模型时代,AI进入工业化生产,自动化是提高部署环节的核心重点。工业化生产AI模型的时代,头部AI公司如商汤每天能产出数百个AI模型,不可能全部靠人来手工调试进行模型部署,背后必须要有一套自动化系统。

AI算法的工业化生产需要一套工具,提供工业级的模型量化效率。为满足工业级的量化需求,国内AI龙头商汤提出一套量化生产工具,将不同类型的网络模型输入这套生产工具,就可以得到适应AI部署的模型。

图表:量化流水线提供高效率、低成本的系统层面优化部署方式

资料来源:GTIC 2021,商汤科技,中金公司研究部

通过软硬件的协同,龙头AI企业铸就效率护城河。率先进入工业化AI生产模式的龙头企业,能率先进行大量网络结构、大量推理库和各类芯片的优化和适配,结合丰富的AI落地场景,能建立起一个规模庞大的数据库来优化三者的匹配,并且持续迭代和完善。我们认为龙头AI企业如商汤、华为、百度能领先于同类企业建立起这种壁垒,反过来优化模型的实际生产,铸就效率护城河。

经验沉淀建立的效率护城河带来模型的高效率开发。以商汤科技为例,目前该公司已沉淀训练过的超过20万个模型和10万个不同的网络结构,同时支持11种硬件,当面对新的网络结构时,可以通过查询该数据库高效地进行硬件和框架的适配,大大加速了进入新场景时模型的开发速度。

数据平台主要目的是将数据处理过程中与AI关键算法相关性较弱的步骤流程化,大大提升开发者的效率。数据平台主要任务主要包括数据存储、数据标注、数据加密等,其与算法训练框架、模型工厂形成一个闭环的体系,让数据发挥出更大价值。

数据平台提供数据的标注和自动训练,打造模型工业化生产的闭环。数据流程包括数据采集、数据标注、模型训练、模型评估,是AI项目中最为耗时的流程,而在很多智能化场景中,新场景和新应用的需求不断变化,因此必须将数据流程自动化从而提高模型生产效率。

图表:数据处理相关工作是AI落地的难点和痛点

资料来源:第四范式公众号,中金公司研究部

算法层:海量模型解决项目标准化问题

算法层基于平台层之上,包括丰富的算法模型工具箱。算法层是AI企业公司在科研和产业经验中的先进算法模型在平台上的沉淀,AI企业使用丰富的算法工具为各行各业赋能,通过模块化的方式提高部署效率。

算法层模块化组装解决解决长尾场景,大大提升客户付费意愿。除了高频应用场景的算法外,算法工具箱通常也包含低频和长尾场景的算法,足够大的算法工具链积累能大幅降低扶梯逆行、城市火灾和垃圾检测等长尾场景的解决难度,提升客户的付费意愿。

算法模型规模效应很强,大模型压缩出海量小模型,结合小模型的模块化组装,大大降低算法的边际成本。更强的通用性算法可以快速压缩出海量的模型,快速帮助企业在各个下游场景将AI落地,更多的模型对场景的覆盖也会更广,企业受益于更多的经验,能锻造出更好的模型。

三、大模型是解决碎片化问题的突破点

大模型是AI行业重要的产业趋势

生物智能发展是量变到质变的过程,意味着AI的发展也是模型参数、连接数的不断增加的过程,即具备通用性的人工智能必然需要大模型、大算力的支持。我们在上篇系列报告《人工智能十年展望(一)∶底层模拟人脑,算力决定上限》提到,低级的动物智能进化到人的智能的过程中,并没有明显的分界线,从具备初级智能的寒武纪时代生物线虫(302个神经元,7000个突触)到人脑(10^11个神经元、10^15个突触),智能本质上是神经元个数、连接数的量变到质变的过程。

早年业界一度认为小模型、小算力是方向,但行业落地实践证明其短板明显。2012年AI商业以来,业内外对于大规模参数的通用模型一直存在质疑,因为此前的共识是精妙的算法是未来方向,即通过更优质的算法和更高的模型精度,减少对算力的需求。精妙模型路线无法低成本的解决大量的长尾场景,以AI市场中份额占比接近一半的智慧城市为例,长尾场景是客户商业价值闭环的关键部分,小模型的生产方式无法赋能千行百业。

图表:智慧城市占人工智能市场行业近一半份额(2020年)

资料来源:艾瑞咨询,中金公司研究部

受限于开源训练框架和底层基础设施,早年业界对超大规模参数预训练模型的实现质疑较多。2020年参数量达到1750亿的GPT-3被推出之前,业界都对大模型路线抱有质疑,因为训练超大规模参数模型的技术难度和成本让绝大部分人望而却步,只有如OpenAI这样一直对超大模型抱有坚定信仰和情怀,背后又有微软、特斯拉等巨头的财力支持的机构才敢于探索超大模型训练的可能性。

复盘产业发展,深度学习模型所需算力的指数级增加,背后原因是通用性带来的参数指数级增加。以2012年到2018年最先进的算法所需算力为标准,从AlexNeT到AlphaGo Zero,算法对算力的需求提升了30万倍。这种指数级增长的背后原因是大模型对算力的需求指数级上升。

2018年后,超大规模参数模型的趋势明显加速。观察当前国内外AI巨头在超大规模预训练模型的探索,可以看出人工智能行业未来的发展趋势,是在输出方向大致确定的情况下,通过更大的模型和更多的数据,“大力出奇迹”地撞出结果。

图表:大规模预训练模型对于算力需求呈指数增长

资料来源:MEET 2021智能未来大会,中金公司研究部

从技术演进看大模型是实现通用AI的重要方向。过去的人工智能公司倾向于选择人效高的场景先落地人工智能。但近几年在长尾场景等问题导致了对更通用的人工智能的刚需,在国内外巨头纷纷投入大量资源攻克通用人工智能难题的推动下,一些通用的语言模型、视觉模型甚至多模态模型也开始逐渐取得突破。

大模型技术、资本壁垒高,是AI巨头之间的博弈

大模型时代,应用层公司无力进行底层技术的探索

超大规模参数模型技术探索所需技术、资本壁垒高,是巨头之间的战场。在AI模型参数量疯狂增长的背后,人工智能的竞争已经成为大公司之间的角逐,GPU集群的使用成本极高,GPT-3训练一次的成本达到上千万美金,且GPU集群并行计算的工程难度非常高,大部分公司没有财力支持这样的训练和研发。

除了资本壁垒,GPU集群计算的技术难度较高,存在内存墙等典型技术挑战。由于模型参数规模很大,往往只能采用分布式的策略将训练扩展到多个GPU,但芯片间的内存墙严重影响GPU集群的训练效果。根据伯克利RISELab统计,过去20年硬件峰值计算能力增加了9万倍,但内存/硬件互连带宽只提高了30倍。

训练框架是大模型时代的另一难点,现有开源框架无法直接训练超大模型。为了训练GPT-3,OpenAI实验室在对开源框架做了深度定制和优化,但自研分布式训练框架的难度高,基于开源框架的深度优化和定制也存在较高门槛,大部分AI公司较难实现突破。

自主底层框架能力、算法效率及成本是实现大模型关键

大模型训练过程面临大量的技术挑战。在大模型的分布式训练过程中,大模型和大数据来带的显存墙和内存墙会影响训练,因此必须使用大规模训练技术。但大规模训练技术同样面临诸多困难,包括:

显存问题:模型训练的显存占用峰值很高,可能会触碰显存墙而导致训练停止;

通信问题:深度学习迭代式训练需要大量的局部数据交换,但网络的传输速率远不能匹配 GPU 或 TPU 等专用加速芯片的运算速率,将导致训练速度变低。

计算挑战:各项技术的应用降低了计算效率,要采用合适的分布式架构,才能保证多节点数量下的加速比。

图表:ResNeSt269训练时的显存墙问题

资料来源:商汤科技公众号,中金公司研究部

图表:扩大带宽将导致带宽利用率将持续降低

资料来源:商汤科技公众号,中金公司研究部

底层自研框架是实现大模型关键,开源框架所提供支撑不足。训练框架是实现大模型的关键,因为训练框架的空间决定了深度学习发展的天花板,而训练框架的能力决定了深度学习发展的速度。目前海外开源框架在网络结构、设备兼容、性能与功耗均衡和各种自动化设计等均出现局限性,无法契合行业需求。由于大部分国内AI厂商做应用层面技术,而较少涉足基础AI技术层面,选择自研训练框架的厂商很少,拥有开源框架的就更少,因此国内AI厂商自研的开源框架非常稀缺。

大模型训练需要极强算力支持、成本高昂,仅少数头部机构布局,且需要底层技术投入降低成本来支持。大模型的训练需要极强的算力支撑,以微软与OpenAI合作建造的Azure人工智能算力平台为例,该算力平台投资约10亿美元,使用该超算中心训练一次超大模型GPT-3大约花费1200万美元。伴随大模型和大数据而来的,是对新一波以算力为核心的AI基础设施的需求,需要从AI全栈技术的各个层面去优化性能。

基于底层大装置+大模型,AI有望向基础软件分化格局演变

大模型+小模型是降低算法边际成本、解决碎片化痛点的关键架构

基于具备一定通用性的大模型,通过少量的增量训练蒸馏出小模型,是解决长尾问题的关键技术架构。从模型训练到部署,需要通过剪枝、量化、蒸馏等模型压缩技术实现更高的经济性及快速推理。以蒸馏为例,可以将结构复杂、参数规模庞大的大模型,压缩成结构简单、易于部署的小模型,相比于直接生产的小模型,大模型蒸馏出的小模型具有更强的泛化能力。

图表:蒸馏技术是类似于老师-学生传递知识的过程

资料来源:ICCV2019,华为云,中金公司研究部

大模型+小模型的方式能有效降低AI落地边际成本。通过对大模型进行量化、剪枝、知识蒸馏等模型压缩方法把大模型变小,高效的进行模型生产,能够覆盖各种长尾场景,且大大降低了复制成本。

从满足客户需求的角度看,大模型+小模型的应用是行业必然趋势。只有解决了长尾场景的各种痛点需求,客户对解决方案买单的意愿才会显著提高。大模型是解决长尾场景有效办法,因此我们认为,大模型是未来AI行业的必然趋势。

AI底层基础软件或将呈现分化格局,AI赋能百业指日可待

通过大模型+小模型模式解决边际成本和碎片化问题,实现AI赋能百业。以一个亿分之一级别精度的行人识别模型为例,2015年时,商汤需要10个研究员花6个月的时间开发,而现在只需要1个研究员用3天时间就可以达到同样的效果,GPU资源使用量降到原来的一半,边际成本大幅下降。

图表:商汤科技AI赋能百业实现方式

资料来源:艾瑞咨询,英特尔,商汤科技,中金公司研究部

本文摘自:2021年8月25日已经发布的《人工智能十年展望(二):边际成本决定竞争力,算法龙头主导格局优化》

陈星宇 SAC 执业证书编号:S0

魏鹳霏 SAC 执业证书编号:S2

(来源:中金基金的财富号 10:18)

我要回帖

更多关于 人工智能项目 的文章

 

随机推荐