人工智能的智能体不包括心理研究(AI)心理干预系统有哪家?

465万希沃等中标河北秦皇岛

昌黎县学校教育信息化设备

项目名称:部分学校教育信息化设备采购

中标供应商名称:河北浪淘沙电子科技有限公司

中标供应商名称:秦皇岛创先科技商贸有限公司

名称:智慧黑板品牌:希沃

名称:昌黎县教育和体育局本级

招商专版-扫码抢占先机

.cn)、基础教育科研服务平台、云屏数字阅读系统、学前教育知识库等。

【立达信物联科技股份有限公司】

一、招聘岗位:销售经理(全国各区域)

二、岗位年薪:30万+

2-具备教育行业、智慧城市、智慧路政、连锁店铺渠道资源

2-5月31日前奖励再升级(增加:沐光台灯/MEMO桌灯)

招聘信息提交表格每日最新招聘信息

公众号回复求职可获得求职最新实时信息列表

行业求职信息提交表每日最新求职信息浏览

扫上面二维码(选数据详情页面逐人浏览)

【甘肃、甘青宁新资深销售求职】

有10年教育信息化销售经验,可带团队,甘青宁新有丰富的代理商 及教育局资源覆盖客户:小学、初中,高中,教育局

赣州、辽宁、江西—教百集成商

【公司】江西玉双联科技有限公司

【需求】大型图书馆图书供货厂家

【公司】辽宁奥硕有限公司

【公司】江西易融通科技有限公司

【需求】智慧矿山大数据监测平台

  摘    要:人工智能通过算法和大数据分析已经深刻改变了人类的新闻传播行为, 在此背景下的新闻伦理研究处于哲学、法学和新闻传播学的交叉研究区域, 其中广义层次的研究聚焦人工智能及其伦理研究, 狭义层次的研究聚焦人工智能时代的新闻伦理本体。人工智能及其伦理研究的核心是技术的道德主体地位辨析, 而对此问题的回答则呈现极化趋势。分布式道德模型区分了道德问责和道德责任, 提供了解决这一哲学难题的新思路。人工智能时代的新闻伦理研究意在回应新技术背景下的新闻实践问题, 信息茧房效应、后真相、算法偏见和被遗忘权引发学界广泛的讨论。问题的实质是新媒体技术与社会伦理期待的冲突。其后的研究需要更为细腻的技术问题逻辑描述, 更具理论导向的新闻伦理本体研究和更高质量的跨学科研究, 从而形成来自人文社科的话语合力。

  关键词:人工智能;新闻伦理;算法;大数据

  作者简介: 赵瑜,浙江大学传媒与国际文化学院教授, 博士生导师, 传播学博士, 主要从事新媒体传播和视听传播研究。

  基金: 中央高校基本科研业务费专项资金资助项目 (2018FZA121)。

  如果我们将媒体广泛地理解为传播和交流信息的一种方式, 就不难发现信息技术和人工智能的发展与媒体的内在联系及其对传统媒体的冲击或影响。人工智能通过算法和大数据分析已经深刻改变了人类的新闻传播行为, 并且引发算法偏见及其纠正、数字身份及其保护、个人隐私及其保护、信息不当触及的讨论, 学界日益担忧数据垄断和算法“独裁”对社会过程和社会公正的影响, 因此, 信息技术的伦理治理和整体规制至关重要。国务院印发的《新一代人工智能发展规划》中也已明确将“制定促进人工智能发展的法律法规和伦理规范”作为我国人工智能发展的首要保障。

  自主智能系统的发展提出了一些亟待关注的问题, 人、机、自然 (社会) 之间的关系将出现新的构建形式, 如果将人工智能的终极目标等同于让机器 (物) 拥有自主意志, 这首先引发了人类的伦理危机感, 促使我们重回伦理本质的本体论和认识论问题, 探讨人类如何在智能技术的中介下构建安全、公平、美好的生活。人工智能便不再是一个单纯的技术问题, 而是一个哲学问题、政治问题。

  新闻传播领域所建构的拟态环境会直接影响人们的情绪、观点和行为决策, 对社会公正和社会安全具有重大意义。机器人写作、算法推荐和信息过滤、社交媒体机器人等带有自主智能系统因素的新事物已极大地改变了人类传播和接收信息的模式, 并在形塑人类行为模式的基础上产生了巨大的社会影响。如何界定人工智能技术的新闻伦理问题, 如何定义智媒时代的新闻专业主义, 如何构建智能媒体伦理治理体系和法规体系, 是亟待学术破题的重要领域。

  本文拟综论新闻传播学、哲学和法学在相关领域的研究, 厘清目前学界对人工智能和新闻伦理研究的重点领域并进行反思, 为未来研究提供思考的起点。

  一、人工智能及其伦理研究

  从工业革命以来, 机械化、自动化已经成为人类文明的一个显著特征。1956年达特茅斯会议上一批年轻的科学家首次提出“人工智能”的概念, 进一步扩大了技术人工物社会功能的想象空间, 从而被称为“第四次革命”[1]。

  人工智能研究, 简单来说, 就是要通过智能 (自动化) 的机器, 增强人类在改造自然、治理社会的各项任务中的能力和效率[2,3,4,5,6]。人工智能的本质是算法。算法是为了解决问题而输入机器的一系列指令[7,8,9,10]。

  人工智能起步时, 研究方法以逻辑推理与启发式搜索为主, 核心研究领域是符号人工智能。短暂的繁荣之后, 人工智能研究进入瓶颈, 直到20世纪80年代与神经网络研究结合, 又焕发了新的生机。目前, 计算机视觉、自然语言理解、认知科学、机器学习、机器人学等几大学科协同发展, 其中机器学习中的深度学习因为AlphaGo在围棋方面的卓越表现获得了公众广泛的关注。根据牛津大学2017年针对全球顶级人工智能专家的调查, 超过50%的专家认为人工智能将在45年内在所有领域超越人类, 并且将在120年内将所有人类工作自动化[11]。

  在1877年的《技术哲学纲要》中, 卡普曾敏锐地洞见到技术具有向一切人类领域扩张的能力[12], 某些技术具有一种强制性的功能, 能嵌入个人生活并产生深远的影响。计算机革命正在不断提高人们对自动化的依赖, 且自主性系统越来越多地掌控了各式各样的能产生伦理后果的决定。换言之, 目前的自动化系统已经复杂到一定程度, 甚至要求系统面对具体场景做出道德决策[13]。如此一来, 问题就转变为:人们对于把自己的生命和福祉交给没有确定的伦理框架的系统会感到放心吗?近来被曝光的Facebook、亚马逊用户数据滥用, Twitter机器人账户影响用户观点和情绪等问题, 使人们加深了这样的疑虑。

  与科学技术要解决的“能不能”问题不同, 伦理学要解决的是“该不该”问题[14]。在人工智能运用方面, 伦理学研究首先必须辨析核心价值, 以提供思考框架。

  (一) 技术批判与技术伦理

  资本主义早期对工人的残酷剥削、城市化和生态恶化, 在当时就引发了技术批判和反抗, 如英国知名的卢德运动。虽然主流学界对当时的反技术浪潮总体持批判态度, 但“闯进花园的机器”式的技术怀疑论始终存在。而二战对人类社会巨大的破坏作用, 使得希特勒被认为是人类史上首个运用技术力量而使罪行倍增的人。埃吕尔、麦克卢汉、马尔库塞、芒福德、赛佛、加尔布雷思、海德格尔、温纳、拉图尔等学者都发展和深化了对技术的学术反思, 这些著述也是技术伦理学的直接源头。

  海德格尔在《论思想》中指出, 在其生存的所有领域, 人都将比以往更加紧密地被技术力量包围, 将人置于这样或那样的技术发明形式的控制之下[15]。哲学家们担心人成了技术社会这部机器的齿轮, 从思想和行动上沦为机器的奴仆[16]。在这个意义上就诞生了“自主性技术”的概念[17], 表达技术业已失去人类控制之意。在康德学术脉络下谈论技术的自主性是令人不安的, 因为康德认为自主性是自我意志的根本条件。赋予技术以自主性, 在某种程度上即是人的自主性被替代[18], 主客体的位置产生了颠倒。

  但仍然有相当一部分学者认为技术是价值中立的, 技术本身并不是一种自我决定的力量, 仅是一种手段。雅斯贝尔斯指出, “技术本身并无善恶。一切取决于人从中造出什么” (1) 1。梅赛恩也坚持技术价值中立的观点, 认为“有益的做法是将技术定义为一般意义上的工具”[19]。

  部分学者承继埃吕尔的研究传统, 认为技术充满意向性, 是社会结构的体制性力量。温纳认为技术在中立的、工具式的掩护下, 建立了一种崭新的秩序[20]。美国技术哲学家唐·伊德认为技术不是中性的工具, 它们在人与世界的关系中发挥着主动性的作用[21]。在拉图尔看来, 道德和技术都是“本体论的范畴”, 技术以具体的形态促进人类社会的形成, 包括我们的行动和决定的道德特征[22]。

  最微妙的就是技术影响的“偶发”机制, 也就是说技术对人类的控制并不总是具有预先意图, 其中一部分后果是意想不到的。换言之, 人并非总能控制自身所创造的技术的社会后果。乌尔里希·贝克的风险社会概念也回应了这一观点, “在风险社会中, 未知的、意图之外的后果成了历史和社会的主宰力量”[23]。

  恰如荷兰学者维贝克所指出的, 早期技术伦理学采取的是批判的方式, 这些批评不是针对具体的技术应用场景和案例, 而是对“大写的技术”自身现象的批判[24], 但过于抽象化和哲学层面过于本质论的探讨方式反而流于隔靴搔痒。

  (二) 技术人工物道德主体地位辨析

  人工智能的技术想象突破了自启蒙运动以来人和非人实体之间的界限。美国技术哲学家唐·伊德识别出了人与技术的四种关系:具身关系、诠释学关系、他者关系和背景关系。唐·伊德所说的具身关系类似海德格尔的“上手”, 有些技术能够上手, 而有些技术只能在手, 成为我们行动的背景性因素。随着人工智能的发展, 人、技术与世界的关系结构发生了改变, 人和技术也表现出融合关系, 例如后现象学技术哲学家维贝克提出的赛博格关系 (cyborg relation) 和复合关系[25]。

  人工智能的技术想象包括创造出具有自我意识的自动化系统, 这就在伦理学体系内提出了一个全新的问题:技术是否能被赋予道德主体地位?自启蒙运动伊始, 伦理学就有着人本主义特征。以道德术语来研究物绝非易事, 这违背了伦理学理论的最基本假设[24]。

  在主流伦理学中, 一个合格的道德行动者至少是拥有意向性和一定程度的自由。很多哲学家认为, 技术客体缺乏自由意志和意向性, 不能对它们的行动负责。例如AlphaGo可以胜过人类围棋大师, 但是没有办法理解自己走子行为的意义, 现阶段并不具有自由意志。AlphaGo的智能实际上是以人为核心的一个巨大的延展认知系统的能力, 是系统部分认知功能的某种外化[26]。无论从道义论视角还是后果论视角, 人工物只能从因果层面而非道德层面对既定的行为负责。因此, “没有理由将人工物纳入道德共同体之中”[27]。

  弗洛里迪和桑德斯于2004年发表了颇具影响的《关于人工能动者的道德》一文, 聚焦实际上具有“行动者”资格的智能技术。他们依据行动者之互动关系标准, 使用交互性、自主性和适应性三个标准来判断。一个系统如果能与外部环境互动, 能在没有响应外部刺激的情况下行动, 也有在不同的环境中行动的适应能力, 这个系统就可以被视作行动者。如果系统行事方式会产生道德结果, 那么就被认为是一个道德自主体[1]。

  弗洛里迪和桑德斯在某种程度上提出了一个类似道德图灵测试的模式, 区分了道德问责和道德责任。这种分布式道德允许无心的道德, 将一个哲学难题转变为具备操作性的判断标准。也就是说, 我们无须执着于现有系统是不是成熟的道德智能体, 只要系统具备交互性、自主性和适应性三个标准, 就可以被等同于一个道德主体而予以问责。当然, 目前一部分哲学家不愿意赋予技术人工物道德主体地位的原因还在于担忧如此一来, 将使得设计这些系统的人类工程师被赋予了免责的地位[13,24]。

  (三) 工程师伦理

  责任是知识和力量的函数。在智能信息时代, 科学家、工程师不仅人数众多, 而且参与社会重大的决策和管理, 他们的行为会对他人、对社会带来比其他人更大的影响, 因此他们应负更多的伦理责任[28]。

  在过去25年中, 工程伦理领域的主要成就之一就是工程师们越来越意识到自身的价值观对设计进程的影响, 以及此过程中他们对他人价值观的敏感度[13]。20世纪70年代开始, 美国科学促进会和美国律师协会联合组成了国家律师和科学家会议, 讨论科学研究中的道德规范问题。之后, 美国发布了有关科技界社会责任的一系列报告, 如关于“科学自由和科学责任”的报告[29]。2000年, 美国工程和技术认证委员会 (ABET) 在其标准中明确指出, 工程教育必须要求学生“理解职业和道德责任”[30]。美国白宫人工智能报告将“理解并解决人工智能的道德、法律和社会影响”列入国家人工智能战略, 并建议AI从业者和学生都接受伦理培训[31]。

  当然, 也有专家认为技术活动是社会组织系统下的制度活动, 单一的工程师是无法对其技术后果承担责任的。德国技术哲学家、伦理学家罗波尔指出, 由于分工、合作等因素, 现代技术活动不是单个人的活动, 因而工程师作为个体不仅不能也不应该单独承担技术的全部责任 (1) 2。

  二、人工智能时代的新闻伦理研究

  伦理并非静态的规则, 而是个体和社会应对条件变动、意外事件和新思维模式所导致的各种问题的必要人类行为[32]。当社会生活变化时, 道德概念也会变化[33]。新闻行业本身受到信息技术变化的巨大影响, 而由于新闻本身特殊的社会功能, 新闻实践和新闻伦理对社会生活方式的形成意义重大。

  传统上, 媒体组织被视为履行社会特定职能的机构, 其生产惯例和条件一直受到技术的影响[34,35]。对中立事实的公正报道的观念某种程度上是从社会技术的革新开始的[35,36,37], 技术和经济学创造了一种新闻客观性, 超越了这个职业原有的专业框架[38]。21世纪初信息技术的发展对传统新闻专业主义产生了巨大的冲击, 传统的“验证新闻”及其严格的事实核实正在被非专业化的新闻形式所取代, “后事实”或“事后检查”的新闻业逐步形成[39], 可靠性和正确性等价值观受到影响, 新闻原创性等道德规则被打破[40]。也有学者把这一时代的新闻称为后工业时代的新闻[41]。

  我国新闻传播学界自20世纪90年代中期开始进行新闻伦理研究和教学。综论已有的相关研究, 大体可以分为三个主要议题:媒介伦理本体研究、案例研究和新媒体伦理分析。我国媒介伦理研究的第一阶段就是将新闻伦理和媒介伦理从公共道德领域分离出来, 提炼大众传播工作者和媒介机构在大众传播职业道德体系中诸个因素 (道德诫命) 发生冲突时的理性抉择原则。

  在新闻伦理的讨论和应用中, 操作和操守、知情权和隐私权、市场主义和专业主义的讨论, 一直在言论自由和社会福祉最大化之间产生理论碰撞。新媒体技术动摇了新闻从业者一直以来对新闻采集和传播的垄断地位, 由此, 围绕什么是“公正”和“正确”的新闻, 出现了越来越多元的理解, 传播伦理的概念出现向公民道德拓展的趋向。

  目前, 人工智能与社交媒体技术融合, 已渗透到新闻的生产、传播和互动各个环节中。其中机器人写作[42,43,44]、传感器新闻[45]和智能推荐机制[46,47]是人工智能应用于新闻传播领域的典型代表。

  随着新媒体技术进入新闻行业, 长久被珍视的伦理传统, 如新闻客观性、新闻记者的功能, 受到极大的挑战[32]。学者们对人工智能技术和新闻传播的结合整体保持乐观态度, 但对其间产生的信息茧房效应、信息源真实性、算法纠偏、个人隐私和被遗忘权等问题存在伦理忧虑。

  (一) 个人隐私与被遗忘权

  大数据是人工智能的基础, 无论是传感器新闻还是算法推荐, 都必须以浏览数据为基础进行加工, 这就涉及了个人隐私数据的二次使用。个人与公共隐私边界的模糊, 隐私数据所有权界定的模糊, 当下隐私数据保护规制的不完善, 都使得对个人隐私数据的二次使用始终存在着侵权的风险[48]。

  学者们对新媒体时代隐私权问题的讨论, 归根结底是关于公共空间与私人空间、社会边界和个人边界的讨论, 主要可以分为媒体的舆论监督自由与个人隐私保护、公共数据开放与个人隐私保护、保障公众知情权与个人隐私保护这三组矛盾。

  1 转引自闫坤如《人工智能的道德风险及其规避路径》, 载《上海师范大学学报 (哲学社会科学版) 》2018年第2期, 第40-47页。

  2 (1) 转引自刘则渊、王国豫《技术伦理与工程师的职业伦理》, 载《哲学研究》2007年第11期, 第75-78, 128-129页。

本文系作者投稿,文章来源:中科创星,作者:罗宁,担任中科创星品宣部文案策划经理,长期关注芯片制造、航空航天、人工智能等硬科技领域。。猎云网经授权发布。

后疫情时代,社会心理健康问题备受关注。今年3月,世界卫生组织在简报中指出:“新冠疫情大流行的第一年,全球焦虑和抑郁患病率大幅增加了25%。”疫情的限制加剧了人们的孤独感。在中国,现实情况同样严峻。根据国家卫健委《健康中国行动()》指出,国内抑郁症和焦虑症患者分别占总人口的2.10%和4.98%,而对于如今升学、就业、工作都压力山大的年轻人来说,一句时不时挂在嘴边的“我emo了”,则更证明了这一群体中不少人处于心理亚健康状态。

但是,一方面,国内精神科医师数量不足5万人,每10万人平均拥有精神科医师不及国际标准的1/4。另一方面,在中国,相当一部分存在心理健康问题的人群具有较强的“病耻感”,人们对于心理健康问题通常不够关注。

巨大的市场需求和短缺的心理健康资源推动相关领域出现投融资小高峰。2021年来,心理健康赛道共发生投融资事件30起,涉及23家企业,金额超亿元事件7起,不仅B、C轮次投融资项目增多,亦不乏字节跳动、经纬中国等头部VC身影。

众多融资事件当中,利用AI技术解决心理健康问题的初创企业出现,不仅颇受资本市场关注,也在各地疫情中起到愈发重要的作用。但该领域发展现状究竟如何?和海外相比有何特殊之处?结合数字疗法的行业前景究竟如何?热潮之下,又有哪些玩家能率先跑出?

在心理疾病中,抑郁症是导致失能的主要原因。

目前抑郁障碍最主流的治疗方案包括三种:药物治疗、物理治疗和心理治疗。其中心理治疗层面研究最多的当属认知行为疗法(CBT)。使用该疗法时心理医生会通过言语交谈与行为矫正技术相结合的方式,在对话过程中帮助病人识别、检验和改正曲解的概念,通过对“此时此地”心理和境遇问题的比较,以及恰当的思考问题方式的应用,使得病人在症状和行为方面得到改善。

2017年,斯坦福大学临床心理学家Alison Darcy基于行为认知疗法发明了情绪聊天对话机器人Woebot,并很快吸引到前百度首席科学家、斯坦福大学计算机系教授吴恩达的加入,在担任Woebot董事会主席一职时,吴恩达表示:“我认为,Woebot 这一心理健康聊天机器人很有可能成为一款杀手级应用程序。”

Woebot是一个Facebook集成的计算机程序,旨在复制病人可能与他或她的心理康复师进行的对话。Woebot以CBT原则为基础,“倾听”用户感受,并判断用户是否正在进行“消极的自我对话”,从而做出合适的引导。在聊天对话过程中,AI不但能够通过字句、措辞等判断用户的情绪,还能分析用户的打字速度、句子长度、语法等其他参数也衡量情绪,也因此其在检测危机语言方面的准确率达到了98.9%。

更深入探究AI技术的还有谷歌。2020年,谷歌旗下Alphabet X实验室成立的“Amber”项目发表了关于“AI分析脑电波诊断抑郁症”的研究文章,研究人员提到,AI技术的加入可以让脑电波像血糖监测一样变得容易理解,并将抑郁和焦虑情绪转化为客观、精准的测量值,支持抑郁症的诊断。

实际上,AI心理健康行业正处于快速成长期。据海外机构Fierce Healthcare统计,到2021年,海外心理健康领域初创公司累计融资额达55亿美元,同比增长139%。AI“新秀”不断出现,前有成立于2011年的Ginger.io,先后融资11轮,共计2.2亿美元。后有成为独立App的Woebot,累计融资共1.233亿美元,成为不容忽视的独角兽。

在新技术浪潮下,我国借助AI技术发展的心理健康行业探索并没有落后很多。2018年,清华大学计算机科学与技术系黄民烈教授就提出情感对话生成技术、情绪支持对话框架等技术,并于2021年开发出中文对话系统领域大模型和共情聊天机器人Emohaa。

2021年,黄民烈教授创立聆心智能,尝试通过建立AI数字疗法体系,为临床患者和心理亚健康人群提供个性化、全天候、高质量、低成本的心理健康服务方案。

AI情绪聊天机器人Emohaa面向所有线上用户群体,具备7*24小时服务和不断更新进化的机制。在黄民烈教授看来,自然语言处理一方面作为理解用户需求的最基本工具,结合其需求相契合的循证算法模型,为用户提供医学上最有用的数字疗法解决方案;另一方面,聆心智能的自然语言处理技术本身在生成模型上就带有情感支持的能力,因此本身也会作为数字疗法的一个组成部分,这是市场上所独有的技术。

更进一步的技术探索已在路上。目前,聆心智能正结合声纹音频特征和自然语言对话算法的多模态对话系统,借助对话沟通方式解决心理亚健康问题。每个人的声音信息均包含丰富的数据,利用并分析这些数据,便可以确定声音特征映射的特定的心理健康状况。

据了解,聆心智能也成为目前国内唯一融合自然语言处理与声纹音频特征等多模态技术提供AI心理问题解决方案的服务商,凭借这样的核心技术,聆心智能才有可能结合行为练习、书写练习、自动化思维训练等一系列AI驱动的轻量级心理健康方案进一步完善产品,对于心理健康资源比较丰富的海外而言,这些或许不用结合AI也能完成,但对国内而言,却往往需要借助机器来更好实现。

AI个性服务直面行业痛点

据统计,2021年以来,国内心理健康赛道共发生投融资事件30起,涉及23家企业,领域包涵数字疗法、SaaS服务、健康生活方式、心理咨询师职业服务等领域,然而,涉及数字疗法,以及AI技术相关的心理初创企业仅有6家,占比26.1%。

根据国家相关政策规定,远程医疗和在线医疗不可以对患者进行首诊,不得确诊病症、开具处方、建议用药等。因此,众多初创企业从心理测试、心理咨询师培训、心理健康交流社区等侧面切入赛道。而作为专注于线上心理健康服务平台,聆心智能瞄准了AI技术与心理健康问题结合的路线,以线上个性化服务直面行业痛点。

纵观海外AI+心理健康赛道初创企业,可以看到,自然语言对话系统成为技术商业化落地的基石,不论实验室中的语音识别亦或是谷歌临床探索中的AI+脑电波,都处在技术的初级阶段,尚不具备商业落地的可能。显然,通过结合声纹音频特征和自然语言对话算法的多模态对话系统,聆心智能找到了技术商业化落地的方向。

聆心智能从评估和筛查开始入手,为用户提供自我觉察与自助干预方法,包括但不限于CBT、DBT、IPT、ACT等等一系列的循证心理治疗手段。并在恢复期过程中,对用户状态进行跟随管理,进而降低复发率。同时,聆心智能利用AI技术提供个性化的干预方案,并能够根据用户自身状态变化而对方案进行动态优化。其中,算法模型会根据用户的说话方式感知背后的思维方式和逻辑链路。在黄民烈教授看来,情绪聊天机器人Emohaa和日常时面对的Siri、Alexa等语音助手最大的不同便在于此。

Emohaa机器人具备情绪识别、策略应对、共情表达三大特色,从而能够完成复杂的情感交流任务,而作为其技术核心的三阶段理论模型则成为聆心智能的优势所在。即第一阶段先确认用户的具体问题,第二阶段通过共情、理解表达支持,第三个阶段为用户提供解决方案或建议。在每一个阶段都设计了相应的策略,如提供信息、直接指导、挑战、解释等。

AI技术和心理学的融合如今依然面临挑战,心理咨询理论已经发展一百多年,形成了相对成熟而完整的理论,心理学家对于用户能够因人而异提供针对性的“标签”分类心理服务,但如何将相应理论运用于AI模型却始终是行业面临的困难之一。常见的对话机器人通常采用六个情绪类别:喜、怒、哀、乐、悲、其他,这种分类方式在部分场景是适用的,比如客服机器人。但人类的情绪远不止六种,在精神心理专业领域需要更全面的分类标准。但分类过度又会导致AI学习进度缓慢甚至学不会的情况。

聆心智能在平衡资源、成本的同时,通过与专业心理咨询机构合作,重新设计出更适合AI学习的多分类情绪的标签体系,在保证专业性和有效性的同时,也为AI模型的进一步落地奠定基础。在黄民烈教授看来,当前对话系统理论和技术日益成熟,下一代类人对话系统应同时具备完成任务和情感链接的能力,在知识、个性和情感三个方面实现拟人化的语言交互,也能通过识别用户面部和肢体动作,进一步实现心理健康服务能力的突破。

解决社会心理健康问题任重道远

对于AI技术和心理健康领域的深度结合,也存在一些争议。部分观点认为AI的发展最终会导致心理治疗师失业,但实际上,AI技术的进步并不是取代而是增强,AI情绪聊天机器人系统,是根植于数字疗法这棵大树的枝叶之一,AI技术的出现一方面能够帮助心理治疗师量化指标,找出心理问题的最优解,另一方面,也让这个过去资源分布极不均衡、社会感知不明显的行业重新受到重视。

根据2018年的《中国城镇居民心理健康白皮书》的调查数据,我国有73.6%的人处于心理亚健康状态,16.1%的人存在不同程度的心理问题,即使保守估计,最少仍有1.9亿的人是需要心理健康服务的。与之相对应的,则是市场端严重供不应求。AI与心理学的融合,将进一步拓宽心理治疗师的发展道路,而国内依然亟需有相关技术和使命感的企业探索前进。

行业发展也离不开政策支持:2020年,国家药品监督管理局便开启了数字疗法审批通道,2021年,广东省将心理治疗纳入医保,教育部将抑郁症筛查纳入学生体检,在国民经济和社会发展十四五规划和2035年远景目标纲要中,也都提到了要健全社会心理服务体系和危机干预机制,其中“十四五”提及心理共19处,是“十三五”的3倍,政府对于心理健康问题的重视程度不言而喻 。

资本市场也用实际行动表现出了对心理健康领域的关注,过去一年,心理健康赛道出现多起大额融资。2021年9月,专注于CNS(中枢神经)及精神心理健康领域的医疗平台“好心情”,宣布完成2亿元C轮战略融资,领投方为字节跳动,1个月之后又完成1亿元C+轮融资。12月,壹点灵完成2亿元人民币B+轮融资,简单心理完成了2亿人民币B轮融资......种种迹象表明,当疫情严重影响VC们对新消费、文娱等板块期望值后,心理健康成了又一个“香饽饽”。根据2020年全球健康研究所(GWI)《定义精神健康经济》报告显示,全球心理健康市场规模已经达到1210亿美元的规模,业内人士预估,中国心理健康领域市场规模在3000亿元级。

面对后疫情时代,中国市场成长空间及增长潜力更加巨大。好心情平台《2022数字化精神心理健康服务行业蓝皮书》中指出,以其平台为例,心理健康相关支出自2017年人均346.12元升至2021年人均1905.07元,4年时间增长450.4%,可见心理健康领域前景广阔。

黄民烈教授认为,结合声纹音频特征和自然语言对话算法的多模态对话系统,不但让情绪聊天机器人得以进入人们的虚拟空间,帮助解决心理问题,更让AI与心理学结合有了更多可能,在未来,面部表情、语音、姿态行为等都将为国民心理健康起到重要作用。而当下,结合AI技术,为更多人提供个性化的心理健康解决方案之路依然任重而道远。

(责任编辑:崔晨 HX015)

我要回帖

更多关于 人工智能的智能体不包括心理研究 的文章

 

随机推荐