苹果siri有什么功能功能,我觉得没啥用,直接没用过,有没有都无所谓,有一样的么

Iphone 6s(嘿Siri)上手体验及建议 - 简书
Iphone 6s(嘿Siri)上手体验及建议
昨天上手了Iphone 6s,这是本人使用的第一部Iphone,但不是第一个苹果产品(用过iPod,Mac air)。而再此之前,因为支持开源,而坚持使用安卓系统。由于使用的时间不够常,深度不够,一些个人观点可能有偏颇吧,要搬砖砸我的我也认了吧。试用前个人已经形成的观念前提如下:----智能手机发展到现在这个阶段,拼的不是硬件配置,而是创新和软件。----撇开产品定义,To C端软件是否能够成功,第一要素是可靠性和稳定性。(针对国内公司浮躁的心态堆砌功能的做法有感而发)
开箱的一些体验细节我就不说了,今天着重谈谈创新和软件。另外也希望我的个人体验对大家做出是否购买的决策会有所帮助。
作为一个第一次使用Iphone的人,基于对苹果的功能认识并不深刻,我认为苹果的首次开机的引导流程还是太长了,引导不够完善。这些设置是为了让用户更好的体验它的强大,但是在国内很多普通用户可能并没有去使用Siri和iCloud driver,而这两个设置我相信大部分在尝试设置后都会放弃,毕竟拿到手机后,大家的心态都一样,迫不及待想进入系统界面,赶紧开始试用。而真正决定是否会去使用Siri和iCloud driver则取决于用户的使用深度,在国内只拿iphone来通话的大有人在,可能再加上使用微信吧(不得不佩服微信)。值得安慰的是苹果至少还是提供了跳过选项。
Siri和iCloud driver是苹果具有战略高度的两款产品,Siri是人工智能的窗口,iCloud driver则是苹果产业链生态的桥梁。
先说说Siri吧,iPhone 6s在Siri上的改变在于支持全天候语音激活(硬件上的一小步,场景应用上的一大步)。激活口令“嘿Siri”;而使用前必须设置,即安卓界面显示输入语音,共5步:1、“嘿Siri”;2、“嘿Siri”;3、“嘿Siri”;4、“嘿Siri,今天天气怎么样?;5、”嘿Siri,是我?"
第一次设置的时候,我连前3步都过不去,而软件在我念完多次后只给了我一个反馈“无法识别!”。真是恼羞成怒,“嘿Siri”功能怎么这么难用呢!!是我的普通话不准?还是我把Siri的发音发错了?我特意上了百度翻译去查发音,证明自己是对的。想必很多人也会碰到跟我一样的问题----嘿Siri的设置怎么都无法完成。如果你碰到了,你又看到了我的这篇文章,那么恭喜你,你很快就可以顺利的使用这个功能了。
技巧:在嘿和Siri之间不要停顿,连贯的发音,另外就是嘿的发音不要太长。
如果这样还没有解决你的疑问,那么你一定比我更深刻的感觉到软件的反馈设计实在是与苹果的名声不符。
“嘿Siri”的设置包括录入和验证两个环节。录入就是把你的声音放在识别库中,获取你声带的特性,把Siri变成你的私人秘书。个人实测,同样的发音女生并无法激活Siri。我不确定区分度会有多高,因为我并没有找声带跟我相近的人试过。验证则是与苹果的基本库去匹配,也就是把声音变成激活指令。而我所遇到的困难应该发生在匹配环节,相信苹果后续还会优化,至少必须要优化设置反馈,别让用户对着手机傻傻的重复“嘿Siri”,却只会告诉用户“无法识别!"。
过了设置这一关,那么恭喜你了,因为你即将步入的一片新大陆了。很多场景下你可以彻底的解放双手了。这算是一次革命(当然,你可能说OK Google之前已经实现了,只是跟进而已),那么我想说,对于苹果手机自身来说它就是一场革命,它把人机交互的门槛降到了0。个人实测了以下场景(Siri能做什么?):1、双手沾着油的时候,靠近手机说“嘿Siri,打电话给XX。”---然后免提电话就拨通了。2、睡觉前告诉我的秘书“嘿siri,明天早上八点半叫我起床。”----闹钟就设好了。3、坐上车告诉我的秘书“打开蓝牙。”----蓝牙开启了。“播放音乐,月半小夜曲。”----车内的音响就响了起来。(支持开启数据,但是不支持开启定位服务)4、灵感来袭的时候,瞬间记下idear,“嘿siri,帮我写备忘录xxxx”----顺利的扑捉到瞬间的灵感。5、脑袋里有疑问,百度网页“嘿siri,帮我百度一下虾要怎么清洗”----立即就可以看到结果了,跟我们所熟知的方式相比跳过了N多个步骤。6、开启你想用的应用APP,”嘿Siri,打开微信。"----直接就进入了微信页面。7、别人问你同事的号码时,"嘿siri,查一下XXX的电话号码。“---0操作....大家可以无限的挖掘场景了...,也欢迎大家跟我分享你发现的场景。
当然,Siri的这些功能并不是6s才有的,6s的突破在于0操作的自然对话。
其实,国内的一些公司中文语音识别做得可能比Siri还好,准确率更高,识别速度更快,可惜由于产业链的布局不够完整而无法把使用门槛降下来,无法无限的拓展使用场景。语音识别必须与操作系统自身结合起来才能体现它的价值。建议语音识别企业加强与OS厂家之间的合作,别在这个点上又弱后苹果太多年。补充一个苹果甩安卓好几条街的痛点:1、APP安装在后台完成,不需要人工介入。
苹果安装App的体验比安卓好很多,最重要的一个痛点在于,当你在批量寻找App的时候,不会因为弹出安装对话框而打断你的场景,当更新20几个APK的时候反复的弹窗和点击安装,点击完成着实是很烦的事情。(话说360很强大,已经把点击安装和点击完成都帮用户做了,可惜制标不制本,用户还是强制性的被干扰了)2、一些常用的操作比三星的安卓系统简单
卸载软件,整理文件夹等。下面给还在犹豫的是否购买苹果6s的朋友们一些客观的建议。6s优点:1、A9处理器更省电。Joen:电量依然觉得不够用,建议有钱又对使用时间要求较高的朋友买6s plus2、摄像头提升前置500万(赞),后置1200万像素。Joen:建议入手64G,如果买16G,建议用6,别换6s,否则你一定后悔。(对于不喜欢拍照,APP不超过20个的朋友,请忽略这条建议)3、分辨率更高Joen:人眼基本识别不出来差异,所以可以不用考虑这个改善。4、3D touchJoen:多了一个操作维度,虽然现在还没有太大体会,不过我相信这会是质的飞越。5、“嘿Siri” 随时叫随时响应。Joen:超赞缺点:上网搜吧,肯定有的,只是我个人目前还没有感觉到。小结:如果你是做产品的人,那么别犹豫了,硬着头皮也入手一把iphone吧,至于哪个型号就看你自己取舍了,前面说了到这个阶段拼的是创新和软件,你就根据上面几条有点权衡吧。其他角色我就不给建议了,毕竟是卖肾的价格。下面是对苹果的吐槽:1、输入法没有安卓好用
个人习惯26键,但是苹果上的26键字母的区域好小,比安卓更容易误操作。由于iOS不支持直接语音转文字输入,而是要通过面板复制然后返回对话框黏贴,我直接就弃用了我在安卓上一直使用的讯飞输入法;转而使用了搜狗输入法。原来我还怀疑微信语音输入的意义,现在明白了,原来是为苹果设计的。
这里插个个人观点:讯飞输入法的强项在于语音识别,它可以把打字数度提高到每分钟150个字,大大提高文字输入的效率,当然前提是你别太介意一些错别字。而搜狗输入法的强大之处在于模糊识别算法和PC同步的个人词库。2、系统封闭,很多重要的接口还没开放给第三方。
控制面板的音乐不能切换成第三方的,自身的音乐格式还独特,最不能接受的是试用3个月后每个月要10元。(可能是因为自己是中国人吧)。
野蛮生长的品种
注:转载请注明出处 本报告通过对Siri的分析,了解和学习人工智能助手在现有市场的应用情况,为制作机器人产品提供一些思考的方法和方向。 一、产品基本情况 分类 描述 中文名称: 苹果智能语音助手 苹果智能语音助手: Siri 软件类型: 语音助手 首次面世时间: 2007年...
姓名:任思远 学号: 转载自:https://mp.weixin.qq.com/s/3pqZxEV-kRBKcWwoiqkSng 【嵌牛导读】:拥有iPhone的朋友一定对Siri很熟悉,他是如何实现的?iPhone公司在研发过程中又遇到过什么挑战?在...
日,苹果发布了新一代的 iPhone 8 和 iPhone X,iPhone 手机已在不知不觉中走完了十年的历程.小伟哥熬夜看了这场发布会,决定写点什么,向这款伟大的产品致敬.我就来写写 iPhone 这十年来发生的变化吧. 十年之前,中考前的那个暑假,我...
关于 iOS 9 本身的新特性,我们在之前的文章中已经和大家聊过了,这次文章的主要内容集中于我认为的 iPhone 6s 设备本身的一些新改变进行展开,其中重点就是 3D touch 功能的演示,文末有个人简单录制的演示上手,希望能对各位犹豫换不换设备的小伙伴有一定的参考价...
亲爱的天使8班的老师和同学们大家早上好!
欢迎来到yy天使八班会议室参加我们最珍贵的最后两次会议,我是今天的主持人汤琳,首先祝大家节日快乐,合家幸福。 能再次为大家主持本周的会议我非常的荣幸。
我们天使八班的老师和同学们已经走过了九十几天。 在这90天里,我们彼此...
圈子很小,干净就好
丹尼不吃猫 今儿,突然发现天变冷了,以前的短裤该下架了,长衣开始占据了我的衣柜。簌簌的落叶拍打着我的脚,呼呼地风在耳边响起,好像上海欠我一个温婉如玉的秋天。借着这样的天,确实应该做些什么,于是我开始坐下来敲敲键盘。 我嘛,其实到了这...
1、 前天写了一篇关于农村小孩的文章,四年级的女生毛玉洁,有些邋遢,有些智力欠缺,在家里没人管她,在学校老师打骂她,同学欺负她。我原本是想借此参与之前首页里的讨论——“农村孩子该不该多读书”的问题,可是我记录的体罚片段,却刺痛了很多人的神经。 我相信那是因为,每一个人做学生...
先秦文学有两源,现实主义和浪漫。 《诗经》分为风雅颂,反映现实三百篇。 手法牢记赋比兴,名篇《硕鼠》与《伐檀》。 浪漫主义是《楚辞》,《离骚》作者为屈原。 先秦散文有两派,“诸子”、史书要记全。 儒墨道法属诸子,各有著作传世间。 儒家《论语》及《孟子》,墨家《墨子》见一斑。...
火辣辣的太阳火辣辣的心,像是过久了安逸便见不得累,天天早起自然受不住晚睡
聪明的蝉 文:半米
森林里住着一只蝉。它有一对大大的眼睛,最喜欢穿着薄衫的透明外套站在树枝上唱歌。天气越热,他唱的越大声。唱一会儿还不忘记自夸一下:我可是最会唱歌的蝉,我的歌声真的是太美妙了,让我自己先陶醉一会儿。蝉儿一副歌唱家的派头,吱吱吱,吱吱吱的唱个没完。感谢赞赏!给好友秀一下吧
内容棒,扫码分享给好友
深度解密苹果人工智能:不止有Siri,iBrain已经在你iPhone之中
虎嗅注:说到苹果公司的人工智能技术你能想到什么?可能是Siri,但并不会觉得它多么的有科技感。实际上,苹果在人工智能的发展一直不被外界所知,Backchannel主编Steven Levy近日走访了苹果,带你了解苹果在人工智能上的一切。#不只有Siri哦#本文来自Backchannel,原文标题为,作者Steven Levy,、家欣、Jasper,虎嗅转载。眼下最受关注的技术非人工智能莫属,但全球市值最高的公司苹果似乎对此无动于衷,被认为在人工智能领域严重落后,除了语音助手Siri,似乎没有更多作为。但真实情况或许与外界猜测的完全不同,阅读本文你可以迅速了解苹果哪些产品已被机器学习入侵,为何它能秘密研发新技术多年,机器学习给其文化和原则带来了怎样的挑战,它又是如何与主流业界“对着干”……眼下最受关注的技术非人工智能莫属,但全球市值最高的公司苹果似乎对此无动于衷,被认为在人工智能领域严重落后,除了语音助手Siri,似乎没有更多作为。但真实情况或许与外界猜测的完全不同,Backchannel主编Steven Levy近日走访了苹果,发现这家公司其实先于业界使用了时髦的深度学习技术,并将其用在了除Siri外的方方面面。阅读本文你可以迅速了解苹果哪些产品已被机器学习入侵,为何它能秘密研发新技术多年,机器学习给其文化和原则带来了怎样的挑战,它又是如何与主流业界“对着干”……一日,Siri迎来了一次脑部移植。再三年前,苹果是第一家将智能助理整合进其操作系统的主流公司。而Siri则是苹果对一个收购而来的独立应用的改进,它还在2010年吞下了开发团队。对于Siri,最初的评价令人欣喜,但后来的几个月到几年中,用户对它的缺点越来越不耐烦。它常常错误理解指令,怎么调整也没沅改进。所以在上面提到的那个日期,苹果将Siri的语音识别移植到了基于神经网络的系统上。这一服务首先面向美国用户,并在8月15日推向全球。一些早期技术仍有用,包括隐马尔可夫模型,但现在系统使用的是机器学习技术,包括DNN(深度神经网络),卷积神经网络,长短期记忆单位,封闭复发性单位(gated recurrent units),以及n-grams等。用户升级后,Siri虽然看起来还是一样,但经过了深度学习的加强。与其它底层改进一样,由于不愿向竞争者暴露自己,苹果没有公布Siri的进展。如果用户注意到了什么,也只是它犯的错变少了。苹果也表示,准确度的改善令人震惊。Eddy Cue苹果互联网软件及服务部高级副总裁Eddy Cue表示,“这次改进的效果如此明显,以至于进行了重新测试,确保没人算错小数点。”Siri转变的故事会让人工智能领域的人皱起眉头,不是因为神经网络对系统的提升,而是因为苹果对技术如此熟练又如此低调。直到最近,虽然苹果在AI领域加大了招聘力度,也做出了一些高调的收购,但外界还是认为它在最为激烈的AI竞争中稍显落后。由于苹果一直守口如瓶,连AI行家也不知道它在机器学习上有何作为。在斯坦福教授人工智能历史一课的Jerry Kaplan表示,“苹果不属于社区的一分子,就像是AI领域的NSA(美国国家安全局)”。一般认为,如果苹果的努力与Google和Facebook一样认真,应该会被外界所知。艾伦AI研究所的Oren Etzioni表示,“Google、Facebook和微软有着顶尖的机器学习人才。苹果确实聘用了一些人,但机器学习的五大领袖中有谁为苹果工作?苹果有语音识别技术,但除此之外机器学习还能帮什么忙呢。”二然而,就在本月初,苹果秘密地展示了机器学习在自家产品上的应用。但没有展示给Oren Etzioni看,而是展示给了我。当天,我的大部分时间都待在了苹果库比提诺飞船总部大楼里,在苹果高管的陪同下,感受了苹果产品在人工智能与机器学习上的紧密结合。(高管包括Eddy Cue,副总裁兼市场营销主管Phil Schiller,以及软件主管兼高级副总裁Craig Federighi)同时在场的还有负责开发Siri的专家。当我们都就坐以后,他们给我看了写满了两页纸的机器学习应用,一些是已经投入使用的产品或服务,一些是还在讨论中的项目。如果你是一名iPhone用户,大概已经受益于机器学习所带来的用户体验的提升。但与直觉相反,机器学习并不仅仅应用于Siri上。识别陌生来电,在解锁后列出你最常使用的应用,或者在提醒事项中标记了一个约会(但你并没有将之放入日程表中),以及自动显示附近标记的酒店,这些在苹果全面拥抱机器学习及神经网络后,都能做得更加尽善尽美。对,这就是传说中的“Apple Brain”,已经内置于你的iPhone中。用到了神经网络的面部识别“机器学习”,一名专家说,“现在在苹果的产品及服务里无处不在”。Apple store使用深度学习辨别骗保行为,公测版操作系统收到的反馈也会使用人工智能筛选一遍,找出有用的反馈报告。还有苹果的News应用,采用机器学习挑选出你可能感兴趣的新闻源。Apple Watch也利用到了机器学习,检测用户在锻炼状态还是仅仅在闲逛。还有就是众所周知的相机人脸识别,iPhone早已搭载这项技术。在Wi-Fi信号较弱的情况下,出于电量考虑,iOS还会建议你使用蜂窝网络。它甚至能分辨出拍摄视频的好坏,并在点击一个按钮之后,快速把一组相关的视频剪辑到一起。当然,这些苹果的竞争对手们做的也不赖,但高管们强调,苹果是唯一一家在用户隐私及用户体验上取得平衡的公司。当然,要在 iOS 设备上达到这一标准,也只有苹果能做到。对苹果来说,人工智能并非新玩意儿。早在上世纪90年代,苹果推出牛顿(Newton)平板时,配套的触控笔就采用了一定程度的人工智能,用以识别用户输入的字符。这一研究成果目前还在为苹果帝国发光发热,即Apple Watch上面的中文字符识别系统。这一系统允许用户输入极为潦草的笔划仍能精准识别。(这些功能数十年以来都是由统一的机器学习团队在研发)当然,早期的机器学习极为原始,现在大行其道的深度学习在当时仍处于襁褓之中。现在人工智能与机器学习成为人必言之的显学,苹果在这方面一直饱受批评。近几周,Tim Cook终于发话,表示苹果并非在人工智能方面没有着力,仅仅是宣传较少。现在,高管们终于已改闷声做事的做法,将苹果在人工智能方面的成果公之于众。机器学习用于Apple Watch的健康应用“苹果在过去的五年里增长迅猛”,Phil Schiller说,“我们的产品的改进速度也非常快,A系列的处理芯片每年都有不小的性能突破,这使得我们拥有更加充裕的性能,将越来越多的机器学习技术应用到终端产品上。机器学习有不少好东西,而我们也有能力用好它”。即使苹果拥抱机器学习的热情丝毫不亚于任何硅谷科技公司,但他们对于机器学习的使用仍是克制的。这帮库比提诺的天才们并不认为机器学习是解决一切问题的灵丹妙药。人工智能是未来的交互方式,但触摸屏幕,平板电脑,面向对象编程在特定时期一样发挥了相同的作用。在苹果看来,机器学习并非其他公司所说,是人机交互的终极答案。“人工智能与以往改变人机交互的各种媒介并无本质区别”,Eddy Cue 说。苹果对于机器是否将取代人类这样老生常谈的讨论也并无兴趣。与预期相同,苹果并没有承认造车计划,也没有谈及自制电视剧的传言,但苹果的工程师们明确指出,他们不会造出类似“天网”的东西。“我们使用技术来解决以前做不了的事情,已经改进旧有范式”,Schiller说,“我们确保每项技术都能以最苹果的方式应用到产品上”。之后,他们对于上述观点展开了进一步的阐释。如,人工智能在多大程度上重塑了苹果的生态系统。苹果研发人工智能的初衷是,弥补缺乏搜索引擎带来的用户体验缺失。(搜索引擎能够训练神经网络,使其快速成熟)此间,高管们再次强调了苹果对于保证用户隐私的决心。(即使这样将限制用户数据的使用,从而阻碍机器学习的效果)高管们强调,这些障碍并非不可逾越。这个“大脑”有多大?iPhone上有多少用户数据缓存可供机器学习调用?工程师们的回答让我惊讶:“平均200Mb,具体多少取决于用户信息的多寡。”(为节约存储空间,缓存会时不时被清理出去)。这些信息包括了应用的使用习惯,与他人的交互,神经网络处理,还有“自然语言模型”。还有对象识别,人脸识别,场景识别等供神经网络学习。对于苹果来说,这些数据都是你的私人信息,并不会被上传到网络及云端。三尽管苹果并没有对其在人工智能方面的努力做出任何解释,但我还是成功获取了有关公司内部如何分配机器学习技术的决议。其机器学习智能可以在全公司得到共享,并且公司鼓励生产团队利用这一技术来解决问题,并发明一些更具特色的个性化产品。“在苹果,我们并没有一个单独集中负责机器学习技术的组织”,Craig Federighi说:“我们尽力保持各个团队之间的紧密合作,力图应用这一技术创造出良好的用户体验。”那么在苹果有多少人在从事机器学习这一块的工作呢?“有很多”,Federighi在受到一些刺激之后说道。(如果你认为他会告诉我具体数字,那说明你还不了解苹果)有趣的是,负责苹果机器学习的许多人,在进入苹果公司之前,并没有受到过这方面的必要训练。“我们雇用的人才都是在一些基本领域方面十分厉害的人,比如像数学,统计学,程序设计语言,密码学等。” Federighi说:“结果表明,这些核心的智能能够完美地转换为机器学习智能。尽管现在我们的确雇用了许多机器学习人才,但我们还是希望能找到具有良好核心资质和才能的人才。”Craig Federighi(左)与Alex Acero尽管Federighi并没有说,但这一途径似乎不可避免:苹果喜欢保密,而竞争对手们则鼓励计算机科学家将他们的研究在全球范围内共享,这样一来,苹果便会处于不利地位。“我们的实践更倾向于强化自然选择——其实就是两种不同类型人之间的对抗,一种喜欢通过团队合作,进而创造出伟大的产品,而另一种则是将公布产品和技术作为他们的首要动力”,Federighi说。如果科学家们在提升某一苹果产品性能的同时,又恰巧在这一领域取得了重大突破,那真是再好不过了。“但正是对最终结果的幻想为我们提供了巨大动力。”Cue说。苹果在这方面的一些才能也来自于不断的收购。“最近一年时间,我们已经购买了20到30家公司。这些都是相对较小而又真正需要人力的公司。”Cue 说。“当苹果买下一个人工智能公司时,这里肯定会有大量的机器学习研究员,但我们不会是稳定住这些人” ,Federighi说:“我们关注的是那些自身十分有才能,但又能真正注重实现绝佳体验的人。”最近的一次收购是位于西雅图的Turi公司,苹果最终以2亿美元的价格收购。该公司建立了一个机器学习工具包,一直以来都被比作是Google的TensorFlow。此次收购给苹果提供了一种不同的思索,即可以将它用作类似的用途,既用于公司内部,也可以提供给开发商。“可以肯定的是,他们的有些事情和苹果十分匹配,无论是从技术的角度还是从个人的角度来看,都是如此。”Cue说。在一年或两年的时间里,或许我们就能弄清楚发生了什么。苹果在2013年收购了一家小的初创企业Cue,后来Siri开始显示出一些预测能力。无论这些才能来自哪里,苹果的人工智能基础建设有助于其开发出全新的产品和功能,而这通过以前的手段都是不可能做到的。这正在改变着公司的产品线路图。“现在在苹果,炫酷的想法简直层出不穷,永无止境。” Schiller说:“机器学习正在使我们对一些事情给予肯定的看法,而这些事情放在过去几年,我们是绝对会说不的。它正在不断深入到我们的决策当中,决定着我们下一批产品的走向。”iPad Pro的Apple Pencil就是一个例子。为了发明出一支高科技的触控笔,苹果不得不面临这样一个问题,即当人们在设备上写字的时候,他们的手掌底部难免会擦到屏幕,造成各种触控失灵。这时,使用“防手掌误触”这样一个机器学习模式,就能很好的解决这一问题。因为该模式能够使屏幕传感器感受到刮擦,触摸和笔触之间的区别,大大提升了触控笔操控的精确度。“如果触控笔无法在iPad上进行完美操作,那么iPad就不能被看作是一张很好的可供我继续写字的纸,Pencil也就不会是一个好的产品。” Federighi说。所以如果你爱Apple Pencil的话,那就请感谢机器学习吧。四对苹果机器学习方面进展的最佳测量方式,或许来自它在AI上最重要的收购:Siri。Siri最初诞生自DARPA在智能助理上的一项计划,后来部分科学家成立了一家公司,用同样的技术开发了一款应用。2010年,乔布斯亲自说服公司创始成员将公司出售给苹果,并指示将Siri整合进操作系统。在2011年10月iPhone 4S的发布会上,Siri是一大点亮。现在它早已不是用户长按Home键,或发出“Hey, Siri”指令进行唤醒(这一功能本身也使用了机器学习,允许iPhone在不耗电的情况下了解周围情况)这么简单了。Siri的智能整合进了Apple Brain,即便不发场时也在工作。作为核心产品而言,Cue提到了四个组成:语音识别(理解你何时与它对话),自然语言理解(理解说话内容),执行(满足查询或请求)以及响应(产生回话)。“机器学习对所有这些都有重要影响。”Tom Gruber(上)与Alex AceroSiri高级研发部主管Tom Gruber是在最初的收购后加入了苹果的,他表示,在苹果把神经网络用于Siri之前,其用户量已经在产生大量数据,而这对训练神经网络十分重要。“乔布斯说,一夜之间就会拥有数百万用户,还不用公测。突然之间就会有用户,他们会告诉你,人们如何与应用对话。这是第一次革命,那之后神经网络时代到来了。”随着Siri转移到用神经网络处理语音识别而来的,还有几位AI专家,其中包括现在语音组的主管Alex Acero。Acero的语音识别经历始于90年代的苹果,后来他在微软研究院工作了多年。“我喜欢这类工作,也发表了很多论文。当Siri出现时,我意识到这是让深度神经网络应用得以实现的机会,不是让几百人用,而是让数百万人用。”换句话说,他就是苹果想找的那类科学家——优先考虑产品而非发表论文。当Acero在三年前加入时,Siri用的语音技术仍基本来自第三方的授权,而这种情况必须改变。Federighi意识到,这是苹果不断在重复的一种模式。“随着一项技术对开发核心产品变得越来越重要,我们会让内部逐渐接手开发。要开发伟大的产品,我们希望内部拥有技术,并在内部创新,语音识别就是一个很好的例子。”团队开始训练神经网络,以替代Siri早前的技术。苹果的GPU集群不停运转,调用了大量数量。2014年7月的发布证明,所有努力都没有白费。Acero表示,“当时在所有语言上,错误率降低了两倍,在很多场景下还不止如此。这都要归功于深度学习及对它的优化,不仅是算法方面,更是在产品开发的整个过程上。”苹果不是第一家在语音识别中使用DNN的公司,但它证明,控制整个运转系统会产生优势。Acero表示,正是因为苹果自己设计芯片,他能直接与编写固件的芯片设计组工程师合作,最大化提升神经网络的性能。Siri团队的需求甚至影响了iPhone设计的方方面面。Fdferighi表示,“不仅仅是芯片,还涉及设备上的麦克风,以及麦克风安装的位置,还有如何调整硬件,以及处理音频的软件栈。这需要所有组件的协调,比起只是开发软件的公司,有着惊人的优势。”另一个优势是,当苹果的神经网络在一个产品上成功时,还能成为其它产品的核心技术。机器学习让Siri理解了用户,也让输入方式由手动变成了听写。也正是因为Siri的技术,用户语音输入的信息也变得更流畅和完整。Cue提到的Siri第二个部分是自然语言理解。Siri在2014年11月开始用机器学习理解用户的意图,并在一年后推出了深度学习版。如在语音识别上一样,机器学习提升了体验,特别是在理解指令上。苹果认为,没有Siri上的技术,它不太可能开发出最新版的Apple TV,因为后者也有语音控制功能。尽管早期的Siri版本要求你用清晰的方式说话,但深度学习加强版不仅能从大量电影和音乐中找到特定的选择,更能处理“播放一部汤姆·汉克斯主演的优秀惊悚片”这样的概念。这在以前是完全不可能的。在即将正式发布的iOS 10中,Siri的声音是最后一个被机器学习改造的部分。同样,深度神经网络替代了原先授权的技术。Siri的声音来自一家语音中心收集的录音数据库,每句话都是语音段拼贴的结果。机器学习让语音变得平滑,听起来更像一个真人。这看起来只是很小的细节,但更自然的声音能为Siri带来很大的改变。Gruber认为,“如果声音质量更高,人们会感到更加可信。更好的语音能吸引用户,让他们更常使用。”使用Siri的意愿,以及机器学习在技术上的提升,都在苹果向开发者开放Siri的过程中十分重要。许多人注意到,苹果在Siri上的合伙量只有两位数,远远落后于亚马逊的Alexa,后者称外部开发者帮助开发了1000多项技能。苹果认为这种比较没有意义,因为亚马逊用户要使用特定的指令方式,才可用到那些技能。苹果表示,Siri在与Uber和SquareCash等服务的整合上会更自然。与此同时,苹果对Siri的改善也得到了回报,用户发现了一些新功能,也感到常用的查询变得更准确,而相应的,查询数量也不断增长。五或许,苹果使用机器学习技术中遇到的最大问题,是如何坚持保护用户隐私的原则。苹果会加密用户信息,包括公司律师在内的任何人都无法读取。FBI也不能,即便获得了批准。它还表示,不会收集用户信息用于广告目的。从用户的角度上看,这种行为值得尊敬,但这对吸引顶尖AI人才并无帮助。一位苹果前员工表示,“机器学习专家想要的就是数据。但出于保护隐私的立场,苹果总会有所干预。这种做法是否正确暂不讨论,但外界会认为苹果不是铁杆AI粉。”苹果高管并不认同这种观点。他们认为无需将用户信息放在云端,或存储训练神经网络所用的数据,也能得到提升机器学习表现的数据。Federighi认为,“外界一直存在错误的观点,做出了错误的妥协,我们想让他们走上正轨。”这里有两个问题。第一个涉及到在机器学习系统中处理个人信息,当个人详细信息是由神经网络收集到的时,这些信息会怎么样?第二个涉及到收集训练神经网络识别行为所需的数据,不收集个人信息,又将如何做到训练呢?苹果对两者都有答案。Cue表示,“有人认为,我们用AI做不了这些事,因为没有数据。但我们找到了获取所需的数据,同时保护隐私的方式。这是我们的底线。”对于第一个问题,苹果的解决方式是利用其独特的对软硬件的控制。简单来说,多数个人信息仍保留在Apple Brain中。Federighi表示,“我们会将部分最敏感的信息保留在设备上,这时机器学习完全在本地运行。”他给出的例子是应用推荐,即在主屏上右滑时会出现的图标。在理解状态下,这些应用就是你意图想用的。这种预测基于许多因素,基本都与用户的行为有关。这一功能确实有用,Federighi表示,预测用户想用图标的概率有90%。苹果存在设备上的其它信息可能包括了最个人的信息:用户使用iPhone键盘输入的文字。使用经过神经网络训练的系统,苹果能识别出关键事件和项目,如航班信息,联系人及约会。不过这些信息都存在手机上。即使是备份在苹果云上的信息,也会经过处理后不能仅由备份信息进行还原。“我们不想把信息存在苹果服务器上,公司没必要知道你的爱好或你在哪。”苹果也在尽量减少整体上保存的信息。一个例子是,在交谈中有人可能提到一个词,这或许需要搜索。其它公司很可能在云端分析整段对话,从而识别出那些词语,但苹果设备无需这些数据远离用户就能识别出来。这是因为系统会不断与手机中的知识库进行搜索匹配。Federight表示,“知识库很精练,但也相当完善,储存了成千上万的地点和实体。”苹果所有的应用都能用知识库,包括Spotlight搜索应用,地图和浏览器。它也能帮助自动纠错,一直在后台运行。机器学习圈的一个疑问是,苹果的隐私限制是否会阻碍神经网络算法,这也是上文中提到的第二个问题。经过大量数据训练,神经网络才能准确。如果苹果不采集用户行为数据,又从哪里得到数据呢?与其它公司一样,苹果用公开数据集训练神经网络,但总有需要更新更准确的数据的时候,而这又只能从用户中来。苹果的做法是在不知道用户是谁的情况下收集信息。它会对数据匿名处理,随机打上识别信息。从iOS 10开始,苹果会开始使用一种名为差分隐私(Differential Privacy)的新技术,它会对信息进行众包处理,让个人身份无法识别。这种技术可能用在出现新流行词,而它又不在苹果知识库中时;也会用在某个链接突然变得与相关查询的答案相关时,或某个表情被大量使用时。“传统的方式会将用户每次输入都传到服务器上,然后遍历数据来找到感兴趣的东西。但我们有端到端加密,不会这样行事。”虽然差分隐私是一个较为学术的词,但苹果想让它变得更加普及。Federighi表示,“我们数年前就开发研究,做出了能大范围使用的有趣的成果。它的隐私程度令人惊叹。”简单来说,差分隐私就是对数据的若干片段加入数学噪音,这样苹果能识别用使用模式,又不会辨别出个人身份。苹果还授权研究相关技术的科技家发表论文,公布他们的工作。六显然,机器学习改变了苹果产品的方方面面,但对于苹果本身,机器学习改变了什么,还有待观察。从感觉上说,机器学习似乎与苹果公司的气质格格不入。苹果喜欢对用户体验进行全方位的控制,所有事情都事先帮你设计好,代码极致优化。但使用机器学习,就意味着要将一部分决定权交由软件处置。将用户体验逐渐交给机器控制,苹果能接受这样的设定吗?“这件事情引起了内部无穷无尽的争论”,Faderighi 说,“我们对此曾有过非常深入的思考。以往我们根据经验,从多个维度控制人机交互的种种细节,以达到最佳的用户体验。但如果你开始训练机器通过大量数据模拟人的行为,结果就不再是苹果设计师所擅长的。所有的一切都来自数据。”但苹果并没有回头,Schiller 说,“尽管这样的技术将改变我们的工作方式,但为了做出更高质量的产品,我们终将在这条路上越走越远”。也许这就是问题的答案:苹果并不会大张旗鼓地宣扬自己采用了多么先进的机器学习技术,但他们仍会尽可能地将之运用到产品中,以期获得更好的用户体验。藏在你iPhone中的Apple Brain就是最好的证明。“典型的苹果用户,将在不知不觉中得到机器学习带来的用户体验的提升,并因此更加爱上苹果产品”。Schiller 说。“最让人兴奋的是,你甚至都感觉不到它的存在,直到有一天你突然意识到,并发出由衷的感叹:“这一切是怎么发生的?”天网不会到来。
*文章为作者独立观点,不代表虎嗅网立场
发表,并经虎嗅网编辑。转载此文章须经作者同意,并请附上出处()及本页链接。原文链接https://www.huxiu.com/article/161504.html
未来面前,你我还都是孩子,还不去下载 猛嗅创新!
后参与评论

我要回帖

更多关于 siri的功能 的文章

 

随机推荐