萍乡射雕科技有限公司piCCC理赔科有一个名叫刘焕青的吗

已帮助患者:1137
病情分析:
在家的时候有很多人在乎你,很多事情都会帮你做,而你出去之后就你自己什么事情都要靠自己,难免会觉得没人在乎你,压力大。
指导意见:
建议可以多在外面交一些朋友,从朋友在得到归属感,同时也希望增加自己的独立感,比如自己慢慢的努力自己做些事情,不依靠父母。会好一些。
已帮助患者:7462
病情分析:
您好,您这不属于心理疾病,是正常反应。您从未离开过家,突然间离开了,会感觉外面和家里很不一样,这时就会无限思念家里的人,家里的环境,所以您就会哭了,这是一种思念,也是一种内心情感的宣泄,很正常的,人毕竟是有感情的。
指导意见:
男儿有泪不轻弹,只因未到伤心处;男子汉在离家的时候意气风发,掩饰内心的不舍,不会像小姑娘那样哭哭啼啼的,但是呢,一旦离开了之后心中的那种离别之情就会慢慢涌上心头,尤其是在自己独处的时候。哭吧,找个没人的地方痛痛快快的哭一场,将内心的这种情感全部宣泄出来,哭过之后还是那个意气风发的你,背井离乡不容易,努力奋斗吧!
以上是对“请问我从来没离开过家,出来没有一个星期”这个问题的建议,希望对您有帮助,祝您健康!
病情分析:
你好根据你描述的情况第一次回家想家流泪是正常的,说明你是个重情感的人,是个孝顺的孩子。
指导意见:
建议你保持良好的心态。在外边多交朋友多和朋友谈心。想家的时候多给家里打电话。慢慢调整好自己的心态。很快就会适应现在的环境的放心吧。祝你健康快乐。
已帮助患者:11379
病情分析:
指导意见:
已帮助患者:3941
指导意见:
已帮助患者:312334
指导意见:
已帮助患者:83387
指导意见:
已帮助患者:28475
常见病因:很多都市白领被高强度的工作压力所困,长期处于高度紧张的状态下,且常常得不到及时的调理,久而久之便会产生焦虑不安、精神抑郁等症状,重则诱发心理障碍或 精神疾病。失恋无疑是很痛苦的 情感体验,失
关注此问题的人还看了
用微信扫一扫&figure&&img src=&https://pic4.zhimg.com/v2-18f16b2c4ea43c85df30d9d9cd6c6e60_b.jpg& data-rawwidth=&427& data-rawheight=&281& class=&origin_image zh-lightbox-thumb& width=&427& data-original=&https://pic4.zhimg.com/v2-18f16b2c4ea43c85df30d9d9cd6c6e60_r.jpg&&&/figure&&h2&&b&前言&/b&&/h2&&p&填志愿的人应该差不多要点确定按钮了。反正既然你们已经入了坑,那我就告诉你们应该如何开始。&b&美妙的幻想破灭得越早,对你越有帮助&/b&。那些单个程序已经倒了一万行的新手,如果你觉得自己的学习习惯不好的话,也可以借此机会互相切磋一下。写这篇文章的契机是我在开发GacUI的时候,被迫去读RTF2007的文档。这天杀的文档一共有300页——不过其实也不算很长,只是我已经有几年没有干过这种事情了。把程序写出来的时候,仿佛又有一种回到过去的感觉。&/p&&p&端正态度这个问题其实是这几年才出现的。在我刚开始学习编程的时候,应该是2000年,大家普遍的态度就是,有书就看,有电脑就借,光是有已经很了不起了,应该投入所有的精力在这上面才能对得起这个机会。当然现在情况已经不是这样了。而且人们被周遭的生活所培养出来的结果,就是越来越丧失耐心。然而学习CS最不能缺的就是耐心。&/p&&p&学习CS的日常是什么呢?大家不要觉得是玩游戏,也不是花里胡巧地摆弄界面,其实每天会发生的事情,就是坐在电脑前一整天,然后看书打字。这就是为什么说学习CS最重要的就是耐心,因为没有耐心,你就会想从电脑前离开。你一离开干别的事情一爽,你的时间就流失了,学习效率大幅下降。&b&所以学得最快的那些人,通常就是觉得坐在电脑前写代码是最爽的,自然地不会去分心&/b&。当然学得快不意味着你就学的好,你还要坚持下去,连续20年都觉得写代码是最爽的,根本就不需要担心什么找工作,说不定你已经在创造工作岗位了(当然这不一定是指创业)。&/p&&p&一般来讲,“学习”要么就是看教程,要么就是看著作。现在的教程都是视频,不过我个人不是很推荐,因为手把手的东西看了会上瘾,这对你以后的成长很不利。我建议去看那些以书本形式出现的教程。你看书自然会遇到很多问题,譬如说作者可能讲漏了其中一个动作,或者用的软件版本跟你不一样等等。&b&这些纯粹的操作上的问题,你要习惯于需要自己琢磨的状态&/b&。虽然这样一开始会慢一点,&b&不过&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&学习编程是以10年为单位的&/a&,晚个10天又有什么所谓呢&/b&。&/p&&p&当然做事情不能矫枉过正,觉得既然慢慢来无所谓就去啃著作,这样也不太好。因为你可能会因为缺乏一些基本的知识导致你著作肯不下去。但是你又不可能不啃著作,因为这些中级入门材料时十分缺乏的。其实在早期世界范围内根本就不缺乏这样的材料,只是随着互联网的发达,人们不知道为什么就喜欢互相喷。你稍微写点什么,就有人抓住你辫子不放,仿佛把你比下去他就会成功一样。当然喷人也不是不行,只要你有理有据地喷,同时文明地表达你的观点,就像 &a class=&member_mention& href=&http://www.zhihu.com/people/1e2cccc3ce33& data-hash=&1e2cccc3ce33& data-hovercard=&p$b$1e2cccc3ce33&&@Milo Yip&/a& ,没问题。为了区别,我把喷起来不像叶先生那么友好有道理的都叫“恶意喷人”。&/p&&p&跨越了初学者阶段进入下一个阶段的人是最多的(这里我一般把那些未来会放弃的初学者不当人看(逃),所以这个程度的文章自然也需求量最大。但是处于这个阶段的人,特别喜欢恶意互喷,所以搞到大家都不是很想分享自己的见解了。这就是为什么到了现在你会发现,这些文章找起来不像以前那么好找了。在200x年的时候,大家看对方不对,都是讲道理吵架的。现在人们吵架都是因为看你不爽而不是看你不对,所以动不动就到了你的私生活。我也很同情今年开始学CS的人。当然我并不是在讲人变坏了,而是因为科技的发达,能上网的人平均素质变低了,这是无法避免的(逃。就想买北京的房子过了2010年就变得很难一样。&/p&&h2&&b&正文&/b&&/h2&&p&因为看教程实在是太简单没什么好说的,本文重点还是在教你怎么啃著作,这都是出于我自己的经验。这篇文章的一个前提,就是你坐得住。我觉得某种程度上我很幸运,在我中学的时候,不知道血栓的形成以及杀人机制,让我久坐在电脑前毫无负罪感,幸好年轻不会出事。现在大家都能上网了,就算你坐得住,你最好也隔一个小时,上来打一套太极拳,然后回去。反正写代码总是要思考的吗,打太极拳的时候也可以思考。不要干别的事情分心,除了吃饭拉屎睡觉。&/p&&p&只有坐得住才能啃著作,而怎样才能坐得住,一个最简单的办法就是切断跟外界的联系。你可以找一本书,然后去一个没有网络的地方,手机数据disable,然后开始看。如果你需要查资料,你可以去图书馆上网,反正超级便宜。总之要让你没办法access到各种娱乐信息。这是在你们还坐不住的时候的一种锻炼自己的方法。&/p&&p&在这里提醒一下,&b&学CS最重要的还是写代码,你不会写代码懂得再多也没有用。所以你需要花更多的时间来练习&/b&,我一般推荐是10倍。你看书的时间加起来长达一年,然后写10年代码,然后你就出山了,非常科学。&/p&&p&啃著作会有一个常见问题,就是你不知道他在说什么。这是由于著作本身的特点决定的。他不是教程,所以书里面的信息,是不排序的,他会假设你什么都懂一点。当然只要花时间你肯定都能搞定。所以在这里我介绍三个常用方法。&/p&&h2&&b&一、看好几遍&/b&&/h2&&p&这个方法是最简单粗暴的。假设一本著作的前置知识你已经都会了,这个时候来看著作。著作的章节之间也是有依赖关系的,但是有些时候这些依赖关系跟学习关系是不一致的。所以你第一篇看完可能云里雾里,知道了一些新概念,知道了他们的关系,但是就是不明白。这个时候你看第二遍,因为至少你已经知道每一个词是什么意思了,你就会知道更多的东西。一般看个两三遍我觉得你也懂得七七八八了。以后你就把这本书的目录背下来,需要什么你再去查就好了。&/p&&p&工具书也是同一个道理。很多人都说,著作需要的时候去查就好了,这是不对的。因&b&为你如果不去看,大部分时候出现的情况,是你根本不知道要去查什么东西,关键字都不会组织,什么都看不到。所以还是要看。反正&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&学习编程是以10年为单位的&/a&,多看几本书又有什么所谓呢,又不是要赶着去投胎&/b&。著作看个七成熟,概念你都明白了,细节记不住没问题以后再查。要是你连概念都不明白,你什么都查不到。&/p&&p&我第一次明白这个事情,是我大概初三的时候。以前看过我博客的人估计知道,我是从一本图形学的书开始学习Visual Basic的。这本书很厉害,他定位的读者就是傻逼,所以连数学也会教你,现在都没有这么具有人文关怀的著作了。于是我看了一年,同时开始学习VB的语法和控件的知识,勉强可以做一些简单的图像处理,譬如说搞个凹凸效果啊,扫描个椭圆什么的。但是VB的性能很成问题,因为debug的时候不像其他语言,VB会选择把你的代码编译成P-Code然后模拟执行,连个exe都不产生。你不仅不优化,还要解释执行,性能低到不行。所以尽管exe速度还可以,但是调试的时候心情很糟糕。&/p&&p&另一个原因是,没什么人会真的用VB来搞这个,大家都使用C++在搞。我当时也想着干脆学个C++吧。学成之后,要是不能把人家的C++代码抄成VB,那我就去用C++好了。虽然日后跳槽去了Delphi,不过C++的确是在那个时候看的。那个时候大约是2002年左右,C++03都还不知道在哪里,看的是C++98的内容。&/p&&p&于是我就去书店找书,看到了一本Visual C++ 5.0 语法手册,上面印着个MSDN的logo,觉得很专业,我就买了。后来才知道这本书是直接从MSDN上打印出来的(mmp)。如果你们也去看MSDN的C++语法手册,就会发现它有个特点,就是他是按语法结构来描述C++的。这也就是说,当他一开始讲到表达式的时候,他已经在告诉你遇到模板的时候各种奇怪的表达式要怎么写了。我那个时候类是啥都不太清楚,怎么可能看的懂这个呢。所以第一遍看了几个月云里雾里,于是又看了第二遍,总算知道点东西了。后来又看了第三遍,终于把基本概念都搞明白,会用C++的语法来写一些简单的程序了。上了大学之后我又通过几本书学习了C++的各种奇技淫巧和细节,不过这些都是题外话了。&/p&&p&&b&这个事情告诉我们,只要你掌握了一门编程语言,哪怕是C++,语法手册看三遍,你也可以学会。工具书著作没什么好怕的,你需要的只有耐心&/b&。&/p&&h2&&b&二、搭配各种导论文章看&/b&&/h2&&p&当你看一本著作只是为了明白其中的一点点东西,而不是真的想去学会全部的时候,你需要的就是完全不同的阅读方法。就像最近GacUI要支持富文本复制到剪贴板里面变成RTF好让Word和Wordpad粘贴一样,找来找去都没什么靠谱的文章,估计新手们连RTF是啥都不知道。&b&RTF作为一种通用格式,早期WPS和Word都支持。WPS之所以后来跪了,就是因为他所见即所得的体验比起Word实在是差的太他妈远了。所以在WPS和Word都有盗版的情况下,眼睛雪亮的人民选择了Word&/b&。不要相信什么微软靠盗版占有市场的这种胡说八道的东西,那个时候不管是谁家的软件都有盗版。价格都是0,谁赢了真的是质量取胜。不像现在,为了成功做一个人,你还得考虑一下软件成本。&/p&&p&GacUI的富文本是很基本的,但是RTF2007已经发展到了几乎可以表达Word的所有内容的状态了,复杂到连微软也没有一款软件是可以编辑100%的RTF内容的。你们如果也去看一下那个文档,就可以知道他妈的control word的数量之多,念一遍都可以让便秘的人从厕所坐到拉完屎。显然我需要的只是1‰,那怎么办呢?&/p&&p&这个时候我当然不可能用看两遍RTF2007的方法来完成这个事情,我还得找一些其他资料。资料的来源有很多,譬如说我可以用Wordpad写一点简单的东西保存一下用记事本打开看看长什么样子,心中有个概念。然后随便遍几个问题来看看网上的人是如何解答的,对RTF有一个初步的了解。有了这些概念之后,我再去看RTF2007的文档,遇到一个章节就可以扫一眼判断到底这事不是我要的,然后迅速跳过所有我不需要的内容。这样速度就很快。我大概就花了两个小时吧,就把1‰的内容从RTF2007里挑出来了,最后试验成功,就可以开始写代码了。&/p&&p&当然,大部分著作你是不能这么看的,&b&因为学习编程不能太有目的性,在刚开始你不能挑说你想学什么不想学什么。编程涵盖的内容有很多,在你作为一个新手的时候,学习所有的知识都是为了你以后成为某一方面的专家而打下基础&/b&。哪怕你的梦想是去画网站,你也不可能完全不碰后端的,不然你到时候就会在protocol如何设计的角度跟同时吵起来。这就像PM经常搞出一些不切实际的需求给码农做一样,会被鄙视的。所以你什么都得学,不用学的太深入,只要能够写个10000行的、复杂点的程序就好了。&/p&&p&只有在你试图去解决一个特别狭窄的问题的时候,你才可以用这种方法来读著作,因为你知道估计以后再也用不上了,就像我生成RTF格式的字符串一样,我很难想到还有什么情况让我再去写一遍这个东西——说不定以后要写RTF parser呢,那个时候再说了。&/p&&h2&&b&三、一边看一边练习&/b&&/h2&&p&有些书就适合这样看,譬如说大家喜闻乐见的《算法导论》。算法导论这本书,是不局限于任何一门语言的(Haskell等除外),也不是在介绍什么API的用法。这种书就不是纯工具,而是包含一些知识是需要你去学习的。你可以抱着一个目标(而不是目的)去看这本书,譬如说你就是想学会怎么用好语言里面提供的各种东西,所以你去学一下怎么开发他们,从各方面了解他们的特点,没有问题。&/p&&p&就像《算法导论》,光看就不是很合适,你还要去实践。当然我这里的实践,说的不是去做习题,做习题性价比太低。具体问题具体分析,具体到算法导论这本书,我推荐的办法,就是在理解了前面的关于复杂度的计算方法之后,把书里的数据结构的复杂度都背下来,把结构化为图形印在脑子里,最后把所有的伪代码都翻译成C++,写成STL那个样子。至此你的任务就完成了,你什么概念都明白了,以后需要什么细节你不记得了,马上就可以查到。&/p&&p&同理,《设计模式》和《编译原理》也是一样的。这些书都需要大量的实践来很好的掌握他门,所以你无论如何都得配合至少跟书一样厚的代码来练习。一本书500页,一页100行,也就是5万行而已,不一定够。&/p&&h2&&b&尾声&/b&&/h2&&p&为什么要写这篇文章呢?很多CS新手都是因为不知道正确的学习方法,吊儿郎当,最后失败的。我觉得至少应该排除这一点干扰因素。如果你从第一天开始就用正确的态度来学习,从来只有好处没有坏处。学习CS,就是坐在电脑前看书写代码,每天8小时,10年过去你肯定已经是高手了,根本就不怕什么面试,Offer随便拿。你们志愿差不多都填了,距离入学还有两个月。如果你们可以跟我当年一样,放假的时候每天早上8点一只蹲到晚上12点,除了编程和生存什么都不干,我相信你们到了第一天开学的时候,至少掌握一门语言的基础知识,写点唬人的代码,已经没有问题了。如果你们可以一直坚持到毕业,至少毕业的时候就不会很难看。&/p&&p&中国的大学,反正都是乱来的。你们可以适当选择在保证期末及格的前提下,翘几节不重要的课(譬如什么马列毛邓三啊,我很推荐你们读马哲,但是应试就没必要了,先把书背下来,等你们长大了自然就懂了),在宿舍里写代码,就可以增加你们的学习时间,保证一天8个小时。&/p&&p&&b&坚持7个学期,大概一万小时就凑足了。上课的时候可能没办法学习8个小时,你可以学习6个小时,放假的时候一天学习14个小时,平均下来还是每天8个小时,然后差不多也到了找工作的时候了,保证8000保底&/b&。&/p&
前言填志愿的人应该差不多要点确定按钮了。反正既然你们已经入了坑,那我就告诉你们应该如何开始。美妙的幻想破灭得越早,对你越有帮助。那些单个程序已经倒了一万行的新手,如果你觉得自己的学习习惯不好的话,也可以借此机会互相切磋一下。写这篇文章的契…
&figure&&img src=&https://pic4.zhimg.com/v2-feb6bf9b7f4da852dbf228_b.jpg& data-rawwidth=&990& data-rawheight=&682& class=&origin_image zh-lightbox-thumb& width=&990& data-original=&https://pic4.zhimg.com/v2-feb6bf9b7f4da852dbf228_r.jpg&&&/figure&&p&&b&一、结论:&/b&&/p&&p&&b&2017年高考分数趋势总结:&/b&&/p&&p&&b&1、中九格局略有变化&/b&,天大出现明显下滑;北邮早已被开除出中坚9校集团,中国政法也同样跌落到下一档次;华东师大、上外和华南理工有望上升到中坚集团&/p&&p&&b&2、2017年武大理科最低分对西安交大已经实现历史性超越&/b&,而2018年武大能否历史性超越南开值得期待&/p&&p&3、2017年加入中国社科院大学的数据发现文理均和武大、中山等中九相仿,与校方期待的比肩人大相去较远,2018年何去何从,拭目以待。&/p&&p&&br&&/p&&p&&b&二、数据来源&/b&&/p&&p&1、第一来源为各校官网公布数据&/p&&p&2、均分第一来源为各校官网公布数据,如未公布,则来自教育部阳光高考平台&/p&&p&&br&&/p&&p&&b&三、统计范围与方法论&/b&&/p&&p&1、统计地区范围为&b&除内蒙、西藏、青海、宁夏、海南五省区外&/b&的所有26个最具代表性的省市;统计学校范围为&b&主流985(除国防科大、西北农林等个别外)、顶尖211(比如两财一贸、两外一法等高分211)以及部分双非&/b&(如外交学院等)&/p&&p&2、理科为上榜学校&b&26省录取的最高分、平均分、最低分平均&/b&计算得出,因绝大多数学校为各省均招生,所以方法简单明了&/p&&p&3、文科为上榜学校&b&24省录取的最高分、平均分、最低分平均&/b&计算得出(上海、浙江不分文理,仅纳入理科部分统计,因此文科少2个省),但因部分工科学校仅在部分省份招生,比如同济、天大、东南,直接平均各省并不合适,因此采取归一法,即不管在哪些省份招生,均以此省最高分数的学校为基数100,然后各省得分平均,再乘以全国汇总最高分计算得出归一调整后的分数。举例说明:&/p&&p&1)假设清华在31省招文科生,且分数全部是第一名,那么清华各省的归一值为100,全国汇总归一值也为100,全国文科平均分数线为700分;同时假设天大在15个省招文科,且该15省的归一值均相当于清华的90%,即90,那么天大在全国汇总的文科分数即为90%×700=630.&/p&&p&&br&&/p&&p&&b&四、其他说明及免责声明&/b&&/p&&p&1、红色字体为数据暂不可得,由最低分和均分及同档次学校数据参考估算得出;&/p&&p&2、部分学校出现均分低于档分最低分的现象,和统计口径有关,均分大部分来自于教育部阳光平台,包含了提前批、自主招生等各类生源,因此清北复交等校的一批最低分会出现高于均分的现象,特此声明。&/p&&p&3、数据均为人工统计,因数据可得性等各种原因导致数据会有个别遗误,请见谅。&/p&&p&&b&————————————————————————————————&/b&&/p&&p&&b&第一部分——最高分、平均分、最低分全国总榜:&/b&&/p&&p&&b&一、2017年全国文理高均低分创意柱状图版:&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-7d9d559f5db8eb7062ec_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1457& data-rawheight=&710& class=&origin_image zh-lightbox-thumb& width=&1457& data-original=&https://pic4.zhimg.com/v2-7d9d559f5db8eb7062ec_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-a8dac7ba01f8bd1a7e60_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1457& data-rawheight=&710& class=&origin_image zh-lightbox-thumb& width=&1457& data-original=&https://pic1.zhimg.com/v2-a8dac7ba01f8bd1a7e60_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-fbc6c52b8d2f28e9dd04f02cbcb251e5_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1457& data-rawheight=&710& class=&origin_image zh-lightbox-thumb& width=&1457& data-original=&https://pic4.zhimg.com/v2-fbc6c52b8d2f28e9dd04f02cbcb251e5_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/v2-efab678ecee_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1413& data-rawheight=&638& class=&origin_image zh-lightbox-thumb& width=&1413& data-original=&https://pic4.zhimg.com/v2-efab678ecee_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-1c74da6dea517cc8e95d74ce4c00b481_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1413& data-rawheight=&638& class=&origin_image zh-lightbox-thumb& width=&1413& data-original=&https://pic2.zhimg.com/v2-1c74da6dea517cc8e95d74ce4c00b481_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-3f77982af3daf88c278a0c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&990& data-rawheight=&682& class=&origin_image zh-lightbox-thumb& width=&990& data-original=&https://pic3.zhimg.com/v2-3f77982af3daf88c278a0c_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-264ccb899cebdc5f89d76c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&992& data-rawheight=&682& class=&origin_image zh-lightbox-thumb& width=&992& data-original=&https://pic1.zhimg.com/v2-264ccb899cebdc5f89d76c_r.jpg&&&/figure&&p&&b&二、2017年全国文理高、均、低分终极总版&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-36a93af3a5e6d8966fcde5b31a0d0041_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1096& data-rawheight=&1800& class=&origin_image zh-lightbox-thumb& width=&1096& data-original=&https://pic4.zhimg.com/v2-36a93af3a5e6d8966fcde5b31a0d0041_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-ec6afeccf453cca234fa5c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1114& data-rawheight=&1799& class=&origin_image zh-lightbox-thumb& width=&1114& data-original=&https://pic1.zhimg.com/v2-ec6afeccf453cca234fa5c_r.jpg&&&/figure&&p&&b&三、文理科三年最高分、均分、最低分变动态势:&/b&&/p&&p&&b&1、理科三年变动数据:&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-78aa656d6cb5_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1040& data-rawheight=&1752& class=&origin_image zh-lightbox-thumb& width=&1040& data-original=&https://pic3.zhimg.com/v2-78aa656d6cb5_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-dfdb16c8fcb6e217520d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1043& data-rawheight=&1730& class=&origin_image zh-lightbox-thumb& width=&1043& data-original=&https://pic2.zhimg.com/v2-dfdb16c8fcb6e217520d_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/v2-90e3bcbb0d16fc6b97f1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1114& data-rawheight=&1811& class=&origin_image zh-lightbox-thumb& width=&1114& data-original=&https://pic3.zhimg.com/v2-90e3bcbb0d16fc6b97f1_r.jpg&&&/figure&&p&&b&2、文科三年变动数据:&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-cccf4ad43cf578da_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1025& data-rawheight=&1754& class=&origin_image zh-lightbox-thumb& width=&1025& data-original=&https://pic3.zhimg.com/v2-cccf4ad43cf578da_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-a0b0f89a85a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1025& data-rawheight=&1828& class=&origin_image zh-lightbox-thumb& width=&1025& data-original=&https://pic1.zhimg.com/v2-a0b0f89a85a_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-e7e48bba24bd9278f92c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1096& data-rawheight=&1863& class=&origin_image zh-lightbox-thumb& width=&1096& data-original=&https://pic2.zhimg.com/v2-e7e48bba24bd9278f92c_r.jpg&&&/figure&&hr&&p&&b&第二部分:2017年全国各省分省最高、均、最低分排名出炉:&/b&&/p&&p&&b&1、江苏&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-dca21dc22b9cc26cf2a50_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1693& data-rawheight=&1723& class=&origin_image zh-lightbox-thumb& width=&1693& data-original=&https://pic3.zhimg.com/v2-dca21dc22b9cc26cf2a50_r.jpg&&&/figure&&p&&b&2、广东&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-027f8ceb10b0b6ddddf8f0_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1979& data-rawheight=&1777& class=&origin_image zh-lightbox-thumb& width=&1979& data-original=&https://pic3.zhimg.com/v2-027f8ceb10b0b6ddddf8f0_r.jpg&&&/figure&&p&&b&3、湖北&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-13f006aeebf7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1807& data-rawheight=&1782& class=&origin_image zh-lightbox-thumb& width=&1807& data-original=&https://pic3.zhimg.com/v2-13f006aeebf7_r.jpg&&&/figure&&p&&b&4、湖南&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-57de8de8f45fb2b5625e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1931& data-rawheight=&1780& class=&origin_image zh-lightbox-thumb& width=&1931& data-original=&https://pic3.zhimg.com/v2-57de8de8f45fb2b5625e_r.jpg&&&/figure&&p&&b&5、浙江&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-32cecf618f0bf63b275f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1167& data-rawheight=&1726& class=&origin_image zh-lightbox-thumb& width=&1167& data-original=&https://pic4.zhimg.com/v2-32cecf618f0bf63b275f_r.jpg&&&/figure&&p&&b&6、四川&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-10c4eecc6b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1773& data-rawheight=&1782& class=&origin_image zh-lightbox-thumb& width=&1773& data-original=&https://pic3.zhimg.com/v2-10c4eecc6b_r.jpg&&&/figure&&p&&b&7、山东&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-59fcafc0cd06ca0569273c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1585& data-rawheight=&1752& class=&origin_image zh-lightbox-thumb& width=&1585& data-original=&https://pic1.zhimg.com/v2-59fcafc0cd06ca0569273c_r.jpg&&&/figure&&p&&b&8、重庆&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f0c0af109755_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1653& data-rawheight=&1788& class=&origin_image zh-lightbox-thumb& width=&1653& data-original=&https://pic4.zhimg.com/v2-f0c0af109755_r.jpg&&&/figure&&p&&b&9、陕西&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-daabe8a1c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1775& data-rawheight=&1801& class=&origin_image zh-lightbox-thumb& width=&1775& data-original=&https://pic4.zhimg.com/v2-daabe8a1c_r.jpg&&&/figure&&p&&b&10、贵州&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-8b74d1cfe0a605c3c2bf1d6_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1813& data-rawheight=&1789& class=&origin_image zh-lightbox-thumb& width=&1813& data-original=&https://pic3.zhimg.com/v2-8b74d1cfe0a605c3c2bf1d6_r.jpg&&&/figure&&p&&b&11、北京&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-54c122aebe4c424e3f4b8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1717& data-rawheight=&1791& class=&origin_image zh-lightbox-thumb& width=&1717& data-original=&https://pic3.zhimg.com/v2-54c122aebe4c424e3f4b8_r.jpg&&&/figure&&p&&b&12、上海&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-e1d9fa0d58e2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1459& data-rawheight=&1793& class=&origin_image zh-lightbox-thumb& width=&1459& data-original=&https://pic2.zhimg.com/v2-e1d9fa0d58e2_r.jpg&&&/figure&&p&&b&13、河南&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-24af70d499487efa25ec4c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1723& data-rawheight=&1794& class=&origin_image zh-lightbox-thumb& width=&1723& data-original=&https://pic1.zhimg.com/v2-24af70d499487efa25ec4c_r.jpg&&&/figure&&p&&b&14、江西&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-3bd8e61308_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1845& data-rawheight=&1796& class=&origin_image zh-lightbox-thumb& width=&1845& data-original=&https://pic3.zhimg.com/v2-3bd8e61308_r.jpg&&&/figure&&p&&b&15、云南&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-a3e03e8e5ea80881aae6_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1605& data-rawheight=&1795& class=&origin_image zh-lightbox-thumb& width=&1605& data-original=&https://pic2.zhimg.com/v2-a3e03e8e5ea80881aae6_r.jpg&&&/figure&&p&&b&16、河北&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-cd3b06934eeae611f704b7e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1531& data-rawheight=&1796& class=&origin_image zh-lightbox-thumb& width=&1531& data-original=&https://pic3.zhimg.com/v2-cd3b06934eeae611f704b7e_r.jpg&&&/figure&&p&&b&17、安徽&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-10edb1bfd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&2007& data-rawheight=&1796& class=&origin_image zh-lightbox-thumb& width=&2007& data-original=&https://pic3.zhimg.com/v2-10edb1bfd_r.jpg&&&/figure&&p&&b&18、福建&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-682dc2c3e8e484c615c080_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1507& data-rawheight=&1796& class=&origin_image zh-lightbox-thumb& width=&1507& data-original=&https://pic1.zhimg.com/v2-682dc2c3e8e484c615c080_r.jpg&&&/figure&&p&19&b&、辽宁&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-297dcb1e9e5b65afaa72dfcfd1175e57_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1791& data-rawheight=&1796& class=&origin_image zh-lightbox-thumb& width=&1791& data-original=&https://pic4.zhimg.com/v2-297dcb1e9e5b65afaa72dfcfd1175e57_r.jpg&&&/figure&&p&&b&20、黑龙江&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-81fb5ff99e50a8355c4bac470de0680d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1487& data-rawheight=&1796& class=&origin_image zh-lightbox-thumb& width=&1487& data-original=&https://pic3.zhimg.com/v2-81fb5ff99e50a8355c4bac470de0680d_r.jpg&&&/figure&&p&&b&21、吉林&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-dd59cbad66947_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1636& data-rawheight=&1797& class=&origin_image zh-lightbox-thumb& width=&1636& data-original=&https://pic4.zhimg.com/v2-dd59cbad66947_r.jpg&&&/figure&&p&&b&22、天津&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-5dace2eb74e14207eeaef7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1697& data-rawheight=&1797& class=&origin_image zh-lightbox-thumb& width=&1697& data-original=&https://pic4.zhimg.com/v2-5dace2eb74e14207eeaef7_r.jpg&&&/figure&&p&&b&23、内蒙古&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-b00b55a9aad7bc3baea1f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1631& data-rawheight=&1797& class=&origin_image zh-lightbox-thumb& width=&1631& data-original=&https://pic3.zhimg.com/v2-b00b55a9aad7bc3baea1f_r.jpg&&&/figure&&p&&b&24、山西&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-1ec6bee4b98fceec1bf1a65c82e49b2b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1539& data-rawheight=&1797& class=&origin_image zh-lightbox-thumb& width=&1539& data-original=&https://pic2.zhimg.com/v2-1ec6bee4b98fceec1bf1a65c82e49b2b_r.jpg&&&/figure&&p&&b&25、广西&/b&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-f6bc833e9bfef4458d90b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1905& data-rawheight=&1801& class=&origin_image zh-lightbox-thumb& width=&1905& data-original=&https://pic4.zhimg.com/v2-f6bc833e9bfef4458d90b_r.jpg&&&/figure&&p&&b&26、甘肃&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-a341e2e86d0d9e776b21cb6d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1615& data-rawheight=&1800& class=&origin_image zh-lightbox-thumb& width=&1615& data-original=&https://pic1.zhimg.com/v2-a341e2e86d0d9e776b21cb6d_r.jpg&&&/figure&&p&&b&27、新疆&/b&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-74f0a773ceda9_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1689& data-rawheight=&1801& class=&origin_image zh-lightbox-thumb& width=&1689& data-original=&https://pic2.zhimg.com/v2-74f0a773ceda9_r.jpg&&&/figure&&p&&/p&
一、结论:2017年高考分数趋势总结:1、中九格局略有变化,天大出现明显下滑;北邮早已被开除出中坚9校集团,中国政法也同样跌落到下一档次;华东师大、上外和华南理工有望上升到中坚集团2、2017年武大理科最低分对西安交大已经实现历史性超越,而2018年武…
&figure&&img src=&https://pic4.zhimg.com/v2-d00e5b3c8ff93f4c918699_b.jpg& data-rawwidth=&533& data-rawheight=&300& class=&origin_image zh-lightbox-thumb& width=&533& data-original=&https://pic4.zhimg.com/v2-d00e5b3c8ff93f4c918699_r.jpg&&&/figure&&p&&b&几点声明:&/b&&/p&&p&&b&1、本文的内容全部来源于七月在线发布的BAT机器学习面试1000题系列;&/b&&/p&&p&&b&2、文章中带斜体的文字代表是本人自己增加的内容,如有错误还请批评指正;&/b&&/p&&p&&b&3、原文中有部分链接已经失效,故而本人重新加上了新的链接,如有不当,还请指正。(也已用斜体标出)&/b&&/p&&p&&b&4、部分答案由于完全是摘抄自其它的博客,所以本人就只贴出答案链接,这样既可以节省版面,也可以使排版更加美观。点击对应的问题即可跳转。&/b&&/p&&p&&b&最后,此博文的排版已经经过本人整理,公式已用latex语法表示,方便读者阅读。同时链接形式也做了优化,可直接跳转至相应页面,希望能够帮助读者提高阅读体验,文中如果因为本人的整理出现纰漏,还请指出,大家共同进步!&/b&&/p&&hr&&p&&b&1.请简要介绍下SVM。&/b&&/p&&p&SVM,全称是support vector machine,中文名叫支持向量机。SVM是一个面向数据的分类算法,它的目标是为确定一个分类超平面,从而将不同的数据分隔开。&/p&&p&扩展:&/p&&p&&i&支持向量机学习方法包括构建由简至繁的模型:线性可分支持向量机、线性支持向量机及非线性支持向量机。当训练数据线性可分时,通过硬间隔最大化,学习一个线性的分类器,即线性可分支持向量机,又称为硬间隔支持向量机;当训练数据近似线性可分时,通过软间隔最大化,也学习一个线性的分类器,即线性支持向量机,又称为软间隔支持向量机;当训练数据线性不可分时,通过使用核技巧及软间隔最大化,学习非线性支持向量机。&/i&&/p&&p&&a href=&http://link.zhihu.com/?target=https%3A//www.cnblogs.com/v-July-v/archive//2539022.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&支持向量机通俗导论(理解SVM的三层境界)&/a&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/sinat_/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习之深入理解SVM&/a&&/p&&p&&b&2.请简要介绍下Tensorflow的计算图。&/b&&/p&&p&@寒小阳:Tensorflow是一个通过计算图的形式来表述计算的编程系统,计算图也叫数据流图,可以把计算图看做是一种有向图,Tensorflow中的每一个计算都是计算图上的一个节点,而节点之间的边描述了计算之间的依赖关系。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-98574fad28b6c1db33022b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&448& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic4.zhimg.com/v2-98574fad28b6c1db33022b_r.jpg&&&/figure&&p&&b&3.请问GBDT和XGBoost的区别是什么?&/b&&/p&&p&@Xijun LI:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:&br&1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;&br&2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;&br&3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。&/p&&p&知识点链接:&a href=&http://link.zhihu.com/?target=https%3A//xijunlee.github.io//%25E9%259B%%E5%25AD%25A6%25E4%25B9%25A0%25E6%2580%25BB%25E7%25BB%2593/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&集成学习总结&/a&&/p&&p&&b&4.在k-means或kNN,我们是用欧氏距离来计算最近的邻居之间的距离。为什么不用曼哈顿距离?&/b&&/p&&p&曼哈顿距离只计算水平或垂直距离,有维度的限制。另一方面,欧氏距离可用于任何空间的距离计算问题。因为,数据点可以存在于任何空间,欧氏距离是更可行的选择。例如:想象一下国际象棋棋盘,象或车所做的移动是由曼哈顿距离计算的,因为它们是在各自的水平和垂直方向做的运动。&/p&&p&&b&5.百度2015校招机器学习笔试题。&/b&&/p&&p&知识点链接:&a href=&http://link.zhihu.com/?target=http%3A//www.itmian4.com/thread-.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&百度2015校招机器学习笔试题&/a&&/p&&p&&b&6.简单说说特征工程。&/b&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-26ee3e795f8e999edf0c_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&620& data-rawheight=&427& class=&origin_image zh-lightbox-thumb& width=&620& data-original=&https://pic1.zhimg.com/v2-26ee3e795f8e999edf0c_r.jpg&&&/figure&&p&&b&7.关于LR。&/b&&/p&&p&@rickjin:把LR从头到脚都给讲一遍。建模,现场数学推导,每种解法的原理,正则化,LR和maxent模型啥关系,LR为啥比线性回归好。有不少会背答案的人,问逻辑细节就糊涂了。原理都会? 那就问工程,并行化怎么做,有几种并行化方式,读过哪些开源的实现。还会,那就准备收了吧,顺便逼问LR模型发展历史。&/p&&figure&&img src=&https://pic1.zhimg.com/v2-30685aee15f8bd03b207f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&475& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic1.zhimg.com/v2-30685aee15f8bd03b207f_r.jpg&&&/figure&&p&&b&声明:由于原文中的链接已经失效,故而自己补充了一个新的链接&/b&&/p&&p&知识点链接:&i&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/sinat_/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习之Logistic回归(逻辑蒂斯回归)&/a&&/i&&/p&&p&&b&8.overfitting怎么解决?&/b&&/p&&p&dropout、regularization、batch normalizatin&/p&&p&&b&9.LR和SVM的联系与区别?&/b&&/p&&p&@朝阳在望,联系:&br&1、LR和SVM都可以处理分类问题,且一般都用于处理线性二分类问题(在改进的情况下可以处理多分类问题)&br&2、两个方法都可以增加不同的正则化项,如L1、L2等等。所以在很多实验中,两种算法的结果是很接近的。&br&区别:&br&1、LR是参数模型,SVM是非参数模型。&br&2、从目标函数来看,区别在于逻辑回归采用的是Logistical Loss,SVM采用的是hinge loss.这两个损失函数的目的都是增加对分类影响较大的数据点的权重,减少与分类关系较小的数据点的权重。&br&3、SVM的处理方法是只考虑Support Vectors,也就是和分类最相关的少数点,去学习分类器。而逻辑回归通过非线性映射,大大减小了离分类平面较远的点的权重,相对提升了与分类最相关的数据点的权重。&br&4、逻辑回归相对来说模型更简单,好理解,特别是大规模线性分类时比较方便。而SVM的理解和优化相对来说复杂一些,SVM转化为对偶问题后,分类只需要计算与少数几个支持向量的距离,这个在进行复杂核函数计算时优势很明显,能够大大简化模型和计算。&br&5、Logic 能做的 SVM能做,但可能在准确率上有问题,SVM能做的Logic有的做不了。&/p&&p&答案来源:&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/timcompp/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习常见面试问题(一)&/a&&/p&&p&&b&10.LR与线性回归的区别与联系?&/b&&/p&&p&@nishizhen&br&个人感觉逻辑回归和线性回归首先都是广义的线性回归,&br&其次经典线性模型的优化目标函数是最小二乘,而逻辑回归则是似然函数,&br&另外线性回归在整个实数域范围内进行预测,敏感度一致,而分类范围,需要在[0,1]。逻辑回归就是一种减小预测范围,将预测值限定为[0,1]间的一种回归模型,因而对于这类问题来说,逻辑回归的鲁棒性比线性回归的要好。&br&@乖乖癞皮狗:逻辑回归的模型本质上是一个线性回归模型,逻辑回归都是以线性回归为理论支持的。但线性回归模型无法做到sigmoid的非线性形式,sigmoid可以轻松处理0/1分类问题。&/p&&p&&b&11.为什么XGBoost要用泰勒展开,优势在哪里?&/b&&/p&&p&@AntZ:XGBoost使用了一阶和二阶偏导, 二阶导数有利于梯度下降的更快更准. 使用泰勒展开取得二阶倒数形式, 可以在不选定损失函数具体形式的情况下用于算法优化分析.本质上也就把损失函数的选取和模型算法优化/参数选择分开了. 这种去耦合增加了XGBoost的适用性。&/p&&p&&b&12.XGBoost如何寻找最优特征?是又放回还是无放回的呢?&/b&&/p&&p&@AntZ:XGBoost在训练的过程中给出各个特征的评分,从而表明每个特征对模型训练的重要性.。XGBoost利用梯度优化模型算法, 样本是不放回的(想象一个样本连续重复抽出,梯度来回踏步会不会高兴)。但XGBoost支持子采样, 也就是每轮计算可以不使用全部样本。&/p&&p&&b&13.谈谈判别式模型和生成式模型?&/b&&/p&&p&判别方法:由数据直接学习决策函数 Y = f(X),或者由条件分布概率 P(Y|X)作为预测模型,即判别模型。&/p&&p&生成方法:由数据学习联合概率密度分布函数 P(X,Y),然后求出条件概率分布P(Y|X)作为预测的模型,即生成模型。&/p&&p&由生成模型可以得到判别模型,但由判别模型得不到生成模型。&/p&&p&常见的判别模型有:K近邻、SVM、决策树、感知机、线性判别分析(LDA)、线性回归、传统的神经网络、逻辑斯蒂回归、boosting、条件随机场&/p&&p&常见的生成模型有:朴素贝叶斯、隐马尔可夫模型、高斯混合模型、文档主题生成模型(LDA)、限制玻尔兹曼机&/p&&p&&b&14.L1和L2的区别。&/b&&/p&&p&L1范数(L1 norm)是指向量中各个元素绝对值之和,也有个美称叫“稀疏规则算子”(Lasso regularization)。 &br&比如 向量A=[1,-1,3], 那么A的L1范数为 |1|+|-1|+|3|.&br&简单总结一下就是: &br&L1范数: 为x向量各个元素绝对值之和。 &br&L2范数: 为x向量各个元素平方和的1/2次方,L2范数又称Euclidean范数或Frobenius范数&/p&&p&Lp范数: 为x向量各个元素绝对值p次方和的1/p次方.&br&在支持向量机学习过程中,L1范数实际是一种对于成本函数求解最优的过程,因此,L1范数正则化通过向成本函数中添加L1范数,使得学习得到的结果满足稀疏化,从而方便人类提取特征。 &br&L1范数可以使权值稀疏,方便特征提取。 &br&L2范数可以防止过拟合,提升模型的泛化能力。&/p&&p&&b&15.L1和L2正则先验分别服从什么分布 ?&/b&&/p&&p&@齐同学:面试中遇到的,L1和L2正则先验分别服从什么分布,L1是拉普拉斯分布,L2是高斯分布。&/p&&p&&b&16.CNN最成功的应用是在CV,那为什么NLP和Speech的很多问题也可以用CNN解出来?为什么AlphaGo里也用了CNN?这几个不相关的问题的相似性在哪里?CNN通过什么手段抓住了这个共性?&/b&&/p&&p&@许韩&/p&&p&知识点链接(答案解析):&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&深度学习岗位面试问题整理笔记&/a&&/p&&p&&b&17.说一下Adaboost,权值更新公式。当弱分类器是Gm时,每个样本的的权重是w1,w2...,请写出最终的决策公式。&/b&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//www.360doc.com/content/14/183.shtml& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&答案解析&/a&&/p&&p&&b&18.LSTM结构推导,为什么比RNN好?&/b& &/p&&p&推导forget gate,input gate,cell state, hidden information等的变化;因为LSTM有进有出且当前的cell informaton是通过input gate控制之后叠加的,RNN是叠乘,因此LSTM可以防止梯度消失或者爆炸。&/p&&p&&b&19.经常在网上搜索东西的朋友知道,当你不小心输入一个不存在的单词时,搜索引擎会提示你是不是要输入某一个正确的单词,比如当你在Google中输入“Julw”时,系统会猜测你的意图:是不是要搜索“July”,如下图所示:&/b&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-07f4bd11fe2_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&688& data-rawheight=&334& class=&origin_image zh-lightbox-thumb& width=&688& data-original=&https://pic3.zhimg.com/v2-07f4bd11fe2_r.jpg&&&/figure&&p&这叫做拼写检查。根据谷歌一员工写的文章&a href=&http://link.zhihu.com/?target=http%3A//norvig.com/spell-correct.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&How to Write a Spelling Corrector&/a&显示,Google的拼写检查基于贝叶斯方法。请说说的你的理解,具体Google是怎么利用贝叶斯方法,实现&拼写检查&的功能。&/p&&p&用户输入一个单词时,可能拼写正确,也可能拼写错误。如果把拼写正确的情况记做c(代表correct),拼写错误的情况记做w(代表wrong),那么&拼写检查&要做的事情就是:在发生w的情况下,试图推断出c。换言之:已知w,然后在若干个备选方案中,找出可能性最大的那个c,也就是求$P(c|w)$的最大值。而根据贝叶斯定理,有:&br&$$P(c|w)=\frac{P(w|c)P(c)}{P(w)}$$&br&由于对于所有备选的c来说,对应的都是同一个w,所以它们的P(w)是相同的,因此我们只要最大化$P(w|c)P(c)$即可。其中:&/p&&p&P(c)表示某个正确的词的出现&概率&,它可以用&频率&代替。如果我们有一个足够大的文本库,那么这个文本库中每个单词的出现频率,就相当于它的发生概率。某个词的出现频率越高,P(c)就越大。比如在你输入一个错误的词“Julw”时,系统更倾向于去猜测你可能想输入的词是“July”,而不是“Jult”,因为“July”更常见。&/p&&p&P(w|c)表示在试图拼写c的情况下,出现拼写错误w的概率。为了简化问题,假定两个单词在字形上越接近,就有越可能拼错,P(w|c)就越大。举例来说,相差一个字母的拼法,就比相差两个字母的拼法,发生概率更高。你想拼写单词July,那么错误拼成Julw(相差一个字母)的可能性,就比拼成Jullw高(相差两个字母)。值得一提的是,一般把这种问题称为“编辑距离”,参见&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/v_july_v/article/details/t4& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&程序员编程艺术第二十八~二十九章:最大连续乘积子串、字符串编辑距离&/a&。&/p&&p&所以,我们比较所有拼写相近的词在文本库中的出现频率,再从中挑出出现频率最高的一个,即是用户最想输入的那个词。具体的计算过程及此方法的缺陷请参见&a href=&http://link.zhihu.com/?target=http%3A//norvig.com/spell-correct.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&How to Write a Spelling Corrector&/a&。&/p&&p&&b&20.为什么朴素贝叶斯如此“朴素”?&/b& &/p&&p&因为它假定所有的特征在数据集中的作用是同样重要和独立的。正如我们所知,这个假设在现实世界中是很不真实的,因此,说朴素贝叶斯真的很“朴素”。&/p&&p&&b&21.机器学习中,为何要经常对数据做归一化?&/b&&/p&&p&@zhanlijun&/p&&p&本题解析来源:&a href=&http://link.zhihu.com/?target=http%3A//www.cnblogs.com/LBSer/p/4440590.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&为什么一些机器学习模型需要对数据进行归一化?&/a&&/p&&p&&b&22.谈谈深度学习中的归一化问题。&/b&&/p&&p&详情参见此视频:&a href=&http://link.zhihu.com/?target=http%3A//www.julyedu.com/video/play/69/686& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&深度学习中的归一化&/a&&/p&&p&&b&23.请简要说说一个完整机器学习项目的流程。&/b&&/p&&p&1 抽象成数学问题&br&明确问题是进行机器学习的第一步。机器学习的训练过程通常都是一件非常耗时的事情,胡乱尝试时间成本是非常高的。&br&这里的抽象成数学问题,指的我们明确我们可以获得什么样的数据,目标是一个分类还是回归或者是聚类的问题,如果都不是的话,如果划归为其中的某类问题。&br&2 获取数据&br&数据决定了机器学习结果的上限,而算法只是尽可能逼近这个上限。&br&数据要有代表性,否则必然会过拟合。&br&而且对于分类问题,数据偏斜不能过于严重,不同类别的数据数量不要有数个数量级的差距。&br&而且还要对数据的量级有一个评估,多少个样本,多少个特征,可以估算出其对内存的消耗程度,判断训练过程中内存是否能够放得下。如果放不下就得考虑改进算法或者使用一些降维的技巧了。如果数据量实在太大,那就要考虑分布式了。&br&3 特征预处理与特征选择&br&良好的数据要能够提取出良好的特征才能真正发挥效力。&br&特征预处理、数据清洗是很关键的步骤,往往能够使得算法的效果和性能得到显著提高。归一化、离散化、因子化、缺失值处理、去除共线性等,数据挖掘过程中很多时间就花在它们上面。这些工作简单可复制,收益稳定可预期,是机器学习的基础必备步骤。&br&筛选出显著特征、摒弃非显著特征,需要机器学习工程师反复理解业务。这对很多结果有决定性的影响。特征选择好了,非常简单的算法也能得出良好、稳定的结果。这需要运用特征有效性分析的相关技术,如相关系数、卡方检验、平均互信息、条件熵、后验概率、逻辑回归权重等方法。&br&4 训练模型与调优&br&直到这一步才用到我们上面说的算法进行训练。现在很多算法都能够封装成黑盒供人使用。但是真正考验水平的是调整这些算法的(超)参数,使得结果变得更加优良。这需要我们对算法的原理有深入的理解。理解越深入,就越能发现问题的症结,提出良好的调优方案。&br&5 模型诊断&br&如何确定模型调优的方向与思路呢?这就需要对模型进行诊断的技术。&br&过拟合、欠拟合 判断是模型诊断中至关重要的一步。常见的方法如交叉验证,绘制学习曲线等。过拟合的基本调优思路是增加数据量,降低模型复杂度。欠拟合的基本调优思路是提高特征数量和质量,增加模型复杂度。&br&误差分析 也是机器学习至关重要的步骤。通过观察误差样本,全面分析误差产生误差的原因:是参数的问题还是算法选择的问题,是特征的问题还是数据本身的问题……&br&诊断后的模型需要进行调优,调优后的新模型需要重新进行诊断,这是一个反复迭代不断逼近的过程,需要不断地尝试, 进而达到最优状态。&br&6 模型融合&br&一般来说,模型融合后都能使得效果有一定提升。而且效果很好。&br&工程上,主要提升算法准确度的方法是分别在模型的前端(特征清洗和预处理,不同的采样模式)与后端(模型融合)上下功夫。因为他们比较标准可复制,效果比较稳定。而直接调参的工作不会很多,毕竟大量数据训练起来太慢了,而且效果难以保证。&br&7 上线运行&br&这一部分内容主要跟工程实现的相关性比较大。工程上是结果导向,模型在线上运行的效果直接决定模型的成败。 不单纯包括其准确程度、误差等情况,还包括其运行的速度(时间复杂度)、资源消耗程度(空间复杂度)、稳定性是否可接受。&br&这些工作流程主要是工程实践上总结出的一些经验。并不是每个项目都包含完整的一个流程。这里的部分只是一个指导性的说明,只有大家自己多实践,多积累项目经验,才会有自己更深刻的认识。&br&故,基于此,七月在线每一期ML算法班都特此增加特征工程、模型调优等相关课。比如,这里有个公开课视频《特征处理与特征选择》。&/p&&p&&b&24.new 和 malloc的区别?&/b&&/p&&p&知识点链接:&i&&a href=&http://link.zhihu.com/?target=https%3A//www.cnblogs.com/fly1988happy/archive//2470542.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&new 和 malloc的区别&/a&&/i&&/p&&p&&b&25.hash 冲突及解决办法?&/b&&/p&&p&@Sommer_Xia&/p&&p&关键字值不同的元素可能会映象到哈希表的同一地址上就会发生哈希冲突。解决办法:&br&1)开放定址法:当冲突发生时,使用某种探查(亦称探测)技术在散列表中形成一个探查(测)序列。沿此序列逐个单元地查找,直到找到给定 的关键字,或者碰到一个开放的地址(即该地址单元为空)为止(若要插入,在探查到开放的地址,则可将待插入的新结点存人该地址单元)。查找时探查到开放的 地址则表明表中无待查的关键字,即查找失败。&br&2) 再哈希法:同时构造多个不同的哈希函数。&br&3)链地址法:将所有哈希地址为i的元素构成一个称为同义词链的单链表,并将单链表的头指针存在哈希表的第i个单元中,因而查找、插入和删除主要在同义词链中进行。链地址法适用于经常进行插入和删除的情况。&br&4)建立公共溢出区:将哈希表分为基本表和溢出表两部分,凡是和基本表发生冲突的元素,一律填入溢出表。&/p&&p&&b&26.如何解决梯度消失和梯度膨胀?&/b&&/p&&p&(1)梯度消失:&br&根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0。&br&可以采用ReLU激活函数有效的解决梯度消失的情况。&br&(2)梯度膨胀:&br&根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大。&/p&&p&可以通过激活函数来解决。&/p&&p&&b&27.下列哪个不属于CRF模型对于HMM和MEMM模型的优势( )&/b&&/p&&p&A. 特征灵活 &br&B. 速度快&br&C. 可容纳较多上下文信息 &br&D. 全局最优&br&解答:首先,CRF,HMM(隐马模型),MEMM(最大熵隐马模型)都常用来做序列标注的建模。&br&隐马模型一个最大的缺点就是由于其输出独立性假设,导致其不能考虑上下文的特征,限制了特征的选择。&br&最大熵隐马模型则解决了隐马的问题,可以任意选择特征,但由于其在每一节点都要进行归一化,所以只能找到局部的最优值,同时也带来了标记偏见的问题,即凡是训练语料中未出现的情况全都忽略掉。&br&条件随机场则很好的解决了这一问题,他并不在每一个节点进行归一化,而是所有特征进行全局归一化,因此可以求得全局的最优值。&/p&&p&答案为B。&/p&&p&&b&28.简单说下有监督学习和无监督学习的区别?&/b&&/p&&p&有监督学习:对具有标记的训练样本进行学习,以尽可能对训练样本集外的数据进行分类预测。(LR,SVM,BP,RF,GBDT)&br&无监督学习:对未标记的样本进行训练学习,比发现这些样本中的结构知识。(KMeans,DL)&/p&&p&&b&29.了解正则化么?&/b&&/p&&p&正则化是针对过拟合而提出的,以为在求解模型最优的是一般优化最小的经验风险,现在在该经验风险上加入模型复杂度这一项(正则化项是模型参数向量的范数),并使用一个rate比率来权衡模型复杂度与以往经验风险的权重,如果模型复杂度越高,结构化的经验风险会越大,现在的目标就变为了结构经验风险的最优化,可以防止模型训练过度复杂,有效的降低过拟合的风险。&br&奥卡姆剃刀原理,能够很好的解释已知数据并且十分简单才是最好的模型。&/p&&p&&b&30.协方差和相关性有什么区别?&/b&&/p&&p&相关性是协方差的标准化格式。协方差本身很难做比较。例如:如果我们计算工资($)和年龄(岁)的协方差,因为这两个变量有不同的度量,所以我们会得到不能做比较的不同的协方差。为了解决这个问题,我们计算相关性来得到一个介于-1和1之间的值,就可以忽略它们各自不同的度量。&/p&&p&&b&31.线性分类器与非线性分类器的区别以及优劣。&/b&&/p&&p&如果模型是参数的线性函数,并且存在线性分类面,那么就是线性分类器,否则不是。&br&常见的线性分类器有:LR,贝叶斯分类,单层感知机、线性回归。&br&常见的非线性分类器:决策树、RF、GBDT、多层感知机。&br&SVM两种都有(看线性核还是高斯核)。&br&线性分类器速度快、编程方便,但是可能拟合效果不会很好。&br&非线性分类器编程复杂,但是效果拟合能力强。&/p&&p&&b&32.数据的逻辑存储结构(如数组,队列,树等)对于软件开发具有十分重要的影响,试对你所了解的各种存储结构从运行速度、存储效率和适用场合等方面进行简要地分析。&/b& &/p&&figure&&img src=&https://pic2.zhimg.com/v2-e249b82abdbef8ed2b79f316d4f24941_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&231& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic2.zhimg.com/v2-e249b82abdbef8ed2b79f316d4f24941_r.jpg&&&/figure&&p&&b&33.什么是分布式数据库?&/b&&/p&&p&分布式数据库系统是在集中式数据库系统成熟技术的基础上发展起来的,但不是简单地把集中式数据库分散地实现,它具有自己的性质和特征。集中式数据库系统的许多概念和技术,如数据独立性、数据共享和减少冗余度、并发控制、完整性、安全性和恢复等在分布式数据库系统中都有了不同的、更加丰富的内容。&/p&&p&&b&34.简单说说贝叶斯定理。&/b&&/p&&p&在引出贝叶斯定理之前,先学习几个定义:&br&条件概率(又称后验概率)就是事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为P(A|B),读作“在B条件下A的概率”。&br&比如,在同一个样本空间Ω中的事件或者子集A与B,如果随机从Ω中选出的一个元素属于B,那么这个随机选择的元素还属于A的概率就定义为在B的前提下A的条件概率,所以:P(A|B) = |A∩B|/|B|,接着分子、分母都除以|Ω|得到:&br&$$P(A|B)=\frac{P(A \cap B)}{P(B)}$$&br&联合概率表示两个事件共同发生的概率。A与B的联合概率表示为$P(A \cap B)$或者$P(A,B)$。&/p&&p&边缘概率(又称先验概率)是某个事件发生的概率。边缘概率是这样得到的:在联合概率中,把最终结果中那些不需要的事件通过合并成它们的全概率,而消去它们(对离散随机变量用求和得全概率,对连续随机变量用积分得全概率),这称为边缘化(marginalization),比如A的边缘概率表示为P(A),B的边缘概率表示为P(B)。 &br&接着,考虑一个问题:P(A|B)是在B发生的情况下A发生的可能性。&br&1)首先,事件B发生之前,我们对事件A的发生有一个基本的概率判断,称为A的先验概率,用P(A)表示;&br&2)其次,事件B发生之后,我们对事件A的发生概率重新评估,称为A的后验概率,用P(A|B)表示;&br&3)类似的,事件A发生之前,我们对事件B的发生有一个基本的概率判断,称为B的先验概率,用P(B)表示;&br&4)同样,事件A发生之后,我们对事件B的发生概率重新评估,称为B的后验概率,用P(B|A)表示。&/p&&p&贝叶斯定理的公式表达式:&br&$$P(A|B)=\frac{P(B|A)P(A)}{P(B)}$$&/p&&p&&b&35.#include
&filename.h& 和#include“filename.h”有什么区别?&/b&&/p&&p&知识点链接:&i&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/u/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&#include&filename.h& 和 #include&filename.h&有什么区别&/a&&/i&&/p&&p&&b&36.某超市研究销售纪录数据后发现,买啤酒的人很大概率也会购买尿布,这种属于数据挖掘的哪类问题?(A)&/b&&br&A. 关联规则发现
D. 自然语言处理&/p&&p&&b&37.将原始数据进行集成、变换、维度规约、数值规约是在以下哪个步骤的任务?(C)&/b&&br&A. 频繁模式挖掘
B. 分类和预测
C. 数据预处理 D. 数据流挖掘&/p&&p&&b&38.下面哪种不属于数据预处理的方法? (D)&/b&&br&A变量代换 B离散化 C 聚集 D 估计遗漏值 &/p&&p&&b&39.什么是KDD? (A)&/b&&br&A. 数据挖掘与知识发现 B. 领域知识发现C. 文档知识发现 D. 动态知识发现&/p&&p&&b&40.当不知道数据所带标签时,可以使用哪种技术促使带同类标签的数据与带其他标签的数据相分离?(B)&/b&&br&A. 分类 B. 聚类 C. 关联分析 D. 隐马尔可夫链&/p&&p&&b&41.建立一个模型,通过这个模型根据已知的变量值来预测其他某个变量值属于数据挖掘的哪一类任务?(C)&/b&&br&A. 根据内容检索 B. 建模描述&br&C. 预测建模 D. 寻找模式和规则&/p&&p&&b&42.以下哪种方法不属于特征选择的标准方法?(D)&/b&&br&A嵌入 B 过滤 C 包装 D 抽样 &/p&&p&&b&43.请用python编写函数find_string,从文本中搜索并打印内容,要求支持通配符星号和问号。&/b&&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&find_string('hello\nworld\n','wor')
find_string('hello\nworld\n','l*d')
find_string('hello\nworld\n','o.')
def find_string(str,pat):
return re.findall(pat,str,re.I)
&/code&&/pre&&/div&&p&&b&44.说下红黑树的五个性质。&/b&&/p&&p&&i&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/v_july_v/article/details/6105630& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&教你初步了解红黑树&/a&&/i&&/p&&p&&b&45.简单说下sigmoid激活函数。&/b&&/p&&p&常用的非线性激活函数有sigmoid、tanh、relu等等,前两者sigmoid/tanh比较常见于全连接层,后者relu常见于卷积层。这里先简要介绍下最基础的sigmoid函数(btw,在本博客中SVM那篇文章开头有提过)。&/p&&p&Sigmoid的函数表达式如下:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-1fee43afbb5_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&723& data-rawheight=&392& class=&origin_image zh-lightbox-thumb& width=&723& data-original=&https://pic2.zhimg.com/v2-1fee43afbb5_r.jpg&&&/figure&&p&&br&&/p&&p&也就是说,Sigmoid函数的功能是相当于把一个实数压缩至0到1之间。当z是非常大的正数时,g(z)会趋近于1,而z是非常小的负数时,则g(z)会趋近于0。&/p&&p&压缩至0到1有何用处呢?用处是这样一来便可以把激活函数看作一种“分类的概率”,比如激活函数的输出为0.9的话便可以解释为90%的概率为正样本。&/p&&p&举个例子,如下图(图引自Stanford机器学习公开课):&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-a029ca565c4c79d5d09dc168f2abb8b1_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&704& data-rawheight=&776& class=&origin_image zh-lightbox-thumb& width=&704& data-original=&https://pic2.zhimg.com/v2-a029ca565c4c79d5d09dc168f2abb8b1_r.jpg&&&/figure&&p&&br&&/p&&p&&b&46.什么是卷积?&/b&&/p&&p&对图像(不同的数据窗口数据)和滤波矩阵(一组固定的权重:因为每个神经元的多个权重固定,所以又可以看做一个恒定的滤波器filter)做内积(逐个元素相乘再求和)的操作就是所谓的『卷积』操作,也是卷积神经网络的名字来源。&br&非严格意义上来讲,下图中红框框起来的部分便可以理解为一个滤波器,即带着一组固定权重的神经元。多个滤波器叠加便成了卷积层。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-9a530b90ffc623eb0e2a7_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&456& data-rawheight=&249& class=&origin_image zh-lightbox-thumb& width=&456& data-original=&https://pic4.zhimg.com/v2-9a530b90ffc623eb0e2a7_r.jpg&&&/figure&&p&&br&&/p&&p&OK,举个具体的例子。比如下图中,图中左边部分是原始输入数据,图中中间部分是滤波器filter,图中右边是输出的新的二维数据。&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-e8f7faa7b572c4b0b68ef_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&584& data-rawheight=&460& class=&origin_image zh-lightbox-thumb& width=&584& data-original=&https://pic4.zhimg.com/v2-e8f7faa7b572c4b0b68ef_r.jpg&&&/figure&&p&&br&&/p&&p&分解下上图&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-f677b161c2eedd2ab12bce9d2c37ee1e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&733& data-rawheight=&196& class=&origin_image zh-lightbox-thumb& width=&733& data-original=&https://pic3.zhimg.com/v2-f677b161c2eedd2ab12bce9d2c37ee1e_r.jpg&&&/figure&&p&&br&&/p&&p&&b&47.什么是CNN的池化pool层?&/b&&/p&&p&池化,简言之,即取区域平均或最大,如下图所示(图引自cs231n):&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-61a08cfc797b12b00e025_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&720& data-rawheight=&337& class=&origin_image zh-lightbox-thumb& width=&720& data-original=&https://pic2.zhimg.com/v2-61a08cfc797b12b00e025_r.jpg&&&/figure&&p&&br&&/p&&p&上图所展示的是取区域最大,即上图左边部分中 左上角2x2的矩阵中6最大,右上角2x2的矩阵中8最大,左下角2x2的矩阵中3最大,右下角2x2的矩阵中4最大,所以得到上图右边部分的结果:6 8 3 4。很简单不是?&/p&&p&&b&48.简述下什么是生成对抗网络。&/b&&/p&&p&GAN之所以是对抗的,是因为GAN的内部是竞争关系,一方叫generator,它的主要工作是生成图片,并且尽量使得其看上去是来自于训练样本的。另一方是discriminator,其目标是判断输入图片是否属于真实训练样本。&br&更直白的讲,将generator想象成假币制造商,而discriminator是警察。generator目的是尽可能把假币造的跟真的一样,从而能够骗过discriminator,即生成样本并使它看上去好像来自于真实训练样本一样。&/p&&p&&br&&/p&&figure&&img src=&https://pic3.zhimg.com/v2-ffd23e296dd9c0d431b3e_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&640& data-rawheight=&1136& class=&origin_image zh-lightbox-thumb& width=&640& data-original=&https://pic3.zhimg.com/v2-ffd23e296dd9c0d431b3e_r.jpg&&&/figure&&p&&br&&/p&&p&如下图中的左右两个场景:&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-66f35b7f7d0a2b2cda8aa55a746b33d8_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&404& data-rawheight=&296& class=&content_image& width=&404&&&/figure&&p&&br&&/p&&p&更多请参见此课程:&a href=&http://link.zhihu.com/?target=https%3A//www.julyedu.com/course/getDetail/83& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&生成对抗网络&/a&&/p&&p&&b&49.学梵高作画的原理是啥?&/b&&/p&&p&这里有篇如何做梵高风格画的实验教程&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/v_july_v/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&& 教你从头到尾利用DL学梵高作画:GTX 1070 cuda 8.0 tensorflow gpu版&/a&,至于其原理请看这个视频:&a href=&http://link.zhihu.com/?target=http%3A//www.julyedu.com/video/play/42/523& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&NeuralStyle艺术化图片(学梵高作画背后的原理)&/a&。&/p&&p&&b&50.现在有 a 到 z 26 个元素, 编写程序打印 a 到 z 中任取 3 个元素的组合(比如 打印 a b c ,d y z等)。&/b&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/lvonve/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&一道百度机器学习工程师职位的面试题&/a&&/p&&p&&b&51.哪些机器学习算法不需要做归一化处理?&/b&&/p&&p&概率模型不需要归一化,因为它们不关心变量的值,而是关心变量的分布和变量之间的条件概率,如决策树、RF。而像Adaboost、GBDT、XGBoost、SVM、LR、KNN、KMeans之类的最优化问题就需要归一化。&/p&&p&&b&52.说说梯度下降法。&/b&&/p&&p&@LeftNotEasy&/p&&p&&i&&a href=&http://link.zhihu.com/?target=http%3A//www.cnblogs.com/LeftNotEasy/archive//mathmatic_in_machine_learning_1_regression_and_gradient_descent.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习中的数学(1)-回归(regression)、梯度下降(gradient descent)&/a&&/i&&/p&&p&&b&53.梯度下降法找到的一定是下降最快的方向么?&/b&&/p&&p&梯度下降法并不是下降最快的方向,它只是目标函数在当前的点的切平面(当然高维问题不能叫平面)上下降最快的方向。在Practical Implementation中,牛顿方向(考虑海森矩阵)才一般被认为是下降最快的方向,可以达到Superlinear的收敛速度。梯度下降类的算法的收敛速度一般是Linear甚至Sublinear的(在某些带复杂约束的问题)。&/p&&p&知识点链接:&i&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/wemedia/details.html%3Fid%3D45460& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&一文清晰讲解机器学习中梯度下降算法(包括其变式算法)&/a&&/i&&/p&&p&&b&54.牛顿法和梯度下降法有什么不同?&/b&&/p&&p&@wtq1993&/p&&p&知识点链接:&i&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/wtq1993/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习中常见的最优化算法&/a&&/i&&/p&&p&&b&55.什么是拟牛顿法(Quasi-Newton Methods)?&/b&&/p&&p&@wtq1993&/p&&p&&i&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/wtq1993/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习中常见的最优化算法&/a&&/i&&/p&&p&&b&56.请说说随机梯度下降法的问题和挑战?&/b&&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-57c9d0bad8ce007e319b15bce8d98771_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&959& data-rawheight=&450& class=&origin_image zh-lightbox-thumb& width=&959& data-original=&https://pic2.zhimg.com/v2-57c9d0bad8ce007e319b15bce8d98771_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-29eb2ebe2d315f08a570_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&960& data-rawheight=&720& class=&origin_image zh-lightbox-thumb& width=&960& data-original=&https://pic1.zhimg.com/v2-29eb2ebe2d315f08a570_r.jpg&&&/figure&&figure&&img src=&https://pic2.zhimg.com/v2-a5cebba87f9ac770ada9b8d_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&959& data-rawheight=&719& class=&origin_image zh-lightbox-thumb& width=&959& data-original=&https://pic2.zhimg.com/v2-a5cebba87f9ac770ada9b8d_r.jpg&&&/figure&&p&&br&&/p&&p&&b&57.说说共轭梯度法?&/b&&/p&&p&@wtq1993&/p&&p&&i&&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/wtq1993/article/details/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&机器学习中常见的最优化算法&/a&&/i&&/p&&p&&b&58.对所有优化问题来说, 有没有可能找到比現在已知算法更好的算法?&/b&&/p&&p&&a href=&https://www.zhihu.com/question//answer/& class=&internal&&答案链接&/a&&/p&&p&&b&59、什么最小二乘法?&/b&&/p&&p&我们口头中经常说:一般来说,平均来说。如平均来说,不吸烟的健康优于吸烟者,之所以要加“平均”二字,是因为凡事皆有例外,总存在某个特别的人他吸烟但由于经常锻炼所以他的健康状况可能会优于他身边不吸烟的朋友。而最小二乘法的一个最简单的例子便是算术平均。&/p&&p&最小二乘法(又称最小平方法)是一种数学优化技术。它通过最小化误差的平方和寻找数据的最佳函数匹配。利用最小二乘法可以简便地求得未知的数据,并使得这些求得的数据与实际数据之间误差的平方和为最小。用函数表示为:&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-90ecffa4eda9c6f791dd09_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&737& data-rawheight=&884& class=&origin_image zh-lightbox-thumb& width=&737& data-original=&https://pic2.zhimg.com/v2-90ecffa4eda9c6f791dd09_r.jpg&&&/figure&&p&&br&&/p&&p&由于算术平均是一个历经考验的方法,而以上的推理说明,算术平均是最小二乘的一个特例,所以从另一个角度说明了最小二乘方法的优良性,使我们对最小二乘法更加有信心。&/p&&p&最小二乘法发表之后很快得到了大家的认可接受,并迅速的在数据分析实践中被广泛使用。不过历史上又有人把最小二乘法的发明归功于高斯,这又是怎么一回事呢。高斯在1809年也发表了最小二乘法,并且声称自己已经使用这个方法多年。高斯发明了小行星定位的数学方法,并在数据分析中使用最小二乘方法进行计算,准确的预测了谷神星的位置。&/p&&p&对了,最小二乘法跟SVM有什么联系呢?请参见&a href=&http://link.zhihu.com/?target=http%3A//blog.csdn.net/v_july_v/article/details/7624837& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&支持向量机通俗导论(理解SVM的三层境界)&/a&。&/p&&p&&b&60、看你T恤上印着:人生苦短,我用Python,你可否说说Python到底是什么样的语言?你可以比较其他技术或者语言来回答你的问题。&/b&&/p&&p&&i&&a href=&http://link.zhihu.com/?target=http%3A//nooverfit.com/wp/15%25E4%25B8%25AA%25E9%E8%25A6%2581python%25E9%259D%25A2%25E8%25AF%%25A2%%25B5%258B%25E6%25B5%258B%25E4%25BD%25A0%25E9%E4%25B8%258D%25E9%E5%E5%Apython%25EF%25BC%259F/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&15个重要Python面试题 测测你适不适合做Python?&/a&&/i&&/p&&p&&b&61.Python是如何进行内存管理的?&/b&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//www.cnblogs.com/tom-gao/p/6645859.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&2017 Python最新面试题及答案16道题&/a&&/p&&p&&b&62.请写出一段Python代码实现删除一个list里面的重复元素。&/b&&/p&&p&1、使用set函数,set(list);&br&2、使用字典函数:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&a=[1,2,4,2,4,5,6,5,7,8,9,0]
b=b.fromkeys(a)
c=list(b.keys())
&/code&&/pre&&/div&&p&&b&63.编程用sort进行排序,然后从最后一个元素开始判断。&/b&&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&a=[1,2,4,2,4,5,7,10,5,5,7,8,9,0,3]
last=a[-1]
for i inrange(len(a)-2,-1,-1):
if last==a[i]:
else:last=a[i]
&/code&&/pre&&/div&&p&&b&64.Python里面如何生成随机数?&/b&&/p&&p&@Tom_junsong&/p&&p&random模块&/p&&p&随机整数:random.randint(a,b):返回随机整数x,a&=x&=b&br&random.randrange(start,stop,[,step]):返回一个范围在(start,stop,step)之间的随机整数,不包括结束值。&br&随机实数:random.random( ):返回0到1之间的浮点数&br&random.uniform(a,b):返回指定范围内的浮点数。&/p&&p&&b&65.说说常见的损失函数。&/b&&/p&&p&对于给定的输入X,由f(X)给出相应的输出Y,这个输出的预测值f(X)与真实值Y可能一致也可能不一致(要知道,有时损失或误差是不可避免的),用一个损失函数来度量预测错误的程度。损失函数记为L(Y, f(X))。&br&常用的损失函数有以下几种(基本引用自《统计学习方法》):&/p&&p&&br&&/p&&figure&&img src=&https://pic1.zhimg.com/v2-bfe18ea3de_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&491& data-rawheight=&412& class=&origin_image zh-lightbox-thumb& width=&491& data-original=&https://pic1.zhimg.com/v2-bfe18ea3de_r.jpg&&&/figure&&figure&&img src=&https://pic1.zhimg.com/v2-47bd930dd88cfd_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&564& data-rawheight=&441& class=&origin_image zh-lightbox-thumb& width=&564& data-original=&https://pic1.zhimg.com/v2-47bd930dd88cfd_r.jpg&&&/figure&&p&&br&&/p&&p&&b&66.简单介绍下Logistics回归。&/b&&/p&&p&Logistic回归目的是从特征学习出一个0/1分类模型,而这个模型是将特性的线性组合作为自变量,由于自变量的取值范围是负无穷到正无穷。因此,使用logistic函数(或称作sigmoid函数)将自变量映射到(0,1)上,映射后的值被认为是属于y=1的概率。&/p&&p&假设函数:&br&$$h_{\theta }(x)=g(\theta ^T x)=\frac{1}{1+e^{-\theta ^{T}x}}$$&br&其中x是n维特征向量,函数g就是Logistic函数。而:$g(z)=\frac{1}{1+e^{-z}}$的图像是:&/p&&p&&br&&/p&&figure&&img src=&https://pic4.zhimg.com/v2-89d490dbf76ad048a5d89f_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&332& data-rawheight=&274& class=&content_image& width=&332&&&/figure&&p&&br&&/p&&p&可以看到,将无穷映射到了(0,1)。而假设函数就是特征属于y=1的概率。&/p&&p&$$P(y=1|\theta )=h&i&{\theta }(x);P(y=0|\theta )=1-h&/i&{\theta }(x)$$&/p&&p&&br&&/p&&figure&&img src=&https://pic2.zhimg.com/v2-c7bdab5c392e1f6ac2f25_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&716& data-rawheight=&383& class=&origin_image zh-lightbox-thumb& width=&716& data-original=&https://pic2.zhimg.com/v2-c7bdab5c392e1f6ac2f25_r.jpg&&&/figure&&p&&br&&/p&&p&&b&67.看你是搞视觉的,熟悉哪些CV框架,顺带聊聊CV最近五年的发展史如何?&/b&&/p&&p&&i&&a href=&http://link.zhihu.com/?target=https%3A//mp.weixin.qq.com/s%3F__biz%3DMzI3MTA0MTk1MA%3D%3D%26mid%3D%26idx%3D1%26sn%3Dfddebd0ff424d6a435c84af%26scene%3D0%23wechat_redirect& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&答案解析&/a&&/i&&/p&&p&&b&68.深度学习在视觉领域有何前沿进展?&/b&&/p&&p&@元峰&/p&&p&本题解析来源:&a href=&https://zhuanlan.zhihu.com/p/& class=&internal&&深度学习在计算机视觉领域的前沿进展&/a&&/p&&p&&b&69.HashMap与HashTable区别?&/b&&/p&&p&&a href=&http://link.zhihu.com/?target=http%3A//oznyang.iteye.com/blog/30690& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&HashMap与Hashtable的区别&/a&&/p&&p&&b&70.在分类问题中,我们经常会遇到正负样本数据量不等的情况,比如正样本为10w条数据,负样本只有1w条数据,以下最合适的处理方法是( )&/b&&/p&&p&A、将负样本重复10次,生成10w样本量,打乱顺序参与分类&br&

我要回帖

更多关于 萍乡科技有限公司 的文章

 

随机推荐