影响纸船漂浮时间的4因素3水平响应面这个实验中,响应变量是什么

&figure&&img src=&https://pic3.zhimg.com/v2-ee88c7c273e689b71b0b_b.jpg& data-rawwidth=&450& data-rawheight=&334& class=&origin_image zh-lightbox-thumb& width=&450& data-original=&https://pic3.zhimg.com/v2-ee88c7c273e689b71b0b_r.jpg&&&/figure&&p&&b&前言&/b&:本文可能有些标题党,并不是真的要完全劝退大家,Alex的本意是希望大家更加冷静地看待目前DRL研究的进展,避免重复踩坑。评论区里有提到因为困难才有做的价值,还有机器人、控制论背景的朋友提到他觉得drl can do anything如果你有正确的超参数,这些意见也很值得大家参考。&/p&&p&今天在学校又双叒叕提到了&i&Deep Reinforcement Learning That Matters&/i&这篇打响DRL(Deep Reinforcement Learning, 深度强化学习)劝退第一枪的文章后,回来以后久违刷了一下推特,看到了这篇爆文&a href=&http://link.zhihu.com/?target=https%3A//www.alexirpan.com//rl-hard.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Deep Reinforcement Learning Doesn't Work Yet&/a&,或可直译为&i&深度强化学习还玩不转&/i&或意译为&i&深度强化学习远不能即插即玩&/i&。&/p&&p&看完以后很多从自己去年七月入坑以来隐隐约约的困惑都得到了解答。读完大有如不见此文,万古如长夜之感。心里激动,一时难以自抑。知乎上深度强化学习的内容比较少,最好的私以为是&a href=&https://zhuanlan.zhihu.com/intelligentunit& class=&internal&&智能单元&/a&,此外还有许多零散的论文介绍、课程笔记、问答等等,但好像没人提过这篇文章。这篇文章是我入坑以来看到的深度强化学习方面最好的阶段性总结,强烈建议应该作为深度强化学习的第一课,看完以后大家再慎重考虑到底要不要入坑。&/p&&p&先看一下作者的背景。作者叫Alex Irpan,现为谷歌大脑机器人团队的软件工程师。他从伯克利拿到的计算机科学本科学位,本科的时候曾经在伯克利人工智能实验室(Berkeley AI Research (BAIR) Lab)进行本科科研,导师是DRL大牛Pieter Abbeel,他还和John Schulman工作过。&/p&&p&这篇文章一上来就指出深度强化学习是个大坑。它的成功案例其实不算非常多,但每个都太有名了,例如用Deep Q Network(DQN)在Atari games上用原始像素图片作为状态达到甚至超越人类专家的表现、通过左右互搏(self-play)等方式在围棋上碾压人类、大大降低了谷歌能源中心的能耗等等。造成的结果就是没有从事过深度强化学习的研究人员对它产生了很大的错觉,高估了它的能力,低估了它的难度。&/p&&p&强化学习本身是一个非常通用的人工智能范式,在直觉上让人觉得非常适合用来模拟各种时序决策任务,如语音、文本类任务。当它和深度神经网络这种只要给我足够层和足够多的神经元,可以逼近任何函数的非线性函数近似模型结合在一起感觉要上天啊,无怪乎DeepMind经常号称人工智能=深度学习+强化学习。&/p&&p&然而Alex告诉我们别急,让我们先来审视一些问题:&/p&&ol&&li&&b&它的样本利用率非常低&/b&。换言之为了让模型的表现达到一定高度需要极为大量的训练样本。&/li&&li&&b&最终表现很多时候不够好&/b&。在很多任务上用非强化学习甚至非学习的其它方法,如基于模型的控制(model based control),线性二次型调节器(Linear Quadratic Regulator)等等可以获得好得多的表现。最气人的是这些模型很多时候样本利用率还高。当然这些模型有的时候会有一些假设比如有训练好的模型可以模仿,比如可以进行蒙特卡洛树搜索等等。&/li&&li&&b&DRL成功的关键离不开一个好的奖励函数(reward function),然而这种奖励函数往往很难设计&/b&。在&i&Deep Reinforcement Learning That Matters&/i&作者提到有时候把奖励乘以一个常数模型表现就会有天和地的区别。但奖励函数的坑爹之处还不止如此。奖励函数的设计需要保证:&/li&&ol&&li&加入了合适的先验,良好的定义了问题和在一切可能状态下的对应动作。坑爹的是模型很多时候会找到作弊的手段。Alex举的一个例子是有一个任务需要把红色的乐高积木放到蓝色的乐高积木上面,奖励函数的值基于红色乐高积木底部的高度而定。结果一个模型直接把红色乐高积木翻了一个底朝天。仔啊,你咋学坏了,阿爸对你很失望啊。&/li&&li&奖励函数的值太过稀疏。换言之大部分情况下奖励函数在一个状态返回的值都是0。这就和我们人学习也需要鼓励,学太久都没什么回报就容易气馁。都说21世纪是生物的世纪,怎么我还没感觉到呢?21世纪才刚开始呢。我等不到了啊啊啊啊啊。&/li&&li&有的时候在奖励函数上下太多功夫会引入新的偏见(bias)。&/li&&li&要找到一个大家都使用而又具有好的性质的奖励函数。这里Alex没很深入地讨论,但链接了一篇陶神(Terence Tao)的博客,大家有兴趣可以去看下。&/li&&/ol&&li&&b&局部最优/探索和剥削(exploration vs. exploitation)的不当应用&/b&。Alex举的一个例子是有一个连续控制的环境里,一个类似马的四足机器人在跑步,结果模型不小心多看到了马四脚朝天一顿乱踹后结果较好的情况,于是你只能看到四脚朝天的马了。&/li&&li&&b&对环境的过拟合&/b&。DRL少有在多个环境上玩得转的。你训练好的DQN在一个Atari game上work了,换一个可能就完全不work。即便你想要做迁移学习,也没有任何保障你能成功。&/li&&li&&b&不稳定性&/b&。&/li&&ol&&li&读DRL论文的时候会发现有时候作者们会给出一个模型表现随着尝试random seed数量下降的图,几乎所有图里模型表现最终都会降到0。相比之下在监督学习里不同的超参数或多或少都会表现出训练带来的变化,而DRL里运气不好可能很长时间你模型表现的曲线都没有任何变化,因为完全不work。&/li&&li&即便知道了超参数和随机种子,你的实现只要稍有差别,模型的表现就可以千差万别。这可能就是&i&Deep Reinforcement Learning That Matters&/i&一文里John Schulman两篇不同文章里同一个算法在同一个任务上表现截然不同的原因。&/li&&li&即便一切都很顺利,从我个人的经验和之前同某DRL研究人员的交流来看只要时间一长你的模型表现就可能突然从很好变成完全不work。原因我不是完全确定,可能和过拟合和variance过大有关。&/li&&/ol&&/ol&&p&特别是上述第六点,几乎是灾难性的。作者提到自己实习的时候一开始实现Normalized Advantage Function (NAF),为了找出Theano本身的bugs花了六周,这还是在NAF作者就在他旁边可以供他骚扰的情况下的结果。原因就是DRL的算法很多时候在没找好超参数的情况下就是不work的,所以你很难判断自己的代码到底有没有bug还是运气不好。&/p&&p&作者也回顾了DRL成功的案例,他认为DRL成功的案例其实非常少,大体包括:&/p&&ol&&li&各类游戏:Atari Games, Alpha Go/Alpha Zero/Dota2 1v1/超级马里奥/日本将棋,其实还应该有DRL最早的成功案例,93年的西洋双陆棋(backgammon)。&/li&&li&DeepMind的跑酷机器人。&/li&&li&为Google的能源中心节能。&/li&&li&Google的AutoML。&/li&&/ol&&p&作者认为从这些案例里获得的经验教训是DRL可能在有以下条件的情况下更可能有好的表现,条件越多越好:&/p&&ol&&li&数据获取非常容易,非常cheap。&/li&&li&不要急着一上来就攻坚克难,可以从简化的问题入手。&/li&&li&可以进行左右互搏。&/li&&li&奖励函数容易定义。&/li&&li&奖励信号非常多,反馈及时。&/li&&/ol&&p&他也指出了一些未来潜在的发展方向和可能性:&/p&&ol&&li&&b&局部最优或许已经足够好&/b&。未来某些研究可能会指出我们不必过于担心大部分情况下的局部最优。因为他们比起全局最优并没有差很多。&/li&&li&&b&硬件为王&/b&。在硬件足够强的情况下我们或许就不用那么在乎样本利用率了,凡事硬刚就可以有足够好的表现。各种遗传算法玩起来。&/li&&li&&b&人为添加一些监督信号&/b&。在环境奖励出现频次太低的情况下可以引入自我激励(intrinsic reward)或者添加一些辅助任务,比如DeepMind就很喜欢这套,之前还写了一篇&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Reinforcement Learning with Unsupervised Auxiliary Tasks&/a&。LeCun不是嫌蛋糕上的樱桃太少吗,让我们多给他点樱桃吧!&/li&&li&&b&更多融合基于模型的学习从而提高样本使用率&/b&。这方面的尝试其实已经有很多了,具体可以去看Alex提到的那些工作。但还远不够成熟。&/li&&li&&b&仅仅把DRL用于fine-tuning&/b&。比如最初Alpha Go就是以监督学习为主,以强化学习为辅。&/li&&li&&b&自动学习奖励函数&/b&。这涉及到inverse reinforcement learning和imitation learning。&/li&&li&&b&迁移学习和强化学习的进一步结合&/b&。&/li&&li&&b&好的先验&/b&。&/li&&li&&b&有的时候复杂的任务反而更容易学习&/b&。Alex提到的例子是DeepMind经常喜欢让模型学习很多同一环境的变种来减小对环境的过拟合。我觉得这也涉及curriculum learning,即从简单的任务开始逐步加深难度。可以说是层层递进的迁移学习。另外一个可能的解释是很多时候人觉得困难的任务和机器觉得困难的任务是相反的。比如人觉得倒水很简单,你让机器人用学习的路子去学倒水就可以很难。但反过来人觉得下围棋很简单而机器学习模型却在下围棋上把人击败了。&/li&&/ol&&p&最后Alex总体还是非常乐观的。他说尽管现在有很多困难,使得DRL或许还不是一个强壮(robust)到所有人都可以轻易加入的研究领域并且很多时候一些问题用DRL远没有监督学习简单和表现好,但或许过几年你再回来DRL就work了也未知啊。这还是很振奋人心的。田渊栋老师也表达过类似的想法,觉得正因为这个领域还不够成熟所以还有很多机会。他们都是了不起的研究人员。&/p&&p&看到这篇文章我总体是非常激动的。但实话说也有些遗憾,如果去年暑假就有这篇文章的话也许我就会再慎重考虑一下到底要不要在实验室没有积累自己又离毕业和申请不远的情况下开始这样一个主题了。这是一个教训,就是开始一个领域前要对这个领域要有充分的了解,之前零零散散在网上也有了一点相关的声音,比如Karpathy就提到他在实现vanilla policy gradient的时候也遇到了很多困难。&/p&&blockquote&If it makes you feel any better, I’ve been doing this for a while and it took me last ~6 weeks to get a from-scratch policy gradients implementation to work 50% of the time on a bunch of RL problems. And I also have a GPU cluster available to me, and a number of friends I get lunch with every day who’ve been in the area for the last few years.&br&&br&Also, what we know about good CNN design from supervised learning land doesn’t seem to apply to reinforcement learning land, because you’re mostly bottlenecked by credit assignment / supervision bitrate, not by a lack of a powerful representation. Your ResNets, batchnorms, or very deep networks have no power here.&br&&br&[Supervised learning] wants to work. Even if you screw something up you’ll usually get something non-random back. RL must be forced to work. If you screw something up or don’t tune something well enough you’re exceedingly likely to get a policy that is even worse than random. And even if it’s all well tuned you’ll get a bad policy 30% of the time, just because.&br&&br&Long story short your failure is more due to the difficulty of deep RL, and much less due to the difficulty of “designing neural networks”.&/blockquote&&p&来源:&a href=&http://link.zhihu.com/?target=https%3A//news.ycombinator.com/item%3Fid%3D& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&If it makes you feel any better, I've been doing this for a while and it took me...&/a&&/p&&p&但我一开始并没有注意到。其实导师也一直有提到说他觉得我的project比较有风险,特别是他觉得现在除了Berkeley, OpenAI,DeepMind之外很少有DRL做的不错的实验室,这本身就表明这个方向可能有一些无形的门槛。现在我觉得这些可能包括计算资源和设备(机器人),对相关trick和坑了然于胸的相对资深的研究人员等等。客观上这些地方的人综合水平和工程能力也是强的让人发指,直接竞争非常困难。虽然我自己比较弱,但这些对于打算进入DRL的同学们都需要慎重考虑一下。&/p&&p&最后的最后还是要强推Alex的这篇文章,他列的这些点很多DRL的研究人员可能已经非常了解了,但之前没有人这样完整、有组织地介绍一遍。对于想要做DRL的同学们来说实在是福音。拙作是看完他文章后第一时间的感想和概括,对于我不够了解的有些地方就一笔带过了,或者表述也不够准确。原文很长,我在对大部分内容比较熟悉的情况下看了一个半小时,但也很有意思,还是强烈推荐。&/p&
前言:本文可能有些标题党,并不是真的要完全劝退大家,Alex的本意是希望大家更加冷静地看待目前DRL研究的进展,避免重复踩坑。评论区里有提到因为困难才有做的价值,还有机器人、控制论背景的朋友提到他觉得drl can do anything如果你有正确的超参数,这些…
&figure&&img src=&https://pic3.zhimg.com/v2-22da7fdc184b21bf53567_b.jpg& data-rawwidth=&1195& data-rawheight=&750& class=&origin_image zh-lightbox-thumb& width=&1195& data-original=&https://pic3.zhimg.com/v2-22da7fdc184b21bf53567_r.jpg&&&/figure&&blockquote&夏乙 编译整理&br&量子位 出品 | 公众号 QbitAI&/blockquote&&hr&&p&“&a href=&https://www.zhihu.com/question//answer/& class=&internal&&等代码吧。&/a&”&/p&&p&从Mask R-CNN论文亮相至今的10个月里,关于它的讨论几乎都会以这句话收尾。&/p&&p&现在,官方版开源代码终于来了。同时发布的,是这项研究背后的一个基础平台:&b&Detectron&/b&。&/p&&p&Detectron是Facebook的物体检测平台,今天宣布开源,它基于Caffe2,用Python写成,这次开放的代码中就包含了Mask R-CNN的实现。&/p&&p&除此之外,Detectron还包含了ICCV 2017最佳学生论文RetinaNet,Ross Girshick(RBG)此前的研究Faster R-CNN和RPN、Fast R-CNN、以及R-FCN的实现。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-ada3c589de61fe_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&828& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-ada3c589de61fe_r.jpg&&&/figure&&p&Detectron的基干(backbone)网络架构包括ResNeXt{50,101,152}、ResNet{50,101,152}、FPN和VGG16。&/p&&p&同时,Facebook还发布了70多种ImageNet-1k预训练模型的性能基准,包括用用1、2块GPU时,上述各种基干架构和检测算法相结合做区域建议、遮罩检测以及人体关键点检测的训练时间、推理时间等。&/p&&p&要使用Detectron,你需要先配置英伟达GPU(是的,它还不支持CPU)、Linux系统和Python2,还要安装Caffe2和COCO API。然后,三步装上Detectron:&/p&&ul&&li&Clone:&/li&&/ul&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&# DETECTRON=/path/to/clone/detectron
git clone https://github.com/facebookresearch/detectron $DETECTRON
&/code&&/pre&&/div&&ul&&li&设置Python模块:&/li&&/ul&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&cd $DETECTRON/lib && make
&/code&&/pre&&/div&&ul&&li&检查Detectron的测试通过:&/li&&/ul&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&python2 $DETECTRON/tests/test_spatial_narrow_as_op.py
&/code&&/pre&&/div&&p&这样,就足够用预训练模型做推理了。&/p&&p&如果要用Detectron来训练自己的检测模型,就需要先确保能通过符号链接lib/datasets/data找到数据集,然后,&/p&&ul&&li&用CMake创建定制的运算符库:&/li&&/ul&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&cd $DETECTRON/lib && make ops
&/code&&/pre&&/div&&ul&&li&检查这些运算符的测试通过:&/li&&/ul&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&python2 $DETECTRON/tests/test_zero_even_op.py
&/code&&/pre&&/div&&p&Facebook还贴心地写了份上手教程,教你用预训练的Mask R-CNN来做物体检测。&/p&&p&如果要在本地图像上运行,只需要使用infer_simple.py工具,运行:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&python2 tools/infer_simple.py \
--cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml \
--output-dir /tmp/detectron-visualizations \
--image-ext jpg \
--wts https://s3-us-west-2.amazonaws.com/detectron/_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl \
&/code&&/pre&&/div&&p&就能得到如下图所示的输出。&/p&&figure&&img src=&https://pic4.zhimg.com/v2-eefd9d333f672f8cb6ad43_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&581& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic4.zhimg.com/v2-eefd9d333f672f8cb6ad43_r.jpg&&&/figure&&p&如果要在COCO数据集上做推理,需要运行:&/p&&div class=&highlight&&&pre&&code class=&language-text&&&span&&/span&python2 tools/test_net.py \
--cfg configs/12_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml \
TEST.WEIGHTS https://s3-us-west-2.amazonaws.com/detectron/_2017_baselines/e2e_mask_rcnn_R-101-FPN_2x.yaml.02_32_51.SgT4y1cO/output/train/coco_2014_train:coco_2014_valminusminival/generalized_rcnn/model_final.pkl \
NUM_GPUS 1
&/code&&/pre&&/div&&p&上面这个例子,用了端到端预训练的Mask R-CNN,在一块GPU上运行。如果要使用多个GPU,需要在第二行之后添加 —multi-gpu-testing \ 并更改最后的NUM_GPUS数量。&/p&&p&截至量子位发稿,Detectron在GitHub上放出7小时,已经收获738颗星标、101次Fork。&/p&&figure&&img src=&https://pic3.zhimg.com/v2-2d949846bbd45d329a72dfbe9b82e46a_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&1080& data-rawheight=&730& class=&origin_image zh-lightbox-thumb& width=&1080& data-original=&https://pic3.zhimg.com/v2-2d949846bbd45d329a72dfbe9b82e46a_r.jpg&&&/figure&&p&RBG在Facebook上发帖介绍说,这个项目2016年7月启动,想要基于Caffe 2构建一个快速、灵活的物体检测系统,至今已经一年半的时间。Detectron系统本来是Facebook内部使用的,我们前面提到的Mask R-CNN和RetinaNet背后,都由Detectron提供支持。&/p&&p&除了RBG之外,Ilija Radosavovic、Georgia Gkioxari、Piotr Dollar和何恺明也参与了Detectron项目。&/p&&p&在Facebook内部,Detectron不仅用于研究,还用来为增强现实、商业诚信等方面的应用训练定制化的模型。这些模型训练完成后可以部署在云端或者移动设备上,由Caffe2运行时提供支持。&/p&&p&RBG说,Facebook将Detectron平台开源出来,是想要加速世界各地实验室的研究,推动物体检测的进展。&/p&&blockquote&Now go forth and create algorithms to detect all of the things!&/blockquote&&p&想用Detectron搞物体检测算法,你可能要用到下面这些链接:&/p&&p&Detectron开源代码:&/p&&a href=&http://link.zhihu.com/?target=https%3A//github.com/facebookresearch/Detectron& data-draft-node=&block& data-draft-type=&link-card& data-image=&https://pic1.zhimg.com/v2-8a2be99a67d_ipico.jpg& data-image-width=&200& data-image-height=&200& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&facebookresearch/Detectron&/a&&p&相关物体检测论文:&/p&&ul&&li&Mask R-CNN:&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&0&/span&&span class=&ellipsis&&&/span&&/a&&/li&&li&RetinaNet:&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&2&/span&&span class=&ellipsis&&&/span&&/a&&/li&&li&Faster R-CNN和RPN:&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&7&/span&&span class=&ellipsis&&&/span&&/a&&/li&&li&Fast R-CNN:&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&3&/span&&span class=&ellipsis&&&/span&&/a&&/li&&li&R-FCN:&a href=&http://link.zhihu.com/?target=https%3A//arxiv.org/abs/& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&arxiv.org/abs/&/span&&span class=&invisible&&9&/span&&span class=&ellipsis&&&/span&&/a&&/li&&/ul&&p&性能基准和Model ZOO:&a href=&http://link.zhihu.com/?target=https%3A//github.com/facebookresearch/Detectron/blob/master/MODEL_ZOO.md& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://&/span&&span class=&visible&&github.com/facebookrese&/span&&span class=&invisible&&arch/Detectron/blob/master/MODEL_ZOO.md&/span&&span class=&ellipsis&&&/span&&/a&&/p&&p&另外,你们可能还想去RBG大神的FB帖子底下表达一波感谢(以及质问开源代码为何拖了这么久):&/p&&a href=&http://link.zhihu.com/?target=https%3A//www.facebook.com/ross.girshick/posts/45261& data-draft-node=&block& data-draft-type=&link-card& class=& external& target=&_blank& rel=&nofollow noreferrer&&&span class=&invisible&&https://www.&/span&&span class=&visible&&facebook.com/ross.girsh&/span&&span class=&invisible&&ick/posts/45261&/span&&span class=&ellipsis&&&/span&&/a&&p&Have fun~&/p&&p&— &b&完&/b& —&/p&&p&欢迎大家关注我们的专栏:&a href=&https://zhuanlan.zhihu.com/qbitai& class=&internal&&量子位 - 知乎专栏&/a&&/p&&p&诚挚招聘&/p&&p&量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。&/p&&p&&a href=&https://zhuanlan.zhihu.com/qbitai& class=&internal&&量子位 QbitAI&/a& · 头条号签约作者&/p&&p&?'?' ? 追踪AI技术和产品新动态&/p&
夏乙 编译整理 量子位 出品 | 公众号 QbitAI“”从Mask R-CNN论文亮相至今的10个月里,关于它的讨论几乎都会以这句话收尾。现在,官方版开源代码终于来了。同时发布的,是这项研究背后的一个基础平台:Detectron。Detectron是Facebook的物体检测…
&p&如今,网络上的Python机器学习资源纷繁复杂,使得刚入门的小白们眼花缭乱。究竟从哪里开始?如何进行?云栖君给你推荐以下内容,相信读完你就会有自己的答案。&/p&&p&“开始”,是一个令人激动的字眼。然而万事开头难,当你拥有过多的选择时,往往就会不知所措。&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-33d69c6c0b1e2b_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&500& data-rawheight=&266& class=&origin_image zh-lightbox-thumb& width=&500& data-original=&https://pic3.zhimg.com/50/v2-33d69c6c0b1e2b_r.jpg&&&/figure&&p&我们希望借助免费、便捷的在线资源,帮助你完成从小白到大牛的蜕变。这篇&a href=&//link.zhihu.com/?target=http%3A//click.aliyun.com/m/37382/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&《7步掌握Python机器学习》&/a&将会回答如何选择资源、如何拓展学习以及按怎样的顺序学习等一系列问题。&/p&&p&我们要开始了!首先假定你还不具备以下技能:&/p&&ul&&li&精通机器学习&/li&&li&熟练掌握Python&/li&&li&熟悉其他Python相关包&/li&&/ul&&p&使用Python的经验或许对后面的学习有帮助,但并不是必需的。在最初的几步多花些时间和功夫也可以弥补这些欠缺。&/p&&h2&第1步:Python基本技能&/h2&&p&如果我们希望用Python进行机器学习,对Python的基本理解是至关重要的。幸运的是,由于Python作为编程语言的普及和它在相关领域的广泛应用,找到入门教程并非难事。而从何处起步取决于你对Python的掌握程度。&/p&&p&首先,你需要下载Python。考虑到我们会利用Python进行科学计算和机器学习,我建议安装Anaconda。它是一个多平台开源的Python发行版本,其包含了conda、Python等180多个科学包及其依赖项,还包括我们许多教程的交互式环境iPython Notebook。&/p&&p&如果没有编程基础,我的建议是从下面的资料看起,然后再学习更多教程。&/p&&ul&&li&&a href=&//link.zhihu.com/?target=https%3A//learnpythonthehardway.org/book/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Python the hard way&/a&&/li&&/ul&&p&如果有其他编程语言基础,或刚接触Python,我会建议使用以下材料:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=https%3A//www.youtube.com/playlist%3Flist%3DPLfZeRfzhgQzTMgwFVezQbnpc1ck0I6CQl& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Google Developers Python Course&/a&&/li&&li&&a href=&//link.zhihu.com/?target=https%3A//engineering.ucsb.edu/%7Eshell/che210d/python.pdf& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&An Introduction to Python for Scientific Computing (from UCSB Engineering)&/a&&/li&&/ul&&p&对于希望能够快速上手的读者,我推荐:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=https%3A//learnxinyminutes.com/docs/python/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Learn X in Y Minutes (X = Python)&/a&&/li&&/ul&&p&当然,如果你是一个有经验的Python程序员,你可以跳过这一步。&/p&&p&&br&&/p&&h2&第2步:机器学习基础&/h2&&p&&br&&/p&&p&人们会觉得数据科学家有许多异于常人之处。这实际上是人们对机器学习领域的印象,因为数据科学家所做的大部分工作都不同程度的涉及到机器学习算法。是否有必要为了更高效地完成机器学习模型的建立而去深入其内核?当然不是。就像生活中任何事物一样,理论理解的程度和实际应用相关。但机器学习算法并不在本文讨论范围,通常这需要长期学术研究,亦或是锲而不舍的自学。&/p&&p&好消息是,你不需要对机器学习拥有博士一般的理解程度,换句话说,并不是所有的程序员都需要接受理论的计算机科学教育才能成为的编程人员。&/p&&p&吴恩达老师在Coursera上的课程经常得到好评。然而,我的建议是多浏览学生编写的课程笔记,并跳过Octave某些的注释。尽管这些不是“官方”的笔记,但仍然把握了吴恩达老师课程材料的核心内容。如果你有时间和兴趣的话,现在可以在Coursera上选择&a href=&//link.zhihu.com/?target=https%3A//www.coursera.org/learn/machine-learning& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&吴恩达老师的机器学习课程&/a&了(网易云课堂也发布了吴老师的中文版课程)。 &/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//www.holehouse.org/mlclass/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&非官方的课程笔记&/a&&/li&&/ul&&p&除了上述吴恩达老师的课程,其中还包含各种各样的视频讲座。&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//www.cs.cmu.edu/%7Eninamf/courses/601sp15/lectures.shtml& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Tom Mitchell的机器学习讲座&/a&&/li&&/ul&&p&浏览到这里,你并不需要查看所有的笔记和视频。一个更为高效的方案是,完成下面特定的练习,并辅以相关的视频和笔记。例如,当你在练习回归模型建立时,阅读吴恩达老师和Mitchell的相关资料即可。&/p&&h2&第3步:Python基础包概览&/h2&&p&当我们掌握Python并对机器学习有一定概念后,我们还要了解一些机器学习常用的开源库: &/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//www.numpy.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Numpy&/a&-主要提供矩阵运算的功能。 &/li&&li&&a href=&//link.zhihu.com/?target=http%3A//pandas.pydata.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Pandas&/a&-提供了高效地操作大型数据集所需的工具。 &/li&&li&&a href=&//link.zhihu.com/?target=http%3A//matplotlib.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Matplotlib&/a&-一个 Python 的 2D绘图库,它以各种硬拷贝格式和跨平台的交互式环境生成出版质量级别的图形。 &/li&&li&&a href=&//link.zhihu.com/?target=http%3A//scikit-learn.org/stable/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Scikit-learn&/a&-用于数据分析和数据挖掘任务的机器学习算法。 &/li&&/ul&&p&相关学习教程如下:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//www.scipy-lectures.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Scipy Lecture Notes&/a& &/li&&li&&a href=&//link.zhihu.com/?target=http%3A//pandas.pydata.org/pandas-docs/stable/10min.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&10 Minutes to Pandas&/a& &/li&&/ul&&p&下面的教程中将会提到其他一些软件包,其中包括Seaborn(一个基于Matplotlib的数据可视化库)。前面提到的包是Python机器学习任务的核心; 然而,我希望你理解它们以适应相关的包,而不会在以下教程中引用它们时引起混淆。&/p&&h2&第4步:用Python开始机器学习&/h2&&ul&&li&Python
√&br&&/li&&li&机器学习基础
√ &/li&&li&Numpy
√&br&&/li&&li&Pandas
√&br&&/li&&li&Matplotlib
√&br&&/li&&/ul&&p&时机成熟,让我们用Python的标准机器学习库Scikit-learn来实现机器学习算法吧&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-41a423aa1df08_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&600& data-rawheight=&240& class=&origin_image zh-lightbox-thumb& width=&600& data-original=&https://pic4.zhimg.com/50/v2-41a423aa1df08_r.jpg&&&/figure&&p&&br&&/p&&p&下面的许多教程和练习将由iPython Notebook驱动,这是一个用于执行Python的交互式环境。这些iPython Notebook可以选择在线查看或下载,并在本地计算机上进行交互。&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//cs231n.github.io/ipython-tutorial/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&来自斯坦福的 iPython笔记本概述&/a& &/li&&/ul&&p&我们的第一个教程,是进行Scikit的学习。我建议在进行以下步骤之前先完成所有这些工作。&/p&&p&scikit-learn的一般介绍,涵盖了K-均值聚类算法: &/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//nbviewer.ipython.org/github/donnemartin/data-science-ipython-notebooks/blob/master/scikit-learn/scikit-learn-intro.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&An Introduction to scikit-learn&/a& &/li&&/ul&&p&一个更深入、更广泛的介绍,包括一个数据集的入门项目:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//nbviewer.ipython.org/github/rhiever/Data-Analysis-and-Machine-Learning-Projects/blob/master/example-data-science-notebook/Example%2520Machine%2520Learning%2520Notebook.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Example Machine Learning Notebook&/a& &/li&&/ul&&p&一个侧重于评估scikit-learn中不同模型的介绍,涵盖训练/测试数据集拆分:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=https%3A//github.com/justmarkham/scikit-learn-videos/blob/master/05_model_evaluation.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Model Evaluation&/a& &/li&&/ul&&h2&第5步:开始主题化的机器学习&/h2&&p&&br&&/p&&p&在Scikit-learn的基础上,我们可以进一步深入探索各种常见的、有用的算法。我们从K-means聚类开始,这是最着名的机器学习算法之一,是解决无监督学习问题的一种简单且有效的方法: &/p&&ul&&li&&a href=&//link.zhihu.com/?target=https%3A//github.com/jakevdp/sklearn_pycon2015/blob/master/notebooks/04.2-Clustering-KMeans.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&K-means Clustering&/a& &/li&&/ul&&p&接下来,我们回到分类,并看看历史上最受欢迎的分类方法之一:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//thegrimmscientist.com//tutorial-decision-trees/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Decision Trees via The Grimm Scientist&/a& &/li&&/ul&&p&从分类,我们看看连续的数字预测:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//nbviewer.ipython.org/github/donnemartin/data-science-ipython-notebooks/blob/master/scikit-learn/scikit-learn-linear-reg.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Linear Regression&/a& &/li&&/ul&&p&然后我们可以利用回归分类问题,通过逻辑回归:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//nbviewer.ipython.org/github/justmarkham/gadsdc1/blob/master/logistic_assignment/kevin_logistic_sklearn.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Logistic Regression&/a&&/li&&/ul&&h2&第6步:用Python完成机器学习进阶&/h2&&p&我们已经习惯了Scikit-learn,现在我们把注意力转向一些更高级的话题。首先是支持向量机,一种与相关的学习算法有关的监督学习模型,可以分析数据、识别模式,用于分类和回归分析。 &/p&&ul&&li&&a href=&//link.zhihu.com/?target=https%3A//github.com/jakevdp/sklearn_pycon2015/blob/master/notebooks/03.1-Classification-SVMs.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Support Vector Machines&/a& &/li&&/ul&&p&接下来,通过Kaggle比赛来检验随机森林:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//nbviewer.ipython.org/github/donnemartin/data-science-ipython-notebooks/blob/master/kaggle/titanic.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Kaggle Titanic Competition (with Random Forests)&/a& &/li&&/ul&&p&降维是一种减少问题考虑的变量数量的方法。主成分分析是无监督降维的一种特殊形式:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=https%3A//github.com/jakevdp/sklearn_pycon2015/blob/master/notebooks/04.1-Dimensionality-PCA.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Dimensionality Reduction&/a& &/li&&/ul&&p&&br&&/p&&p&在进入最后一步之前,我们回过头看看,我们在较短的时间内完成了许多充满意义的任务。&/p&&p&使用Python及其机器学习库,我们已经介绍了一些常见和知名的机器学习算法(K-均值聚类算法、K-means聚类、支持向量机),学习了强大的技术,检查了一些机器学习支撑任务(降维,模型验证技术)。除了一些基本的机器学习技巧外,我们也开始为自己扩充一个有用的工具包。&/p&&p&在完成之前,我们将再添加一个按需使用的工具。&/p&&h2&第7步:Python深度学习&/h2&&p&&br&&/p&&b&&figure&&img src=&https://pic4.zhimg.com/50/v2-e3f57cfdb2f9c34829b38_b.jpg& data-caption=&& data-size=&normal& data-rawwidth=&490& data-rawheight=&294& class=&origin_image zh-lightbox-thumb& width=&490& data-original=&https://pic4.zhimg.com/50/v2-e3f57cfdb2f9c34829b38_r.jpg&&&/figure&&/b&&p&&br&&/p&&p&&br&&/p&&p&深度学习无处不在。它建立在神经网络研究的基础上,可以追溯到几十年前,但是最近几年来的进步已经显著提高了深度神经网络的感知能力。如果您不熟悉深度学习,这儿有一些文章可供学习。最后一步并不意味着任何机器学习方面的权威。我们将从两个领先的Python深度学习库学习简单网络的实现。对于那些有兴趣深入深度学习的人,我建议从下面的教程开始:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//neuralnetworksanddeeplearning.com/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Neural Networks and Deep Learning&/a&&/li&&/ul&&h2&&a href=&//link.zhihu.com/?target=http%3A//deeplearning.net/software/theano/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Theano&/a&&/h2&&p&Theano是我们将要看到的第一个Python深度学习库。以下的Theano深度学习教程是冗长的,但它非常的经典、具体,被各方高度评价:&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//nbviewer.ipython.org/github/craffel/theano-tutorial/blob/master/Theano%2520Tutorial.ipynb& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Theano Deep Learning Tutorial&/a&&/li&&/ul&&h2&&a href=&//link.zhihu.com/?target=http%3A//caffe.berkeleyvision.org/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Caffe&/a&&/h2&&p&Caffe是我们学习的另一种库。这篇教程是整个文章最璀璨的明珠,尽管我们已经实现了一些有趣的案例,但仍没有一个可以与用Caffe实现谷歌的DeepDream相匹敌。好好享受吧!掌握教程内容后,就可以让你的处理器拥有属于你的思维了!&/p&&ul&&li&&a href=&//link.zhihu.com/?target=http%3A//googleresearch.blogspot.ch/2015/06/inceptionism-going-deeper-into-neural.html& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&Dreaming Deep with Caffe via Google's GitHub&/a&&/li&&/ul&&p&我并不能保证上述这些会很快或很容易实现,但如果你花精力按照上面的7个步骤,相信你可以理解机器学习算法并熟练使用Python完成这一工作,兴许还能参与最前沿的深度学习研究中。&/p&&p&&a href=&//link.zhihu.com/?target=http%3A//click.aliyun.com/m/37382/& class=& wrap external& target=&_blank& rel=&nofollow noreferrer&&原文&/a&&/p&&p&&b&更多技术干货敬请关注云栖社区知乎机构号:&a href=&https://www.zhihu.com/org/a-li-yun-yun-qi-she-qu-48& class=&internal&&阿里云云栖社区 - 知乎&/a&&/b&&/p&&p&&/p&
如今,网络上的Python机器学习资源纷繁复杂,使得刚入门的小白们眼花缭乱。究竟从哪里开始?如何进行?云栖君给你推荐以下内容,相信读完你就会有自己的答案。“开始”,是一个令人激动的字眼。然而万事开头难,当你拥有过多的选择时,往往就会不知所措。我…
&p&这一年多的时间里,闪存价格涨了一倍,内存价格涨了1倍多,iPhone里采购成本最高的零部件已经不再是屏幕和CPU了,是闪存。&/p&&p&而intel只是超三星40%,三星把芯片涨一倍,稳超intel了,有什么奇怪么&/p&&p&问题是,为什么三星可以这么肆无忌惮的涨价,intel也有存储业务,镁光也有,东芝也有,为什么只有三星这么嚣张?想过没?&/p&&p&因为三星是大玩家-制定规则的玩家,迅雷、当当涨100%,道指纹丝不动,能够影响道指的只有谷歌微软苹果为代表的权重股,对于闪存这个股市来说,三星就是最大的权重股,你见过超过50%权重的权重股吗,还没算上三星盟友海力士,腾讯这么牛逼,在港股也才12%的市值占比,早在多年前,三星就熟谙这个规则并加以利用,尔必达咋死的,三星联合海力士把价格拉到最低亏钱也要搞死对手,三星有手机业务供血啊,尔必达没有,于是尔必达挂了,东芝镁光业务也收缩了,MLC时代其他厂家还能搞合纵连横抗一抗,到TLC时代其他人早无反手之力,无论是面板还是存储,三星一直这么干,郭台铭联日打狼不是没道理的,面板的狼是谁?就是三星啊,三星对策是什么,联合大陆面板把价格拉到最低,于是JDI和夏普哭了,三星自己则搞oled,iPhone x最肥的那块肉谁吃的,三星啊,反正lcd大陆水准也上来了,你们斗你们的关我屁事。三星比其他厂商早一两年进入TLC,并且&i&无比准确&/i&的预料到机械硬盘GG,把旗下机械硬盘甩卖,果断投入TLC,对,MLC对TLC初期确实优势大,写入牛逼,不掉速,结果呢,血淋淋的例子,大家都在止步不前洋洋得意的时候,TLC把其他玩家都弄死弄残了,固态硬盘初期的痛点并不是掉速,也不是极限场景下写入慢,而是容量,无论是电脑还是智能手机对容量需求实在太大了,MLC在TLC面前被吊打了,随着技术发展,大家发现,TLC和MLC技术指标已经很接近了,但是已经晚了,三星投了几百亿美元的晶圆厂开足马力,大者通吃。&/p&&p&TLC已经不再可能有厂商超过了三星了,除非大陆收购东芝或者镁光,只能等到大陆存储自己发展起来拉低价格。三星单片512GB早就不是新闻了,去年前年就有,不过封装面积比这大,只能做相机存储卡,现在弄成新闻,无非就是告诉业界,我又多加了几层,也是告诉其他厂商,你们如果做512皇帝版手机,还是得从我这里买。什么,货比三家?对不起,别家没这种货。&/p&&p&这种新闻算不上什么大新闻,真正的大新闻应该是三星宣布QLC良品率合格、试生产、正式投产,晓得不,知道西数希捷为啥这么着急了吧,要么拥抱ssd,要么等死。&/p&&p&我给投资的画个重点&/p&&p&京东方会继续涨,lcd稳了,oled也稳了,oled这就不是和日台抢饭的,这是和大哥抢饭啊,我3块八买进的,长线。深天马也可以上。&/p&&p&紫光国芯等新闻出来了再买,新闻一般是“投产”什么的,那么可以动手了,现在买也行,做长线稳,去年年中建仓五万&/p&&p&中芯国际,你们已经买晚了,现在也来得及,50万起步不差钱上,为什么,台积电市值已经13000亿了,中芯才500,5g还有一大波福利,很稳。&/p&
这一年多的时间里,闪存价格涨了一倍,内存价格涨了1倍多,iPhone里采购成本最高的零部件已经不再是屏幕和CPU了,是闪存。而intel只是超三星40%,三星把芯片涨一倍,稳超intel了,有什么奇怪么问题是,为什么三星可以这么肆无忌惮的涨价,intel也有存储业务…
&p&推荐一些文学类的,主要是中国古典文学:&/p&&p&1、岳麓书社“中国古典小说普及文库”系列:&/p&&p&冯梦龙《警世通言》&/p&&p&冯梦龙《醒世恒言》&/p&&p&冯梦龙《喻世明言》&/p&&p&凌濛初《初刻拍案惊奇》&/p&&p&凌濛初《二刻拍案惊奇》&/p&&p&蒲松龄《聊斋志异》&/p&&p&鲁迅 编《唐宋传奇》&/p&&p&封面大致都长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-6c697e3cbdc28cb70dad29_b.jpg& data-caption=&& data-rawwidth=&800& data-rawheight=&800& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic3.zhimg.com/50/v2-6c697e3cbdc28cb70dad29_r.jpg&&&/figure&&p&优点:平装,我个人比较喜欢平装书,方便;便宜,均价十块钱一本,岳麓书社基本是在扶贫了;无乱七八糟注释,纯脱水版,三言二拍这类的书本来也不需要注释,我说的是其他一些半文言的作品,不是什么野鸡注释,都是鲁迅这样有名气的大家做的整校工作,质量有保障;排版舒服,护眼。&/p&&p&这个系列还有很多古典小说,明清小说做的比较好,买明清小说时可以考虑这个系列。&/p&&p&(PS:这一版是足本,无删节。三言的出版说明没说,但二拍有注明:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-fb7f7479266beeb4afee5_b.jpg& data-caption=&& data-rawwidth=&576& data-rawheight=&140& class=&origin_image zh-lightbox-thumb& width=&576& data-original=&https://pic1.zhimg.com/50/v2-fb7f7479266beeb4afee5_r.jpg&&&/figure&&p&三言的出版说明只说了是根据上海古籍社的影印本校点的,既然根据影印本校点应该也是没有删节的。&/p&&p&据我印象中的阅读体验来看,应该也是没有删节的……OvO)&/p&&p&2,上海古籍出版社,中国古典小说名著丛书系列:&/p&&p&四大名著&/p&&p&袁枚《子不语》&/p&&p&李汝珍《镜花缘》&/p&&p&吴敬梓《儒林外史》&/p&&p&冯梦龙《情史》(情史好像不是这个系列的,是平装,懒得单列了,总之上古的情史很良心,和字典一样厚,和意林一样便宜)&/p&&p&大致长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-39c197b3bd4f7b6acc1bf543e8fa3846_b.jpg& data-caption=&& data-rawwidth=&800& data-rawheight=&800& class=&origin_image zh-lightbox-thumb& width=&800& data-original=&https://pic4.zhimg.com/50/v2-39c197b3bd4f7b6acc1bf543e8fa3846_r.jpg&&&/figure&&p&优点:精装,大多数人好像更喜欢精装一些,这个是硬装的,价格高上面那个系列高不了多少,均价二十左右,也是纯原著,其实和上面那个系列差不多,为啥特意推荐这一个,因为我买的是这个系列的。。。&/p&&p&3,中华书局,全本全注全译丛书系列:&/p&&p&纪昀《阅微草堂笔记》(上中下)&/p&&p&这个系列大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-0e11dce3ff3d77c87e7afc_b.jpg& data-caption=&& data-rawwidth=&870& data-rawheight=&524& class=&origin_image zh-lightbox-thumb& width=&870& data-original=&https://pic2.zhimg.com/50/v2-0e11dce3ff3d77c87e7afc_r.jpg&&&/figure&&p&这套书比较贵,是精装,封面设计一言难尽,放在这儿不是推荐,是排个雷,现在很多人都会买中国古典名著读,但是古籍方面的出版丛书很多,也有很多人随便选一选就算了,其实各个丛书还是有讲究的……&/p&&p&像三言二拍那些,不需要什么注解,选个装帧设计就差不多了,而像聊斋、牡丹亭这些,是文言写成的,对于普通读者来说有一定阅读难度,就不能随便选个版本,这其中差别还是挺大。&/p&&p&阅微草堂笔记是文言写成的,但是难度不大,如果要囤书又喜欢精装的话,买中华书局这一套其实就不错了,但是这一套书也就仅限于买这一套了,其他的还是慎重。中华书局给这套书的定位是面向普通大众,所以给这一套书做注解的都不是出于学术角度做的,而是比较通俗,翻译也比较简单,换句话说有漏洞的地方也不少,翻译质量算不上多高,偏偏它这一套书还是偏重周礼、楚辞这样一类阅读难度比较大的书籍,所以建议还是不要买这一版了。年少无知时买过它的《抱朴子》,不是很理想。&/p&&p&4、《山海经》&/p&&p&袁珂,北京联合出版公司,后浪出的,长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-ccbfb8f8e0f79bc58dfa56d5f95bcb82_b.jpg& data-caption=&& data-rawwidth=&477& data-rawheight=&578& class=&origin_image zh-lightbox-thumb& width=&477& data-original=&https://pic2.zhimg.com/50/v2-ccbfb8f8e0f79bc58dfa56d5f95bcb82_r.jpg&&&/figure&&p&山海经的首选当然是中国神话学第一人袁珂的译本!袁珂的应该是最通行的版本了吧?封面设计很好,一贯的后浪风格。&/p&&p&《古本山海经图说》,马昌仪,广西师范大学出版社,长这样——&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-aacf3b469c6a64f5b0bb6ecec65c501b_b.jpg& data-caption=&& data-rawwidth=&575& data-rawheight=&611& class=&origin_image zh-lightbox-thumb& width=&575& data-original=&https://pic1.zhimg.com/50/v2-aacf3b469c6a64f5b0bb6ecec65c501b_r.jpg&&&/figure&&p&这一版注解的也相当好,两本,上下两册,稍贵。&/p&&p&《山海经》,东晋郭璞注,沈海波点校,上海古籍出版社,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-dfdbb8766b4b_b.jpg& data-caption=&& data-rawwidth=&509& data-rawheight=&610& class=&origin_image zh-lightbox-thumb& width=&509& data-original=&https://pic4.zhimg.com/50/v2-dfdbb8766b4b_r.jpg&&&/figure&&p&这一本看着很有质感吧,古香古色的,个人觉得是封面设计最出彩的一版。郭璞是东晋一个写游仙诗的,他的山海经注历史上比较有名,还是很有看头,沈海波的校释也挺好,他有一本关于山海经的专著也挺有意思,如果对山海经有兴趣可以深入了解一下,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-d9e177df76d36f87280c_b.jpg& data-caption=&& data-rawwidth=&423& data-rawheight=&555& class=&origin_image zh-lightbox-thumb& width=&423& data-original=&https://pic2.zhimg.com/50/v2-d9e177df76d36f87280c_r.jpg&&&/figure&&p&(沈海波一家真是……父亲沈剑英搞佛教哲学的,母亲朱碧莲解的世说新语很有名,女儿沈海燕也是搞哲学方向,沈海波在世说新语、山海经和佛教方面都有研究,本来不知道这一层关系,还是在上海古籍出的那版超大世说新语里的前言里才发现他们是一家子= =)&/p&&p&《图解山海经》,徐客,江西科学技术出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-58e75103ada49786b1ccd4e_b.jpg& data-caption=&& data-rawwidth=&540& data-rawheight=&616& class=&origin_image zh-lightbox-thumb& width=&540& data-original=&https://pic2.zhimg.com/50/v2-58e75103ada49786b1ccd4e_r.jpg&&&/figure&&p&不要吐槽它暴发户式的封面设计!!!!&/p&&p&本来也是抱着集邮的心态买回来的,以为就路边摊那种猎奇风格,没想到内容很翔实啊!作者绝对是个强迫症,把里面的内容都分门别类整理好了,而且是比较考究的去解释某某怪物大概是长什么样,像现在的什么什么动物……反正内容就是十分的丰富,老少皆宜,真的!&/p&&p&5,刘义庆《世说新语》&/p&&p&《世说新语笺疏》,余嘉锡,中华书局,大概长这样——&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-5cd001a5a62ff25dfab0d6_b.jpg& data-caption=&& data-rawwidth=&517& data-rawheight=&605& class=&origin_image zh-lightbox-thumb& width=&517& data-original=&https://pic1.zhimg.com/50/v2-5cd001a5a62ff25dfab0d6_r.jpg&&&/figure&&p&也有棕黄色的,也是中华书局的,看起来很有味道。余嘉锡应该是公认的世说笺疏第一人吧?如果要看得比较深,偏学术的话,建议读这一版的,此外还有一版。&/p&&p&《世说新语校笺》,杨勇,中华书局,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-c4b8197c0dcb9c061cb6490_b.jpg& data-caption=&& data-rawwidth=&426& data-rawheight=&525& class=&origin_image zh-lightbox-thumb& width=&426& data-original=&https://pic3.zhimg.com/50/v2-c4b8197c0dcb9c061cb6490_r.jpg&&&/figure&&p&这一版也是比较早的了,六几年写的,也是很好的一版,不过现在应该比较难找了,当当和亚马逊畅销的还是余嘉锡先生的版本,如果对世说新语有狂热爱好可以收藏这一版。&/p&&p&这两个版本都是偏重学术一些,如果普通读者想读的话推荐下面两版:&/p&&p&《世说新语译注》,张为之,上海古籍出版社,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-0a276a4a15c4d5fc7ed52eb_b.jpg& data-caption=&& data-rawwidth=&485& data-rawheight=&615& class=&origin_image zh-lightbox-thumb& width=&485& data-original=&https://pic4.zhimg.com/50/v2-0a276a4a15c4d5fc7ed52eb_r.jpg&&&/figure&&p&说它面向大众并不否定张为之的水平啊,这一版也是相当好的,比较简洁,可以买来读读看。&/p&&p&《世说新语全解》,朱碧莲、沈海波,上海古籍出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-34fa9ab83fcfe_b.jpg& data-caption=&& data-rawwidth=&351& data-rawheight=&400& class=&content_image& width=&351&&&/figure&&p&哈哈封面设计有槽点,但朱碧莲的译解也是很有亮点的,比较通俗,受众面广,要买给学生看这一版是很适合的。&/p&&p&=========================================================&/p&&p&其它一些个人觉得比较好看的书:&/p&&p&1、沈从文&/p&&p&《古人的文化》,中华书局,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-2cce3bf457ad6ad3cf5cfaa551f042c8_b.jpg& data-caption=&& data-rawwidth=&538& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&538& data-original=&https://pic3.zhimg.com/50/v2-2cce3bf457ad6ad3cf5cfaa551f042c8_r.jpg&&&/figure&&p&很有趣的一本书,沈从文搞学术也是相当厉害的!&/p&&p&《中国服饰研究》,商务印书馆,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-b71b4e824d95e106b8d24c_b.jpg& data-caption=&& data-rawwidth=&555& data-rawheight=&621& class=&origin_image zh-lightbox-thumb& width=&555& data-original=&https://pic3.zhimg.com/50/v2-b71b4e824d95e106b8d24c_r.jpg&&&/figure&&p&沈从文真的是奇人,封笔后搞研究,照样能搞出花样,这本书就是最好的例证。&/p&&p&《从文自传》,江苏人民出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-c5b83f3abcf13bf6fde685_b.jpg& data-caption=&& data-rawwidth=&455& data-rawheight=&576& class=&origin_image zh-lightbox-thumb& width=&455& data-original=&https://pic2.zhimg.com/50/v2-c5b83f3abcf13bf6fde685_r.jpg&&&/figure&&p&三十岁写自传~&/p&&p&《湘行散记》,江苏人民出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-647f8db4f9a2bf66d2edda_b.jpg& data-caption=&& data-rawwidth=&513& data-rawheight=&596& class=&origin_image zh-lightbox-thumb& width=&513& data-original=&https://pic2.zhimg.com/50/v2-647f8db4f9a2bf66d2edda_r.jpg&&&/figure&&p&记载了一些他和张兆和的书信来往,他俩的事已经是网络营销热点了,就不赘述了,反正挺好看的,也算挺动人的吧。&/p&&p&还有一些《边城》《长河》《萧萧》,都是大家已经翻烂了的,就不多说。沈从文真的是一名非常出色的作家,比起他的长篇小说,其实他的短篇我个人觉得写得更好,但无奈沈从文和张兆和简直是第二个徐志摩林徽因,已经传烂了,这种热度直接导致沈从文的逼格蹭蹭下降,好像很多人一看到别人谈沈从文就觉得对方是跟风狗,其实真的不是啊~搞得我现在看到那句我走过许多路看过许多xx就烦,哎。希望大家离作家的作品近一点,离他的生活远一点。。&/p&&p&2、汪曾祺&/p&&p&嗯……又是一个说起来一点都不小众的作家,可是他真的很好……&/p&&p&《人间滋味》,天津人民出版社,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-33a0d6efd3076b9efb257cd_b.jpg& data-caption=&& data-rawwidth=&555& data-rawheight=&598& class=&origin_image zh-lightbox-thumb& width=&555& data-original=&https://pic4.zhimg.com/50/v2-33a0d6efd3076b9efb257cd_r.jpg&&&/figure&&p&汪曾祺谈吃!可以说是S级中的S级了~汪曾祺的散文相当好,最有意思的是他回忆联大时期的生活,回忆和当时文人们的一些交往趣事,他真的可以说是中国最后一位士大夫,从文字里完全可以体会到他那种独特的充满智慧的生活方式,很可爱的小老头,哈哈哈~类似的还有《人间草木》《人间有戏》《宋朝人的吃喝》等等~&/p&&p&不过我要说的不是这些耳熟能详的汪曾祺,而是年轻时的汪曾祺:&/p&&p&《复仇》,人民文学出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-a3a2a7716c_b.jpg& data-caption=&& data-rawwidth=&525& data-rawheight=&594& class=&origin_image zh-lightbox-thumb& width=&525& data-original=&https://pic2.zhimg.com/50/v2-a3a2a7716c_r.jpg&&&/figure&&p&《复仇》是汪曾祺年轻时写的一部小说,大概是最不汪曾祺的一部,很明显能感受到他受西方意识流的影响很重,行文比较跳跃,笔锋有些冷酷,和印象中的汪曾祺截然不同,小说内容和构思都很有意思,相当精彩的一部小说,这本书收入的不止《复活》,还有一些其他的短篇,可以非常明显的感受到汪曾祺写作风格的变化,《复活》很显然是他前期对小说创作手法的一个摸索过程的结晶,即便如此,水准还是相当高。&/p&&p&这本书的最大魅力在于,让普通读者见证一个作者的蜕变,尤其是大家印象中那个和善的,仿佛云淡风轻的有点爱说冷笑话的小老头,年轻时竟然也是如此……激进的一个人?相当有意思了。看了这部小说,大概就能明白为什么汪曾祺是沈从文的学生了,他俩看着好像有很大不同,其实性格中的某一面简直如出一辙,只不过汪曾祺后期隐藏,或者说看淡了不少而已~&/p&&p&3、《中国神话史》,袁珂,后浪出版社,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-c594b2d54803fac5aef3bdfc9cd2ac3a_b.jpg& data-caption=&& data-rawwidth=&479& data-rawheight=&567& class=&origin_image zh-lightbox-thumb& width=&479& data-original=&https://pic4.zhimg.com/50/v2-c594b2d54803fac5aef3bdfc9cd2ac3a_r.jpg&&&/figure&&p&袁珂是中国神话学第一人,这样说没什么异议吧,这本书是国内神话史开山之作,也是国内神话学的一个起点,袁珂先生的功力还是很深厚的,也很适合大众阅读。&/p&&p&如果对中国古代神话感兴趣,还有这一套书可以收藏:&/p&&p&《中国神话》(上中下),陶阳/钟秀,商务印书馆,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-b7fcebca88def_b.jpg& data-caption=&& data-rawwidth=&546& data-rawheight=&607& class=&origin_image zh-lightbox-thumb& width=&546& data-original=&https://pic4.zhimg.com/50/v2-b7fcebca88def_r.jpg&&&/figure&&p&这套书是真·适合收藏,有点像工具书,就是单纯记载各地各民族的神话,比较适合做神话研究时翻资料用,普通读者也很适合看,语言比较白,文采一般,比较蛋疼的是这个设计,纸张太白了,每次看都觉得要被闪瞎狗眼。。&/p&&p&《说魂儿》,栾保群,江苏凤凰文艺出版社,大概长这样——&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-09c5a0fd0c65da24597a5_b.jpg& data-caption=&& data-rawwidth=&503& data-rawheight=&611& class=&origin_image zh-lightbox-thumb& width=&503& data-original=&https://pic1.zhimg.com/50/v2-09c5a0fd0c65da24597a5_r.jpg&&&/figure&&p&讲阴间百科的!超级6!一定要买来看,相当有意思!!&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-f25f4ae35f30f3df318c8ef_b.jpg& data-caption=&& data-rawwidth=&565& data-rawheight=&618& class=&origin_image zh-lightbox-thumb& width=&565& data-original=&https://pic3.zhimg.com/50/v2-f25f4ae35f30f3df318c8ef_r.jpg&&&/figure&&p&这一版比较便宜,封面也没那么骚~&/p&&p&4、一些历史书&/p&&p&《东晋门阀政治》,田余庆,北大出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-fe2e602ebd2c_b.jpg& data-caption=&& data-rawwidth=&512& data-rawheight=&621& class=&origin_image zh-lightbox-thumb& width=&512& data-original=&https://pic2.zhimg.com/50/v2-fe2e602ebd2c_r.jpg&&&/figure&&p&这本书真的是,搞历史不看这本书可以说不是人了,非常非常厉害的一本书,不过比较学术,慎入,如果真是收藏用的话,你的历史类书架上没有这本书会显得相当不专业!&/p&&p&《魏晋玄学论稿》,汤用彤,三联书店,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-e209fc58180bfae1f23ea4fb0e822508_b.jpg& data-caption=&& data-rawwidth=&551& data-rawheight=&615& class=&origin_image zh-lightbox-thumb& width=&551& data-original=&https://pic2.zhimg.com/50/v2-e209fc58180bfae1f23ea4fb0e822508_r.jpg&&&/figure&&p&也是相当牛的书,非常学术,个人觉得比上面一本还要难啃,不是说水准高低,而是这本它是讲玄学的。。。很思辨,本身就很难读懂,如果对魏晋玄学感兴趣的话,此书非读不可,书架上没有它也是很不专业的。&/p&&p&像《万历十五年》《菊与刀》之类的畅销书就不说了~没看过的话还是可以买来一看的~前者的大历史观还是挺厉害,后者虽然有些过时,充满槽点,但是毕竟也是引起了一时轰动的书,看看也应该~&/p&&p&《叫魂》,孔飞力,三联书店,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-a77ea4ca90aa044df116aefff75202ef_b.jpg& data-caption=&& data-rawwidth=&474& data-rawheight=&562& class=&origin_image zh-lightbox-thumb& width=&474& data-original=&https://pic4.zhimg.com/50/v2-a77ea4ca90aa044df116aefff75202ef_r.jpg&&&/figure&&p&恩这本书也是广为人知的一本了,美国人写的,老美的视角真的很不一样,搞研究的角度也很独特,方法挺新奇,好书一本,该买!&/p&&p&《魏晋南北朝史讲演录》,陈寅恪ke,贵州人民出版社,大概长这样——&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-8d60b0e105b6b6d164fb_b.jpg& data-caption=&& data-rawwidth=&546& data-rawheight=&598& class=&origin_image zh-lightbox-thumb& width=&546& data-original=&https://pic1.zhimg.com/50/v2-8d60b0e105b6b6d164fb_r.jpg&&&/figure&&p&虽然不明白贵乎为啥日常踩陈寅恪,但这本书还是很好看的,也不晦涩,对六朝感兴趣是完全可以看这本书入门的~如果要系统的,深入的了解这段历史,推荐下面这本:&/p&&p&《两晋南北朝史》,吕思勉,上海古籍出版社,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-d875b2ff5a808b0e52221_b.jpg& data-caption=&& data-rawwidth=&553& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&553& data-original=&https://pic4.zhimg.com/50/v2-d875b2ff5a808b0e52221_r.jpg&&&/figure&&p&这本书读起来太痛苦了,我一度认为这辈子都读不完……(是的现在依然没有),吕思勉先生的风格就是不断给你堆材料,堆证据,堆到你眼花缭乱,无话可说,很严谨的风格,含金量相当高,适合有一定历史学基础的人看,普通读者不要轻易尝试……不过如果要收藏的话是可以买来收藏的,沾光……&/p&&p&吕思勉还有一本:&/p&&p&《国学知识大全》,吕思勉,民主与建设出版社,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-da8cf1ec353f_b.jpg& data-caption=&& data-rawwidth=&545& data-rawheight=&601& class=&origin_image zh-lightbox-thumb& width=&545& data-original=&https://pic4.zhimg.com/50/v2-da8cf1ec353f_r.jpg&&&/figure&&p&这个是正儿八经的国学,不是那什么乱七八糟的玩意儿。豆瓣上有人说这本书适合入门,emmmmm反正我是觉得吕思勉的书就没有适合入门的,这本全是干货,要做好一定的心理准备看,什么入门,真的一点基础都没有的人去看简直就是劝退好嘛!不是说它的内容有多艰深,相反,内容其实都很基础,比如讲先秦诸子百家,讲的都是最基础的一些知识,但是吕思勉的风格嘛,直接拿原始材料给你怼一脸,那一长串的上古文言文,一长串的各种思想,对这个没基础的不感兴趣的,大概看几页就要永久压箱底了~&/p&&p&5、一些文学书:&/p&&p&刘勰《文心雕龙》:&/p&&p&(请看答主一句话简介)&/p&&p&《文心雕龙》这本书和前面说的东晋门阀政治有点像,如果真的要读中国文学的话,书架上没有这本书非常不!专!业!不过鉴于这本书本身阅读难度就比较大,是骈文写成的,一句话八个典故那种,还是适合有一定文学基础的人去读啦~介绍几个版本的:&/p&&p&《文心雕龙注》,范文澜注,人民文学出版社,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-89a47c13de79cc1a920e92_b.jpg& data-caption=&& data-rawwidth=&550& data-rawheight=&616& class=&origin_image zh-lightbox-thumb& width=&550& data-original=&https://pic3.zhimg.com/50/v2-89a47c13de79cc1a920e92_r.jpg&&&/figure&&p&竖排繁体,适合专业人士阅读。范文澜的注是龙学最为经典的文献没有之一,要想真正读进去文心雕龙,必须得看这版。(我们老师说,就算你看不懂,摆在书架上也好看,苦笑.JPG)&/p&&p&《文心雕龙今译》,周振甫,中华书局,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-585c55cb40e7bbc145467_b.jpg& data-caption=&& data-rawwidth=&547& data-rawheight=&620& class=&origin_image zh-lightbox-thumb& width=&547& data-original=&https://pic3.zhimg.com/50/v2-585c55cb40e7bbc145467_r.jpg&&&/figure&&p&这本应该是最畅销的一版……吧?毕竟周振甫的名头在那儿。怎么说呢,周振甫先生学力确实很深厚,但他的译文实在太蛋疼了,还不如不读,我第一次读文心雕龙就是读这一版,读到怀疑人生,我在想到底是我读不懂现代汉语了还是周老先生独创语言了。不过这一版的亮点大概就是周振甫的一些分析吧,还是有些看头的,比较适中的一本书,如果想对文心雕龙有一定了解的话,可以买这一版读读~印象中好像是繁体?简体?忘了,反正不是竖排就减少很多阅读难度了~&/p&&p&《文心雕龙》,王志彬译注,中华书局,大概长这样——&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-b8f80d2d4e2ecde61b99b0b_b.jpg& data-caption=&& data-rawwidth=&552& data-rawheight=&612& class=&origin_image zh-lightbox-thumb& width=&552& data-original=&https://pic4.zhimg.com/50/v2-b8f80d2d4e2ecde61b99b0b_r.jpg&&&/figure&&p&恩没错就是前面狠狠吐槽过的那一套中华书局的丛书。这一版最适合大众阅读,只有简简单单的翻译和注解,翻译的语句也很通俗,轻松就能读懂,也没有瞎翻译,王志彬先生还是有一定水准的,这一版最面向大众~&/p&&p&(可是看龙学真的是相当不快乐的一件事,痛苦)&/p&&p&其他一些可读性强的书~&/p&&p&《一百个人的十年》,冯骥才,文化艺术出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-ed217d8cdd3_b.jpg& data-caption=&& data-rawwidth=&520& data-rawheight=&613& class=&origin_image zh-lightbox-thumb& width=&520& data-original=&https://pic2.zhimg.com/50/v2-ed217d8cdd3_r.jpg&&&/figure&&p&讲wg的,很多故事真的是触目惊心,不看这本书我真的没想到wg是这么可怕的一件事,铭记历史,这本书也该读一读……&/p&&p&不过个人觉得此书唯一败笔就是冯骥才在后面的一些评语,其实挺煞风景的。&/p&&p&《联大八年》,新星出版社,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-a8dfcbc0be76cf_b.jpg& data-caption=&& data-rawwidth=&555& data-rawheight=&605& class=&origin_image zh-lightbox-thumb& width=&555& data-original=&https://pic3.zhimg.com/50/v2-a8dfcbc0be76cf_r.jpg&&&/figure&&p&对西南联大感兴趣的人应该很多,这本书相当对胃口了,可以看看,写的很有意思~闻一多先生编的~&/p&&p&《多鼠斋杂谈》,老舍,京华出版社,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-96a026f14a262ffac82a9_b.jpg& data-caption=&& data-rawwidth=&570& data-rawheight=&616& class=&origin_image zh-lightbox-thumb& width=&570& data-original=&https://pic3.zhimg.com/50/v2-96a026f14a262ffac82a9_r.jpg&&&/figure&&p&读的时候乐的不行,老舍才是真正的幽默大师,主要记的是一些杂文,老舍的有些话啊,真的是让人哭笑不得。&/p&&p&《苏东坡传》,林语堂,湖南文艺出版社,大概长这样——&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-a231be789d3dd6fe1004_b.jpg& data-caption=&& data-rawwidth=&544& data-rawheight=&607& class=&origin_image zh-lightbox-thumb& width=&544& data-original=&https://pic1.zhimg.com/50/v2-a231be789d3dd6fe1004_r.jpg&&&/figure&&p&一本不用看就知道一定有一大堆人强烈推荐但我还是想强烈推荐的书,林语堂说话其实也挺毒的,这种讲话很毒的人全心全意推崇另一个人时最有趣,这本书写的真的很棒,最关键是里面引用了相当多的苏轼的诗,是诗不是词,当然词也引用了很多,都是写到苏轼某一段经历时引出来的,对理解当时的情景和所引用的诗都很有帮助,此书我认为最大的贡献是吸引了很多人去读苏轼的诗,真的是大大的功绩!&/p&&p&书里有一个小故事很喜欢,私心推荐一下:&/p&&p&苏轼读书时有一位同窗,与他同时考为进士,拒官不做,回家修仙。&/p&&p&有一年除夕,朋友赠与他一些饭食,道谢后,他出门转赠乞儿。就地打坐,三日后气绝。&/p&&p&时人欲搬走尸体而恐晦气,僵持中,尸体开口言道:“不劳尔众,我自易地而飞升。”遂起身,至城郊处,复坐,白日飞升。&/p&&p&《风雅颂》,阎连科,河南文艺出版社,大概长这样——&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-ed96a2c9d466c60e534e424bb716ca4d_b.jpg& data-caption=&& data-rawwidth=&519& data-rawheight=&613& class=&origin_image zh-lightbox-thumb& width=&519& data-original=&https://pic1.zhimg.com/50/v2-ed96a2c9d466c60e534e424bb716ca4d_r.jpg&&&/figure&&p&这本书应该是阎连科评价最低的一本???其实我觉得还好,写得挺有意思的,可以读一读~&/p&&p&阎连科还有《受活》《炸裂志》《日光流年》,都是值得一读的作品~&/p&&p&《极花》,贾平凹,人民文学出版社,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-d54c3aaca89ef0a567434_b.jpg& data-caption=&& data-rawwidth=&269& data-rawheight=&350& class=&content_image& width=&269&&&/figure&&p&恩这本也是争议很大的书,“女权”不喜欢,我个人很喜欢,不同的人有不同的看法吧,私心想推荐一下这一本~&/p&&p&6、一些西方理论著作:&/p&&p&《第二性》(上下),波伏娃,上海译文出版社,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-52b7f5c2d95d65c7fb5c0e6150bfae56_b.jpg& data-caption=&& data-rawwidth=&452& data-rawheight=&613& class=&origin_image zh-lightbox-thumb& width=&452& data-original=&https://pic3.zhimg.com/50/v2-52b7f5c2d95d65c7fb5c0e6150bfae56_r.jpg&&&/figure&&p&搞女权不得不读的书。《第二性》是西方女性主义先驱波伏娃的著作,写得很好,评价也挺高的,不知道具体怎么推荐,就用最烂俗的那句话吧,此书被誉为西方妇女的圣经。&/p&&p&《阁楼上的疯女人》,吉尔伯特,上海人民出版社,大概长这样——&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-c85b8beedfb17_b.jpg& data-caption=&& data-rawwidth=&531& data-rawheight=&598& class=&origin_image zh-lightbox-thumb& width=&531& data-original=&https://pic2.zhimg.com/50/v2-c85b8beedfb17_r.jpg&&&/figure&&p&此书不是纯粹的西方文论,算得上是一本文学批评著作,主要是用女性主义的视角去解读西方一些女性作家,简奥斯汀艾米丽勃朗特等等,个人觉得她的解读方法实在是很有意思,所以私心更喜欢这一本,举个例子,作者对于《简·爱》的解读,认为阁楼上的疯女人,也就是伯尔莎实际上就是简爱,是简爱的第二人格化身,也对故事的大团圆结局做了不同的分析,实在是很有趣,推荐一读~&/p&&p&《性史》,福柯,上海科学技术出版社,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-34a3c2d8f55cb45ed08f63fe61c07946_b.jpg& data-caption=&& data-rawwidth=&306& data-rawheight=&432& class=&content_image& width=&306&&&/figure&&p&不知道当当和亚马逊以及新华文轩有没有这本书,现在已经挺难找到实体的了应该,89年出的,最经典的一版,很好的一本书,如果要看福柯一定得看这一版~&/p&&p&《格调》,保罗·福赛尔,后浪出版社,大概长这样——&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-ca0a7dfe140f5d30_b.jpg& data-caption=&& data-rawwidth=&502& data-rawheight=&590& class=&origin_image zh-lightbox-thumb& width=&502& data-original=&https://pic3.zhimg.com/50/v2-ca0a7dfe140f5d30_r.jpg&&&/figure&&p&哈哈这本书一定要看!其实不算是西方文论,但是真的很有趣,作者嘴巴相当毒,说话相当讽刺,简直无法想象他要是国内的公知会被喷成什么样,估计早八辈子就尸骨无存了,非常非常的恶毒,一定要看!&/p&&p&===================================================&/p&&p&不能再写了我要去学习了,如果还有下回我会慢慢补充。。&/p&&p&===================================================&/p&&p&学习真无聊。&/p&&p&不分类了,本身也就没有很科学的分类介绍。&/p&&p&1、《试镜人生》,芭芭拉,重庆出版社:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-d9cd125d5d50bd8b2e815d4c9976876f_b.jpg& data-caption=&& data-rawwidth=&485& data-rawheight=&615& class=&origin_image zh-lightbox-thumb& width=&485& data-original=&https://pic1.zhimg.com/50/v2-d9cd125d5d50bd8b2e815d4c9976876f_r.jpg&&&/figure&&p&简介如图。搞新闻的挺好的,是芭芭拉的自传,读起来挺有意思的也。&/p&&p&2、《伊利亚特》《奥德赛》,荷马,人民文学出版社:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-a2f2764abaa7ad661d8a_b.jpg& data-caption=&& data-rawwidth=&429& data-rawheight=&516& class=&origin_image zh-lightbox-thumb& width=&429& data-original=&https://pic3.zhimg.com/50/v2-a2f2764abaa7ad661d8a_r.jpg&&&/figure&&p&奥德赛跟它长得一样,说白了就是希腊神话,不过当然比单纯的希腊神话好看很多,有些诗节写得很动人。&/p&&p&3、《牡丹亭》,汤显祖,人民文学出版社:&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-cdeda0d81b0d5fc_b.jpg& data-caption=&& data-rawwidth=&510& data-rawheight=&603& class=&origin_image zh-lightbox-thumb& width=&510& data-original=&https://pic3.zhimg.com/50/v2-cdeda0d81b0d5fc_r.jpg&&&/figure&&p&牡丹亭也是脍炙人口的著作了,但是购买需谨慎,它不通俗……读着还是有一定难度,曲词写得真的很美。&/p&&p&4、《精神分析与灵魂治疗》,荣格,上海译文出版社:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-8da5ab331cf35f72d45b21_b.jpg& data-caption=&& data-rawwidth=&316& data-rawheight=&369& class=&content_image& width=&316&&&/figure&&p&年少无知时买了一大堆西方著作,这本是少数看完的作品。&/p&&p&5、《性学三论与爱情心理学》,弗洛伊德,武汉出版社:&/p&&figure&&img src=&https://pic1.zhimg.com/50/v2-fa17b517e99c4d7ac304_b.jpg& data-caption=&& data-rawwidth=&521& data-rawheight=&605& class=&origin_image zh-lightbox-thumb& width=&521& data-original=&https://pic1.zhimg.com/50/v2-fa17b517e99c4d7ac304_r.jpg&&&/figure&&p&弗洛伊德嘛,当代大学生必读人物,不读都不好意思出去吹壳子,最畅销的是《梦的解析》,不过这一本也不错。还有一本:&/p&&figure&&img src=&https://pic4.zhimg.com/50/v2-2e7db76d6af1af10f97a3828_b.jpg& data-caption=&& data-rawwidth=&495& data-rawheight=&610& class=&origin_image zh-lightbox-thumb& width=&495& data-original=&https://pic4.zhimg.com/50/v2-2e7db76d6af1af10f97a3828_r.jpg&&&/figure&&p&&br&&/p&&p&《弗洛伊德论美》,金城出版社。里面收录的大多是精神分析理论的一些具体操作案例,比如用来分析《哈姆雷特》,分析达芬奇,都挺有意思的,忘记里面有没有《陀思妥耶夫斯基与弑父者》了,《陀》是他后期一篇相当出名的论文,分析陀思妥耶夫斯基的,说人家有弑父倾向,还有同性恋倾向,如果没有收录的话,单独去看下那篇论文也挺有意思的。精神分析这个东西吧,顺着他的思维走,就觉得还是挺有趣……不过独立思考的话,还是觉得荣格的集体无意识和原型理论比较有道理……&/p&&p&6、《我们自由之前》,茱莉娅·阿尔瓦雷斯,译林出版社:&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-ff5fca5a49b6d1f0fa4e_b.jpg& data-caption=&& data-rawwidth=&520& data-rawheight=&608& class=&origin_image zh-lightbox-thumb& width=&520& data-original=&https://pic2.zhimg.com/50/v2-ff5fca5a49b6d1f0fa4e_r.jpg&&&/figure&&p&图片介绍的很清楚了,和安妮日记比较像,写得也挺好的,从一个小女孩的视角写的,将处于政变中心的一家人,蛮有意思的,可以读一读。&/p&&p&7、《浮生六记》,沈复,天津人民出版社:&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-dfac7e2e9af441fd2194b_b.jpg& data-caption=&& data-rawwidth=&533& data-rawheight=&608& class=&origin_image zh-lightbox-thumb& width=&533& data-original=&https://pic2.zhimg.com/50/v2-dfac7e2e9af441fd2194b_r.jpg&&&/figure&&p&又一本都知道也都看过的书,图片随便找的,一看是张公子译的,其实不太明白这本书需要什么译……&/p&&p&8、《中国现代经典短篇小说文本分析》,刘俐俐,北大出版社:&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-100bc8eb5eb44914ccb3_b.jpg& data-caption=&& data-rawwidth=&498& data-rawheight=&600& class=&origin_image zh-lightbox-thumb& width=&498& data-original=&https://pic2.zhimg.com/50/v2-100bc8eb5eb44914ccb3_r.jpg&&&/figure&&p&刘俐俐这一套书都挺好看的,还分析了外国短篇小说,据说外国短篇小说分析那本水准更高,我是没看过,我觉得这一本就写得很好了,主要是用结构主义叙事学去分析现当代一些经典的短篇小说,什么鲁迅的故乡啊,郁达夫的沉沦啊,废名的桃园啊,沈从文的菜园啊,都挺好看的。&/p&&p&9、叶嘉莹&/p&&figure&&img src=&https://pic3.zhimg.com/50/v2-b29f1e0ad0a8f5b95718c_b.jpg& data-caption=&& data-rawwidth=&523& data-rawheight=&613& class=&origin_image zh-lightbox-thumb& width=&523& data-original=&https://pic3.zhimg.com/50/v2-b29f1e0ad0a8f5b95718c_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/50/v2-5bc19a4d1430dcddf048_b.jpg& data-caption=&& data-rawwidth=&504& data-rawheight=&614& class=&origin_image zh-lightbox-thumb& width=&504& data-original=&https://pic3.zhimg.com/50/v2-5bc19a4d1430dcddf048_r.jpg&&&/figure&&figure&&img src=&https://pic3.zhimg.com/50/v2-5c0d90ebc701_b.jpg& data-caption=&& data-rawwidth=&507& data-rawheight=&609& class=&origin_image zh-lightbox-thumb& width=&507& data-original=&https://pic3.zhimg.com/50/v2-5c0d90ebc701_r.jpg&&&/figure&&figure&&img src=&https://pic4.zhimg.com/50/v2-5fc7db083c4374e26edc6b6fe65c8d07_b.jpg& data-caption=&& data-rawwidth=&490& data-rawheight=&614& class=&origin_image zh-lightbox-thumb& width=&490& data-original=&https://pic4.zhimg.com/50/v2-5fc7db083c4374e26edc6b6fe65c8d07_r.jpg&&&/figure&&p&叶嘉莹先生这一套书都值得收藏,她分析古诗很有一套,个人觉得水准最高的是说杜甫诗,真的很好,说阮籍诗也很厉害,但是感觉没有说杜甫好~&/p&&p&10、《北欧神话》,何鹏,陕西人民出版社:&/p&&figure&&img src=&https://pic2.zhimg.com/50/v2-b2fad7c51e3adfd122e2fb_b.jpg& data-capt

我要回帖

更多关于 纸船 的文章

 

随机推荐