《基于深度学习的自然语言处理》是一本由Yoav Goldberg著作,机械工业出版社出版的平装图书,本书定价:69,页数:255,特精心从网络上整理的一些读者的读后感,希望对大家能有帮助。 《基于深度学习的自然语言处理》精选点评: ●还是不错的 ●这本书质量真的很一般,很多NLP关键点都没分析清楚,而且翻译看得很出戏,可能因为原作者的用语和目前国内主流的NLP术语相差较大。 ●翻译得太像英语句子了,读起来不太符合中文习惯。不适合入门阅读。 ●翻译一般,很多地方讲的太浅,可以当作nlp+dl综述来看 ●内容覆盖点挺多的,但都是简单的介绍了下。对于我这样的新手入门足够了。另外书的排版太垃圾 ●纵述文献 ●这书有很多经验性的东西…如果读了论文再去读会效果好很多…有点像一个具体的综述…没有具体代码… ●介绍性的。我看起来太顺滑了,里面说的我都知道,没收获什么东西啊 ●dl+nlp excited ●这本书不如读几篇深度学习应用在NLP领域的论文有启发。针对深度学习应用在NLP就是简单的描述一下方向。第一部分讲讲神经网络,机器学习的书都有 第二部分讲讲NLP相关书都有第三部分讲讲深度学习深度学习的书都重复了就最后一部分有一些价值讲讲深度学习在NLP领域的应用就几十页吧。不知道为啥评分这么高 《基于深度学习的自然语言处理》读后感(一):适合入门, 在深入了解 我也是看了这本书对照cs224n才明白, 相较于cs224n已经没有英文基础的同学来说, 这本书是比较适合的, 理解起来没有歧义, 例证也是很清晰明了, 而且, 尤其是本书的参考文献, 多达100多篇paper, 已经能证明这是一本值得去读的好书了, 不管是入门也好, 希望对大家有所帮助, 目前来说, nlp比较好的一本书了, 对于认为自己有基础的同学来说, 可以自行选择其他材料了. 希望对读者有用 《基于深度学习的自然语言处理》读后感(二):神经网络用于自然语言处理的首选入门好书 应该说神经网络用于自然语言处理这类的书籍并不多,或许是因为自己基础的问题,对比于CS224N来说,本书作者显然讲解的更加通透一些,这一领域也不太好写,写的这么有思想的估计也只有这本书了。也打印出来了该书的英文版,但是没看多少,看到这本中文版,立刻就下手买了,拿来一看真是爱不释手,基本是比较新的一些知识和应用,也比较有系统性了。强力推荐,四位老师的翻译也很到位,基本没有歧义的地方,给哈工大的四位老师点赞。说起哈工大自然语言处理那应该是在全国都排前几名的,真的很不错。又想起哈工大马春鹏学长4个月翻译PRML真是顶礼膜拜! 本书英文版:https://book.douban.com/subject/27032271/ 英文版下载链接:https://page65.ctfile.com/fs/15461965-219959144 《基于深度学习的自然语言处理》读后感(三):**********《自然语言处理-Word2Vec》课程下载********** 自然语言处理-Word2Vec课程下载:pan.baidu.com/s/1gB-5nvxC_n-EjtT37vTFpg 章节1:Word2Vec原理 课时1课程简介04:36 课时2数据,PPT,代码下载****** 课时3自然语言处理与深度学习11:58 课时4语言模型06:16 课时5N-gram模型08:32 课时6词向量09:28 课时7神经网络模型10:03 课时8HierarchicalSoftmax10:01 课时9CBOW模型实例11:21 课时10CBOW求解目标05:39 课时11梯度上升求解10:11 课时12负采样模型07:15 章节2:Gensim构造词向量模型 课时13使用Gensim库构造词向量06:22 课时14维基百科中文数据处理10:27 课时15Gensim构造word2vec模型08:52 课时16测试模型相似度结果07:42 章节3:Tensorflow实战word2vec 课时17环境配置06:00 课时18中文数据预处理11:07 课时19word2vec模型构造10:36 课时20构造图计算模型07:54 课时21word2vec训练10:47 课时22模型训练模块10:19 课时23迭代预测效果08:39 章节4:案例:影评数据情感分析 课时24影评情感分类任务数据预处理17:49 课时25基于词袋模型训练分类器11:08 课时26准备word2vec输入数据需购买观看 课时27使用gensim构建word2vec词向量 《基于深度学习的自然语言处理》读后感(四):书籍资源和书中习题答案、python代码下载 扫码关注公众号 「图灵的猫」,点击"学习资料"菜单,可以获得海量python、机器学习、深度学习书籍、课程资源,以及书中对应习题答案和代码。后台回复SSR更有机场节点相送~ 入门避坑指南 自学三年,基本无人带路,转专业的我自然是难上加难,踩过无数坑,走过很多弯路。这里我整理了一下自己踩过的坑,供大家参考。 1. 不要从头开始学数学 如果不是一点数学都不会,你没有必要从零学起。用上个把月,把微积分、线性代数、以及概率统计复习一遍就够了。我自己因为没有学过高数,所以花了半年时间,甚至读了数学分析、泛函分析和测度论这样的教材。现在回想起来,其实学到的大部分知识并没有在后来的算法生涯中用到,虽然算不上沉没成本,但投入产出比绝对不高。 因此,不要过度投入到数学领域,打好基础即可。有个例子说的很好, 如果你想造汽车,你需要有20年的理论功底,以及技术实践。 但如果你只是想开汽车,却很快就能学会。 当个司机,你需要去了解汽油发动机原理吗? 不需要。 因为你开的车,甚至有可能根本就用不上汽油发动机(电动车)。 2. 代码能力要过关 我在大三一年自修完了计算机系的所有必修课,因为我深知数据科学离不开计算机底层知识。我见过不少只会背推导公式,连JVM虚拟机是什么都不知道的人。除了Python,请至少学习1-2门底层语言,比如C/C++,Java。 此外,如果你的目标是算法工程师,那么数据结构与算法、计算机系统、内存机制、网络编程、大数据框架也要着手学习,因为你是以企业工作为导向的。这方面我有空会把自己读研时找实习的经历整理分享出来。 3. 不要过分深入 深度学习,底层结构很复杂,理论知识读懂即可,书也可以跳着看。除了自己感兴趣的部分,其他不需要深入。 4. 不要重复造轮子 不管是你是做科研还是搞业务算法,在开始入门的时候,认认真真自己实现一遍基础算法的底层代码就足够了,对于更多复杂的算法实现,如非必要(比如打比赛),否则请不要浪费时间,要记住,你只是入门,不需要专精这个领域。 我曾经读过hadoop的ML包源码,以及xgboost的C++源码,对当时还在入门的我来说,是做无用功。轮子还没修好,就照着别人的高铁学习结构,效率不会太高。现如今,对于大多数深度模型调用,代码量基本不过百行。除非你的方向是大规模、高可用深度学习系统的底层开发、架构开发,那么没有必要深入底层代码。 5. 不要报培训班 这一点仁者见仁。但我认为,网络上的公开课足够你学的了,比如Coursera,斯坦福CS231,可汗学院等等,这些现在都有中文字幕。相关资源我整理放在文末了,大家可以取用。要强调的是,有的同学会觉得花了钱,自然就会心疼,就会坚持学下去。这个想法很好,但太天真,有两点国内的教学体系才刚起步,很多985高校都是和计算机、数学系一起上课,老师自己很可能都不是研究AI出身的。所以,请思考一下:校外的培训机构,会有比985还好的教学能力吗?深度学习没有速成一说,虽然深度学习经常被诟病没有基础理论支撑,不需要数学知识,但那是说给大牛听的。你一旦深入某个方向,底层的数学照样少不了。培训班最不会教你的,就是这些。它们只会利用你的兴趣,揠苗助长,然后收割学费