放牧代码和思想
专注自然语言处理、机器学习算法
    愛しさ 優しさ すべて投げ出してもいい

标签:深度学习

第2页
谷歌深度学习公开课任务 6: LSTMs
机器学习

谷歌深度学习公开课任务 6: LSTMs

阅读(6700)评论(1)

最后一次任务,至此速战速决解决了这门快餐课程。心得是作为一个“懒惰的工程师”,对常见的深度学习模型、技巧、应用有了浅显的了解。但对“好奇的求知者”来讲,则只能说看了一张模糊不清的缩略图,许多理论和细节得通过正式一些的课程去补充。 任务 6:...

谷歌深度学习公开课任务 5: Word2Vec&CBOW
机器学习

谷歌深度学习公开课任务 5: Word2Vec&CBOW

阅读(6851)评论(2)

课上讲的太简略了,原理参考《word2vec原理推导与代码分析》。谷歌给的代码也很简陋,只有负采样,没有哈夫曼树。另外单机word2vec已经那么高效了,我质疑上TF的意义。 任务 5: Word2Vec&CBOW 这次的任务是在t...

谷歌深度学习公开课任务 4: 卷积模型
机器学习

谷歌深度学习公开课任务 4: 卷积模型

阅读(5950)评论(0)

课上浅显地介绍了卷积网络,以及配套的常用技巧。速成嘛,没深入探讨原理。编程任务直接给出了实现,要求也只是在其基础上做些小改进,过过干瘾。 任务 4: 卷积模型 设计并训练一个卷积神经网络。 前两次任务中,我们实现了较深的全连接多层神经网络,...

谷歌深度学习公开课任务 3: 正则化
机器学习

谷歌深度学习公开课任务 3: 正则化

阅读(4828)评论(0)

这次的看点是怎么在TensorFlow里实现正则化、dropout和学习率递减的技巧;顺便演示了下自动调参。 任务 3: 正则化 使用正则化去优化深度学习模型 题目1 给上次练习实现的逻辑斯谛回归和神经网络加上L2正则,检查性能提升。 逻辑...

谷歌深度学习公开课任务 2: SGD
机器学习

谷歌深度学习公开课任务 2: SGD

阅读(5854)评论(2)

三言两语讲完了反向传播,一个公式也没有,果然是面向“懒惰工程师”的快餐教程。比较喜欢“不提神经元,我们不是巫婆”的观点。这次不需要自己写算法,直接上TensorFlow了。 任务 2: 随机梯度下降 使用梯度下降和随机梯度下降训练一个全连接...

谷歌深度学习公开课任务 1: notMNIST
机器学习

谷歌深度学习公开课任务 1: notMNIST

阅读(7693)评论(3)

这是谷歌在优达学城上开的公开课,感觉就是TensorFlow的宣传片。肉眼观测难度较低,作为入门第一课快速过掉也许还行。课程概述中说: 我们将教授你如何训练和优化基本神经网络、卷积神经网络和长短期记忆网络。你将通过项目和任务接触完整的机器学...

我的作品

HanLP自然语言处理包《自然语言处理入门》