放牧代码和思想
专注自然语言处理、机器学习算法
    愛しさ 優しさ すべて投げ出してもいい

标签:Neural Networks for Machine Learning

第2页
Hinton神经网络公开课8 More recurrent neural networks
机器学习

Hinton神经网络公开课8 More recurrent neural networks

阅读(5793)评论(2)

首先简要介绍Hessian-Free优化理论。这是块硬骨头,并不要求一定掌握。 在给定方向上的移动能够将误差降低多少 在训练神经网络的时候,我们想要在error surface上尽量多地下降。梯度有了之后,具体能够迈多大一步呢?以二次曲线为...

Hinton神经网络公开课7 Recurrent neural networks
机器学习

Hinton神经网络公开课7 Recurrent neural networks

阅读(6276)评论(0)

首先复习一下常见序列模型,包括BiGram、linear dynamic system和HMM。通过对简单模型的比较学习,加深对RNN的理解。 为序列建模 目的是将一个输入序列转化为一个输出序列,如机器翻译、语音识别。 当不区分输入和输出序...

Hinton神经网络公开课5 Object recognition with neural nets
机器学习

Hinton神经网络公开课5 Object recognition with neural nets

阅读(5358)评论(0)

这节课蜻蜓点水地讲了图像识别和卷积神经网络,老爷子讲得实在很简略。所以这节课不能当作CNN的入门资料,如果感觉任何地方不清楚,不要沮丧,因为根本没讲。 图像识别的难处 为什么最新的技术只能做到十几二十几的error rate呢,因为图像识别...

Hinton神经网络公开课4 Learning feature vectors for words
机器学习

Hinton神经网络公开课4 Learning feature vectors for words

阅读(4351)评论(2)

词的向量表示 关系信息的特征表示 引子很新奇,是一张英国人的家谱和一张结构相似的意大利人的家谱: 这是一种关系信息,比如甲的父亲是乙,=表示夫妻。神经网络可以通过反向传播学习这些关系对,将关系信息转为特征向量。最终的效果是,提问“乙的儿子是...

Hinton神经网络公开课3 The backpropagation learning proccedure
机器学习

Hinton神经网络公开课3 The backpropagation learning proccedure

阅读(4213)评论(0)

虽然反向传播很简单,但老爷子讲的更本质。另外线性回归→逻辑斯谛回归→反向传播神经网络是很多课程的必经之路。 为什么感知机算法不能用于训练隐藏层  其实前面一次课简单地提了下,说是线性隐藏层构成的模型依然是线性的。这节课展开了讲,感...

我的作品

HanLP自然语言处理包《自然语言处理入门》