放牧代码和思想
专注自然语言处理、机器学习算法
    正处于一个非常忙的阶段,抱歉不会经常回应任何联络

机器学习

第2页
Hinton神经网络公开课编程练习3 Optimization and generalization

Hinton神经网络公开课编程练习3 Optimization and generalization

阅读(1792)评论(0)

这次练习在USPS手写邮政编码数据集上训练识别模型,重点是训练神经网络时的各种调参技巧。 数据集 数据全集有11000张图片,其中1000作为训练集,1000作为验证集,9000作为测试集(训练集与测试集的比例不同寻常,很容易过拟合,富有挑...

Hinton神经网络公开课9 Ways to make neural networks generalize better

Hinton神经网络公开课9 Ways to make neural networks generalize better

阅读(3002)评论(0)

这节课介绍防止模型过拟合的各种方法,给出了正则化项、惩罚因子的贝叶斯解读;并展示了基于贝叶斯解读的一种实践有效的惩罚因子调参方法。 复习:过拟合 训练数据中不光有正确的规律,而且还有偶然的规律(采样误差,只取决于训练实例的选择)。拟合模型的...

Hinton神经网络公开课8 More recurrent neural networks

Hinton神经网络公开课8 More recurrent neural networks

阅读(3279)评论(2)

首先简要介绍Hessian-Free优化理论。这是块硬骨头,并不要求一定掌握。 在给定方向上的移动能够将误差降低多少 在训练神经网络的时候,我们想要在error surface上尽量多地下降。梯度有了之后,具体能够迈多大一步呢?以二次曲线为...

Hinton神经网络公开课7 Recurrent neural networks

Hinton神经网络公开课7 Recurrent neural networks

阅读(3591)评论(0)

首先复习一下常见序列模型,包括BiGram、linear dynamic system和HMM。通过对简单模型的比较学习,加深对RNN的理解。 为序列建模 目的是将一个输入序列转化为一个输出序列,如机器翻译、语音识别。 当不区分输入和输出序...

随机梯度下降与卷积神经网络

随机梯度下降与卷积神经网络

阅读(5993)评论(4)

斯坦福UFLDL中CNN剩下两章的笔记,辅以两次编程练习,至此完成了CNN的学习。 梯度下降概述 诸如L-BFGS之类的批优化方法每次更新都使用整个训练集,能够收敛到局部最优。因为要设置的超参数很少,所以很好用,matlab里也有许多类似m...

使用卷积进行特征提取

使用卷积进行特征提取

阅读(4238)评论(0)

这是关于斯坦福大学的UFLDL(Unsupervised Feature Learning and Deep Learning)中CNN一章的笔记,用来补足Hinton神经网络公开课略过的部分。 概览 前几次练习解决了处理低分辨率图片的问题...

理解深度学习中的卷积

理解深度学习中的卷积

阅读(8794)评论(13)

译自Tim Dettmers的Understanding Convolution in Deep Learning。有太多的公开课、教程在反复传颂卷积神经网络的好,却都没有讲什么是“卷积”,似乎默认所有读者都有相关基础。这篇外文既友好又深入...

Hinton神经网络公开课5 Object recognition with neural nets

Hinton神经网络公开课5 Object recognition with neural nets

阅读(2964)评论(0)

这节课蜻蜓点水地讲了图像识别和卷积神经网络,老爷子讲得实在很简略。所以这节课不能当作CNN的入门资料,如果感觉任何地方不清楚,不要沮丧,因为根本没讲。 图像识别的难处 为什么最新的技术只能做到十几二十几的error rate呢,因为图像识别...

我的作品

HanLP自然语言处理包《自然语言处理入门》