码农场

放牧代码和思想
专注自然语言处理、机器学习算法

最新发布

使用卷积进行特征提取
机器学习

使用卷积进行特征提取

hankcs阅读(4)评论(0)

这是关于斯坦福大学的UFLDL(Unsupervised Feature Learning and Deep Learning)中CNN一章的笔记,用来补足Hinton神经网络公开课略过的部分。 概览 前几次练习解决了处理低分辨率图片的问题...

理解深度学习中的卷积
机器学习

理解深度学习中的卷积

hankcs阅读(698)评论(4)

译自Tim Dettmers的Understanding Convolution in Deep Learning。有太多的公开课、教程在反复传颂卷积神经网络的好,却都没有讲什么是“卷积”,似乎默认所有读者都有相关基础。这篇外文既友好又深入...

Hinton神经网络公开课5 Object recognition with neural nets
机器学习

Hinton神经网络公开课5 Object recognition with neural nets

hankcs阅读(133)评论(0)

这节课蜻蜓点水地讲了图像识别和卷积神经网络,老爷子讲得实在很简略。所以这节课不能当作CNN的入门资料,如果感觉任何地方不清楚,不要沮丧,因为根本没讲。 图像识别的难处 为什么最新的技术只能做到十几二十几的error rate呢,因为图像识别...

Hinton神经网络公开课4 Learning feature vectors for words
机器学习

Hinton神经网络公开课4 Learning feature vectors for words

hankcs阅读(125)评论(1)

词的向量表示 关系信息的特征表示 引子很新奇,是一张英国人的家谱和一张结构相似的意大利人的家谱: 这是一种关系信息,比如甲的父亲是乙,=表示夫妻。神经网络可以通过反向传播学习这些关系对,将关系信息转为特征向量。最终的效果是,提问“乙的儿子是...

Hinton神经网络公开课3 The backpropagation learning proccedure
机器学习

Hinton神经网络公开课3 The backpropagation learning proccedure

hankcs阅读(91)评论(0)

虽然反向传播很简单,但老爷子讲的更本质。另外线性回归→逻辑斯谛回归→反向传播神经网络是很多课程的必经之路。 为什么感知机算法不能用于训练隐藏层  其实前面一次课简单地提了下,说是线性隐藏层构成的模型依然是线性的。这节课展开了讲,感...

Michael Collins NLP公开课任务4 GLM
命名实体识别

Michael Collins NLP公开课任务4 GLM

hankcs阅读(152)评论(0)

最后一次练习,对应课程结尾的对数线性模型框架;于是又拿下一门课。在这次练习中,我们将使用感知机算法训练一个GLM应用到命名实体识别上。对输入实例,GLM使用如下三个组件完成解码: 一个函数生成所有可能的结果 一个全局特征函数 一个参数向量 ...

题解《挑战程序设计竞赛》系列完结
算法

题解《挑战程序设计竞赛》系列完结

hankcs阅读(307)评论(4)

断断续续花了三年时间,终于看完这本书,完成了所有习题。看书有很多种看法,开卷有益是一种,自始至终是另一种。有些题目很难,至今AC数只有数十人。据此估计,完整读完这本书的人应该不超过十这个量级。 读书的动机也有很多种,我既不是运动员,也不为面...

我的开源项目

HanLP自然语言处理包基于DoubleArrayTrie的Aho Corasick自动机