码农场

放牧代码和思想
专注自然语言处理、机器学习算法
    正处于一个非常忙的阶段,抱歉不会经常回应任何联络

最新发布 第4页

CS224n Assignment 1
自然语言处理

CS224n Assignment 1

hankcs阅读(1273)评论(25)

这是LaTex答案,Python代码开源在GitHub上。先进行大量的SG、CBOW、负采样、交叉熵损失函数推导和证明,理论基础扎实后平滑过渡到实现;在斯坦福情感树库上做情感分析、调参、分析混淆矩阵与错误。 以前看不懂公式,总觉得代码是最重...

CS224n笔记6 句法分析
句法分析

CS224n笔记6 句法分析

hankcs阅读(692)评论(1)

句法分析还算熟悉,就跟着复习了神经网络句法分析的动机与手法,了解一下比较前沿的动向。 语言学的两种观点 如何描述语法,有两种主流观点,其中一种是短语结构文法,英文术语是:Constituency = phrase structure gra...

CS224n研究热点4 词嵌入对传统方法的启发
自然语言处理

CS224n研究热点4 词嵌入对传统方法的启发

hankcs阅读(334)评论(0)

主讲人是一位发音特别纯正的印度小哥,只有微量口音。这篇论文挑战了对神经网络的迷信,展示了传统模型的生命力以及调参的重要性。 词语表示方法 以前的课程中讲过两大类得到dense词语表示的方法,一般认为NN模型更好: 这里的PPMI也是一种利用...

在Wine或CrossOver中利用CMake和MinGW交叉编译
C++

在Wine或CrossOver中利用CMake和MinGW交叉编译

hankcs阅读(235)评论(0)

在Mac等*nix下编译Windows动态链接库或可执行文件,常见方法是虚拟机。然而虚拟机操作不流畅,来回拷贝源码不方便。虽然虚拟机自动将宿主目录挂载为磁盘分区,但cmd实际无法cd进去: 更好的方法是直接利用Wine容器中的编译链,一边开...

CS224n笔记5 反向传播与项目指导
自然语言处理

CS224n笔记5 反向传播与项目指导

hankcs阅读(574)评论(0)

最后一次数学课,其实都是些很基础的推导而已。从四个不同的层面讲解反向传播,其中电路和有向图类比还是很直观新颖的解释。 任意层的通用公式 第$l$层的残差: $$\delta^{(l)} = (W^{(l)T} \delta^{(l+1)})...

CS224n笔记4 Word Window分类与神经网络
自然语言处理

CS224n笔记4 Word Window分类与神经网络

hankcs阅读(662)评论(0)

这节课介绍了根据上下文预测单词分类的问题,与常见神经网络课程套路不同,以间隔最大化为目标函数,推导了对权值矩阵和词向量的梯度;初步展示了与传统机器学习方法不一样的风格。 分类问题 给定训练集$$\{x^{(i)},y^{(i)}\}_1^N...

CS224n笔记3 高级词向量表示
自然语言处理

CS224n笔记3 高级词向量表示

hankcs阅读(702)评论(0)

这节课从传统的基于计数的全局方法出发,过渡到结合两者优势的GloVe,并介绍了词向量的调参与评测方法。 复习:word2vec的主要思路 遍历整个语料库中的每个词 预测每个词的上下文: 然后在每个窗口中计算梯度做SGD SGD与词向量 但每...

CS224n笔记2 词的向量表示:word2vec
自然语言处理

CS224n笔记2 词的向量表示:word2vec

hankcs阅读(1154)评论(6)

如何表示一个词语的意思 先来看看如何定义“意思”的意思,英文中meaning代表人或文字想要表达的idea。这是个递归的定义,估计查询idea词典会用meaning去解释它。 中文中“意思”的意思更加有意思: 他说:“她这个人真有意思(fu...

我的开源项目

HanLP自然语言处理包基于DoubleArrayTrie的Aho Corasick自动机