放牧代码和思想
专注自然语言处理、机器学习算法

自然语言处理

第4页
CS224n笔记7 TensorFlow入门

CS224n笔记7 TensorFlow入门

hankcs阅读(2470)评论(2)

这节课由TA们介绍了TF里的几个基本概念(graph、variable、placeholder、session、fetch、feed),基本流程。然后现场敲代码演示如何在TF上跑线性回归和训练词向量。与优达学城的《深度学习公开课》不同之处在...

CS224n研究热点5 图像对话

CS224n研究热点5 图像对话

hankcs阅读(1420)评论(1)

术语Visual Dialog,大致这么翻译(通俗理解为斗图)。你可以给聊天机器人发送图片,它能理解图片的意思,你们可以就图片内容展开对话;除了文本之外,让图片也成为交流的一部分;这可以帮助盲人理解周围或社交媒体上的信息。 这是自然语言处理...

CS224n Assignment 1

CS224n Assignment 1

hankcs阅读(5830)评论(35)

这是LaTex答案,Python代码开源在GitHub上。先进行大量的SG、CBOW、负采样、交叉熵损失函数推导和证明,理论基础扎实后平滑过渡到实现;在斯坦福情感树库上做情感分析、调参、分析混淆矩阵与错误。 以前看不懂公式,总觉得代码是最重...

CS224n笔记6 句法分析

CS224n笔记6 句法分析

hankcs阅读(3788)评论(5)

句法分析还算熟悉,就跟着复习了神经网络句法分析的动机与手法,了解一下比较前沿的动向。 语言学的两种观点 如何描述语法,有两种主流观点,其中一种是短语结构文法,英文术语是:Constituency = phrase structure gra...

CS224n研究热点4 词嵌入对传统方法的启发

CS224n研究热点4 词嵌入对传统方法的启发

hankcs阅读(1432)评论(0)

主讲人是一位发音特别纯正的印度小哥,只有微量口音。这篇论文挑战了对神经网络的迷信,展示了传统模型的生命力以及调参的重要性。 词语表示方法 以前的课程中讲过两大类得到dense词语表示的方法,一般认为NN模型更好: 这里的PPMI也是一种利用...

CS224n笔记5 反向传播与项目指导

CS224n笔记5 反向传播与项目指导

hankcs阅读(2347)评论(2)

最后一次数学课,其实都是些很基础的推导而已。从四个不同的层面讲解反向传播,其中电路和有向图类比还是很直观新颖的解释。 任意层的通用公式 第$l$层的残差: $$\delta^{(l)} = (W^{(l)T} \delta^{(l+1)})...

CS224n研究热点3 高效文本分类的锦囊妙计

CS224n研究热点3 高效文本分类的锦囊妙计

hankcs阅读(1824)评论(0)

Facebook的fastText  文本分类是NLP中常见的任务,比如情感分析: 词袋模型 虽然词袋模型只是所有词向量的某种平均,但其维度可以做到很低: 为了抵抗词序丢失带来的语义丢失问题,可以用ngram特征来代替。 简单的线...

CS224n笔记4 Word Window分类与神经网络

CS224n笔记4 Word Window分类与神经网络

hankcs阅读(2911)评论(0)

这节课介绍了根据上下文预测单词分类的问题,与常见神经网络课程套路不同,以间隔最大化为目标函数,推导了对权值矩阵和词向量的梯度;初步展示了与传统机器学习方法不一样的风格。 分类问题 给定训练集$$\{x^{(i)},y^{(i)}\}_1^N...

CS224n笔记3 高级词向量表示

CS224n笔记3 高级词向量表示

hankcs阅读(3370)评论(2)

这节课从传统的基于计数的全局方法出发,过渡到结合两者优势的GloVe,并介绍了词向量的调参与评测方法。 复习:word2vec的主要思路 遍历整个语料库中的每个词 预测每个词的上下文: 然后在每个窗口中计算梯度做SGD SGD与词向量 但每...

CS224n研究热点2 词语义项的线性代数结构与词义消歧

CS224n研究热点2 词语义项的线性代数结构与词义消歧

hankcs阅读(1710)评论(1)

词向量本身无法解决一词多义的问题,比如: 这里的tie可能表示球赛的平局,也可能表示领带,还可能表示绳子打结。那它的词向量究竟在哪里呢? 虽然相似的词被映射到邻近的位置,但该论文证明词向量是所有义项的平均: 它被映射到这些词语的中央,这有什...

我的开源项目

HanLP自然语言处理包基于DoubleArrayTrie的Aho Corasick自动机