CS224n笔记18 挑战深度学习与自然语言处理的极限
最后一课,总结了目前这两个领域中的难题,介绍了一些前沿研究:快16倍的QRNN、自动设计神经网络的NAS等。 深度学习已经漂亮地完成了许多单项任务,但如果我们继续随机初始化模型参数,我们永远也无法得到一个可以完全理解语言的系统。模型就像蒙住...
最后一课,总结了目前这两个领域中的难题,介绍了一些前沿研究:快16倍的QRNN、自动设计神经网络的NAS等。 深度学习已经漂亮地完成了许多单项任务,但如果我们继续随机初始化模型参数,我们永远也无法得到一个可以完全理解语言的系统。模型就像蒙住...
这次讲座覆盖了来自DeepMind的两篇论文: 第二篇是第一篇的轻微改进,这里只关注抽象思想。 问题 目前的神经网络擅长模式识别和动态决策,但无法使用知识进行深思或推断。比如明明可以胜任电子游戏这么复...
课程介绍了各种各样的深度学习网络与应用,是时候从更高层次思考自然语言处理存在的问题与展望未来了。虽然BiLSTM与attention几乎统治了NLP,但在篇章级别的理解与推断上还不尽人意。 新时代人们正在“解决”语言 深度学习填...
这是自我组装推断的QA,可接受多种知识,包括图片和结构化知识库。问答具有复合性,很早就有人引入句法分析判断究竟在问什么,甚至脑洞大开想做自然语言编译器。但他们总是脱离不了手写规则的思维,白白糟蹋了性能卓越的句法分析器。而该模型自动组装多个神...
最有意思的一课,将所有NLP任务视作QA问题。模仿人类粗读文章和问题,再带着问题反复阅读文章的行为,利用DMN这个通用框架漂亮地解决了从词性标注、情感分析到机器翻译、QA等一系列任务。 是否所有NLP任务都可视作QA? 问答系统举例如下: ...
在培训码农的时候,教师需要给学生批改代码、写反馈。学生太多时成为机械劳动,这篇论文研究自动编码程序的语义表示。数据集来自斯坦福开发的模拟操控机器人的语言。 表示代码 希望得到代码的简洁表示、运行后会得到什么结果,哪怕它无法编译运...
从规则启发式代词回指消解出发,介绍了传统特征工程二分类模型、启发式损失的分类模型,过渡到利用强化学习自动缩放损失的神经网络模型。 什么是指代消解 找出文本中名词短语所指代的真实世界中的事物。比如: 不只是代词能够指代其他事物,所...
任务与数据集 自动生成C#和SQL代码的文档描述,数据集整理自StackOverflow上的提问。 子任务 根据代码生成摘要,或根据问题检索代码。 网络架构 一个LSTM处理已生成的文本token,一个在...
介绍了著名的复合性原理,由此启发得到树形RNN,用于表示短语和句子级别的语义。从朴素树形RNN到SU-RNN和MV-RNN,讨论了进化历史和各自优缺点,演示了效果和在图像等领域的拓展应用。 语言模型光谱 最简陋最常用的是词袋模型...
这篇论文研究如何训练聊天机器人进行有意义的对话,常规方法是seq2seq: 与上几次课讲的机器翻译框架相同,encoder与decoder,相同的极大似然估计目标函数。 seq2seq的缺陷 通过该方法训练出来的聊天机器人容易陷...