放牧代码和思想
专注自然语言处理、机器学习算法
    愛しさ 優しさ すべて投げ出してもいい

CS224n笔记11 GRU和NMT的进一步话题

目录

2017-06-30_14-14-18.png从动机层面直观地充实了GRU和LSTM的理解,介绍了MT的评测方法,讨论了NMT中棘手的大词表问题和一些常见与最新的解决办法。

深入GRU 

把GRU再详细讲一讲。

hankcs.com 2017-06-29 下午5.13.08.png

RNN的梯度消失就不赘述了,红线连乘多次下溢出。

而GRU额外添加了一些“捷径”红线,允许梯度直接流过去,而不是连乘的方式递减过去。

Update Gate

hankcs.com 2017-06-29 下午5.28.17.png

用来自适应学习应该把多少注意力放到前一个隐藏层状态上。

Reset Gate

hankcs.com 2017-06-30 上午9.14.27.png

自适应地删除不需要的连接。

RNN寄存器

hankcs.com 2017-06-30 上午9.16.46.png

朴素RNN读取所有寄存器,运算后存入所有寄存器,没有灵活性。

GRU寄存器

hankcs.com 2017-06-30 上午10.04.08.png

门多了之后,就可以灵活地选择读取部分寄存器,执行运算,写入部分寄存器。

Reset Gate起到决定要读哪些寄存器的目的,而Update Gate决定要写的寄存器。这里的“决定”其实是“强度”的意思,不是绝对的。

GRU和LSTM对比

GRU中的隐藏状态$h_t$类似于LSTM中的cell$c_t$,而LSTM中的隐藏状态$h_t$其实相当于一个暴露给外部世界的“显状态”。LSTM通过给cell加一个$\tanh$获得非线性的灵活性。

另外,观察$h_{t-1}$之前的系数,这里的$r_t$其实是“don't reset gate”,$f_t$其实是“don't forget gate”。

2017-06-30_14-05-38.png

深入LSTM

宏观上的LSTM Cell:

2017-06-30_14-14-18.png

将所有操作都gate起来,方便遗忘甚至忽略一些信息,而不是把所有东西都塞到一起。

2017-06-30_14-18-01.png

New Memory Cell的计算是一个非线性的过程,与朴素RNN一模一样:

2017-06-30_14-22-41.png

最关键之处在于,Memory Cell的更新中有一个加法项直接来自上一刻的Cell,也就是说建立了$c_t$和$c_{t-1}$的直接线性连接(与ResNet类似):

2017-06-30_14-30-49.png

类似于GRU中的加法,在反向传播的时候允许原封不动地传递残差,也允许不传递残差,总之是自适应的。

有了这些改进,LSTM的记忆可以比RNN持续更长的step(大约100):

训练技巧

  • 将递归权值矩阵初始化为正交

  • 将其他矩阵初始化为较小的值

  • 将forget gate偏置设为1:默认为不遗忘

  • 使用自适应的学习率算法:Adam、AdaDelta

  • 裁剪梯度的长度为小于1-5

  • 在Cell中垂直应用Dropout而不是水平Dropout

  • 保持耐心,通常需要训练很长时间

Ensemble

如果想获得额外的2个百分点的效果提升,可以训练多个模型,平均它们的预测。

2017-06-30_15-08-31.png

MT评测

以前人们认为交给人类译员来打分是最好的,但这太主观了,10个译员给出的翻译可能都不相同。

BLEU

后来IBM发明了一种简单有效的评价策略,叫BLEU。

hankcs.com 2017-06-30 下午5.56.06.png

通过比较标准译文与机翻译文中NGram的重叠比率(0到1之间)来衡量机翻质量。

Brevity Penalty

是否可以通过输出大量无意义的the之类来作弊?不,通过Brevity Penalty来防止机翻比译员译文短。

一般取4-gram之内参与评测,最终的分值是所有ngram分值的几何平均乘上一个Brevity Penalty:

hankcs.com 2017-06-30 下午5.57.09.png

一个具体的BLEU重叠例子:

hankcs.com 2017-06-30 下午6.01.00.png

Multiple Reference Translations

为了防止某篇机翻实际上很好,可就是跟人类译文用词行文不相似的情况,IBM的论文建议多准备几篇标准答案,这样总会撞上一个:

hankcs.com 2017-06-30 下午6.03.04.png

当然了,虽然IBM建议准备4篇,实际测试中经常只有1篇。没有完美体现能力的考试,现实社会也是如此。

刚开始的时候,BLEU和人工打分几乎是线性相关(一致)的:

hankcs.com 2017-06-30 下午7.56.45.png

而当人们为了BLEU分数费尽心机之后,两者就开始脱钩了。这也是为什么Google翻译的效果没有宣称的那么好的原因之一。

解决大词表问题

大词表问题指的是softmax的计算难度:

2017-06-30_20-04-35.png

早期的MT系统会使用较小的词表,但这并不是解决问题,而是逃避问题。

2017-06-30_20-05-53.png

另一种思路是,hierarchical softmax,建立树形词表,但这类方法过于复杂,让模型对树形结构敏感而不是对词语本身敏感。

另外就是上几次课见过的廉价的NCE,这些方法对GPU都不友好。

Large-vocab NMT

最新的方法是训练时每次只在词表的一个小子集上训练,因为40%的词语只出现一次,如果把训练数据均分为许多份,则每一份中的稀有词可能都不会在其他语料中出现。然后测试时加一些技巧,待会儿详谈。

训练

hankcs.com 2017-06-30 下午8.18.31.png

如何选择小词表呢?在刚才的方法上更进一步,让用词相似的文章进入同一个子集,这样每个子集的词表就更小了。

hankcs.com 2017-06-30 下午8.19.38.png

测试

测试的时候先雷打不动将前$K$个最常使用的单词加入备选词表,然后将原文中每个单词可能的前$K^\prime$个翻译加进去。最后在备选词表上softmax。

hankcs.com 2017-06-30 下午8.25.35.png

更多技巧

上上次小讲座中提到的pointer、用词素级别来翻译goooooood morning之类。至此下课时间到了,后面全部是我的理解。

Byte Pair Encoding

这种方法试图用分词的思想去找出所有有意义的“词素”,其统计方法说来也简单,就是在词频词表里统计所有的ngram组合作为新的更长的ngram:

hankcs.com 2017-06-30 下午8.32.28.png

该方法拿到了WMT2016的第一名,代码在:https://github.com/rsennrich/nematus

其他

一些字符级别的LSTM之类。

另有一些混合动力的NMT,大部分情况下在词语级别做翻译,只在需要的时候从字符级去翻译。这个系统的主体是词语级别的LSTM:

2017-06-30_20-37-02.png

在词语级别上做常规的柱搜索:

hankcs.com 2017-06-30 下午8.38.22.png

一旦产生了unknown词语,则在字符级别进行柱搜索:

2017-06-30_20-39-44.png

然后提升了两个BLEU分值。

hankcs.com 2017-06-30 下午8.40.31.png

知识共享许可协议 知识共享署名-非商业性使用-相同方式共享码农场 » CS224n笔记11 GRU和NMT的进一步话题

评论 欢迎留言

  • 昵称 (必填)
  • 邮箱 (必填)
  • 网址

我的作品

HanLP自然语言处理包《自然语言处理入门》