TG | Seq2Seq with LM using Cold Fusion

Title: Cold Fusion: Traning Seq2Seq Models Together with Language Models
Authors: Anuroop Sriram, Heewoo Jun, Sanjeev Satheesh, Adam Coates
Org.: Baidu Research
Published: Interspeech, 2018.

Research Topic/Problem

如何在seq2seq模型训练时利用PLM提升模型的效果(相当于引入无标注数据)

引入PLM的优势/目的:

  • 提升生成文本的fluency;
  • 可以充分利用大规模无标注数据;

最基本的向Seq2Seq模型引入PLM的方法[1][2][3]

  • 分别训练seq2seq和PLM模型,然后在测试推理阶段,通过结合两个模型的输出指导beam search;

存在的限制:

  • seq2seq模型完全基于有标注的序列进行训练,decoder可以看做隐式的LM,通过序列的标注信息进行习,decoder的很大一部分容量都被用于学习冗余的信息;
  • Seq2Seq的decoder中的剩余语言模型偏向于并行语料库的训练标签;

导致:

  • a) 很难适应于新的领域;
  • b) 为了适应新的领域,Seq2Seq模型必须首先学会忽略语言模型中的隐含知识;

输入source序列:$\mathbb{x}=\{x_1,…,x_T\}$

中间状态:$\mathbb{h}$

输出target序列:$\mathbb{y}=\{y_1,…,y_K\}$

预测推理:$\hat{y}=argmax_y logp(y|x)$

将seq2seq的decoder与LM结合的方法:

1、Shallow Fusion[1][4]

只在推理阶段利用LM输出的概率,计算如下:

其中,$p_{LM}(y)$ 即为LM关于序列$y$的概率;

2、Deep Fusion[3]

通过引入带有参数的门控模块,结合decoder和LM的隐状态,加强decoder与LM的连接;

在训练时,先是分开训练,然后在结合起来学习门控模块的参数;

Deep Fusion的劣势:

  • task-specific模型的训练和LM的训练时分开的;
  • decoder需要从有标注训练数据中学习一个LM,由于有标注训练数据的限制,其训练与训练LM存在很大的不平衡,且相当大一部分decoder的能力被浪费;
  • 因此,Fusion机制需要克服这种偏置,以结合新的语言信息;

Cold Fusion

Cold Fusion启发自Deep Fusion,鼓励seq2seq中的decoder在训练中学习利用LM,使seq2seq模型可以利用无限的无监督文本数据,使其能够快速适用于new domain,此外,decoder只需要学习任务相关的信息,因此训练更快;

与Deep Fusion的区别:seq2seq模型从头开始和一个fixed PLM共同训练;

在此情况下,seq2seq模型在训练中可以一直感知LM,使用LM中的language-specific信息,并且只捕获与任务相关(有助于将source映射到target)的信息,这样的解耦方式,可以增加模型的effective capacity,即使小型decoder也可以需要较好的性能;

Fusion Mechanism

1、门控计算的输入:a) seq2seq的隐状态 $s_t$,和b) LM的隐状态 $s_t^{LM}$;

  • 融合层根据input的不确定性,决定多大程度上依赖LM;

2、采用 fine-grained (FG) 门控机制[5]

  • 对语言模型状态的每个隐藏节点使用不同的门值;
  • 使得语言模型的集成更加灵活性,因为融合算法可以在每个时间步长中选择更需要强调的语言模型的哪些方面;

3、用LM的概率替换LM的隐状态;【??】

  • $s_t^{LM}$ 的分布和动态性,在不同的LM和数据上差别很大;
  • 将token的分布映射到一个common 嵌入空间;

Cold Fuison Layer的计算过程:

其中,$l_t^{LM}$ 为 LM 的logit输出;


  1. 1.Towards better decoding and language model integration in sequence to sequence models. 2016.
  2. 2.Sequence to sequence learning with neural networks. NIPS,2014.
  3. 3.On using monolingual corpora in neural machine translation. 2015.
  4. 4.Google’s neural machine translation system: Bridging the gap between human and machine translation. 2016.
  5. 5.Words or characters? fine-grained gating for reading comprehension. arXiv preprint arXiv:1611.01724, 2016.
**** END of This Post. Thank for Your READING ****
If you have any Question, welcome to Email me or leave your comments below.