2019 | Incorporating Sememes into Chinese Definition Modeling

Incorporating Sememes into Chinese Definition Modeling
2019
Linear Yang et al.

Motivation

Chinese Definition Modeling(CDM) 任务:为给定的中文词产生词典式的中文定义

This work

  • 为了解决CDM任务,构建了一个CDM数据集,每个example由 <word, sememes, definition> 三元组组成
  • 两个新模型
    • 1、Adaptive-Attention Model(AAM):利用adaptive注意力机制结合sememes(义原)信息生成 Definition
    • 2、Self- and Adaptive-Attention Model(SAAM ):进一步使用self-attention替代AAM中的recurrent connection,减少word,sememes,definition之间的路径长度

Methodology

Chinese Definition Modeling Corpus:

  • 包含 104,517 个条目
  • 三元组:<a word, the sememes of a specific word sense, and the definition in Chinese of the same word sense>
  • Sememes:义原,是描述词义的最小的语义单位
    • 具体信息请参考:HowNet
    • 为什么要使用义原:可以为生成定义提供额外的语义信息
  • 例子:cdm-corpus-example

Model

RNN-based Seq-to-Seq Model

Adaptive-Attention Model

引入 Adaptive-Attention 的原因:

  • vanilla attention 在每一步都会关于sememes
  • 在生成definition的过程中,不是所有词都与sememes有关

Adaptive-Attention

  • 利用 time-varying sememes 信息作为 sememe context
  • LM的信息作为 LM context
    • 首先,由 decoder 的 hidden state 和 上一时刻生成的definition词 通过线性映射和sigmoid运算得到 一个 gate 向量
    • 再,对上一时刻的hidden state 进行tanh激活运算,通过 gated unit,得到 LM context
  • 再根据 context,引入一个新的attention,决定在生成当前时刻词是依赖 sememe context 还是 LM context

Self- and Adaptive-Attention Model

将 AAM 中的 RNN,换成 transformer

**** END of This Post. Thank for Your READING ****
If you have any Question, welcome to Email me or leave your comments below.