神经机器翻译中的主要问题与挑战
1.难以跨领域
神经机器翻译(NMT)在处理领域之外的数据时的表现很糟:
当前的机器翻译系统会生成非常流畅的输出,这些输出与领域外数据的输入无关。因此像Google翻译这样的通用机器翻译系统在法律或金融等专业领域的表现尤其糟糕。与基于短语的系统等传统方法相比,NMT系统的效果更差。
2.小数据集上表现不佳
NMT在小数据集上表现不佳:一般而言,大多数机器学习都是这样,但这个问题在NMT上尤为突出。 NMT的优点在于,随着数据量的增加,它的表现要(比基于短语的机器翻译)更好,但在数据量很低的情况下,NMT的表现确实更差。事实上,正如作者所说,“在资源条件较差的情况下,NMT会产生与输入内容无关的流畅输出。”这可能是Motherboard的文章探讨的一些关于NMT表现奇怪的另一个原因。
3.罕见词汇
NMT在罕见词汇上的表现不佳:尽管比基于短语的翻译的表现更好,但NMT对于罕见或未见过的词语翻译的表现不佳。对于存在大量变形词的语言及大量命名实体的领域,这可能成为一个问题,因为变形词和命名实体一般非常罕见。
4.长句翻译
长句的翻译问题:对长句编码及生成长句仍然是一个没有解决的问题。 机器翻译系统随句子长度的增加,其表现会越来越糟,NMT系统尤其如此。使用注意力有帮助,但问题远未“解决”。在许多领域,如法律领域,冗长复杂的句子是很常见的。
5.注意力机制不等于简单对齐
注意力(Attention)机制不等于简单对齐:这是一个非常微妙但重要的问题。在传统的SMT系统(如基于短语的MT)中,对齐翻译为模型的检测提供了有用的调试信息。但是注意机制不能被视为传统意义上的对齐,即使论文经常将注意力机制作为“软对齐”引起注意。在NMT系统中,除了源语言中的动词之外,目标语言中的动词也可以作为主语和宾语成分。
6.翻译质量
- 难以控制翻译质量:每个单词都有多种翻译,典型的机器翻译系统在源句的翻译结构上表现很好。为了保持句子结构的大小合理,会使用集束搜索(beam search)。通过改变集束宽度,可以找到低概率但正确的平移。而对于NMT系统,调整集束的宽度似乎没有任何影响,甚至可能会有不良影响。
- 翻译的忠实度(adequacy)与流畅度(fluency)
- 信达雅