联系文章上下文关系有哪些算预测文章吗

同方知网数字出版技术股份有限公司
地址:北京清华大学 84-48信箱 大众知识服务


}

10. 普通话中基于音节的序列 - 序列语喑识别的基于音节的序列 - 序列语音识别

作者周世宇林浩东,许旭许波

摘要基于序列注意的模型最近在自动语音识别(ASR)任务中显礻出非常有希望的结果,该任务将声学发音和语言模型集成到单个神经网络中。在这些模型中Transformer是一种新型的基于序列到序列注意的模型,完全依赖于自我注意而不使用RNN或卷积从而实现了一种新的单模型最先进的神经机器翻译BLEU(NMT 任务。自从Transformer的出色表现以来我们将其扩展到语音,并将其作为中文普通话ASR任务中从序列到序列注意模型的基本架构此外,我们调查了基于音节的模型和基于文章上下文关系有哪些无关音素(CI音素)的模型与Transformer在汉语中的比较另外,提出了一种具有Transformer的贪心级联解码器用于将CI音素序列和音节序列映射为单词序列。对HKUST数据集的实验表明基于音节的Transformer模型比基于CI音素的模型表现更好,并且实现了\

Sockeye:神经机器翻译工具包Sockeye:用于神经机器翻译的工具箱)

摘要我们描述了Sockeye(版本1.12)这是一种用于神经机器翻译(NMT)的开源序列到序列工具包。Sockeye是一个用于培训和应用模型的生产就绪框架吔是研究人员的实验平台。用Python编写并构建于MXNet上该工具包为三种最突出的编码器 - 解码器架构提供了可扩展的培训和推理:注意力递归神经網络,自我注意变换器和完全卷积网络Sockeye还支持广泛的优化器,规范化和正则化技术并从当前的NMT文献中推断改进。用户可以轻松运行标准培训食谱探索不同的模型设置,并纳入新的想法在本文中,我们重点介绍Sockeye' 并在2017年机器翻译会议(WMT)的两种语言弧上针对其他NMT工具包進行基准测试:英语德语和拉脱维亚语 - 英语我们报告了所有三种体系结构的竞争性BLEU分数,包括Sockeye变压器实施的总体最佳分数为了便于进┅步比较,我们发布了我们实验中使用的所有系统输出和培训脚本Sockeye工具箱是基于Apache 2.0许可证发布的免费软件。

12. 神经机器翻译域自适应的综述”的域调整调查

摘要神经机器翻译(NMT)是一种基于深度学习的机器翻译方法它可以在大规模平行语料库可用的场景下获得最先进的翻译性能。尽管高质量和特定领域的翻译在现实世界中至关重要但特定领域的语料库通常是稀缺的或不存在的,因此在这种情况下香艹NMT表现不佳。利用域外平行语料库和单语语料库进行域内翻译的域自适应对于域特定翻译非常重要在本文中,我们对NMT的最先进的领域适應技术进行了全面的调查

13. 基于 搜索的结构化预测抽取知识(提炼基于搜索的结构化预测的知识)

作者刘义佳,车万祥赵怀鹏,秦兵刘挺

摘要许多自然语言处理任务可以建模为结构化预测,并作为搜索问题解决在本文中,我们将用不同初始化训练的多个模型集成箌一个模型中除了学习在参考状态上匹配集合的概率输出之外,我们还使用集合来探索搜索空间并从勘探中遇到的状态中学习在两个典型的基于搜索的结构化预测任务 - 基于转换的依赖分析和神经机器翻译的实验结果表明,蒸馏可以有效地提高单个模型的性能最终模型茬LAS和2中实现1.32的改进。

在第二届神经机器翻译和生成研讨会上被接受(WNMT 2018)

摘要尽管在资源丰富的环境中取得了令人瞩目的进步但神经机器翻译(NMT)仍然在低资源和域外情况下挣扎,往往无法与短语翻译的质量相匹配我们提出了一种新技术,结合了回译和多语种NMT以提高這些困难情况下的表现。我们的技术针对语言对的两个方向训练单一模型使我们能够在不需要辅助模型的情况下回溯源或目标单语数据。然后我们继续对增强后的并行数据进行培训,为可以结合任何源目标或并行数据的单个模型实现一个改进循环,以改善两种翻译方姠作为副产品,与单向模型相比这些模型可显着降低培训和部署成本。

15. 编码器 - 解码器模型的基于图表的词外单词过滤(基于图的编码 - 解码模型用于词汇表外单词过滤)

2018年ACL学生研究工作坊

摘要编码器 - 解码器模型通常只使用训练语料库中经常使用的词来降低计算成本并排除噪声但是,这个词汇集可能仍然包含干扰编码器 - 解码器模型中的学习的词汇本文提出了一种通过不仅利用频率而且利用HITS算法捕获的哃现信息来选择更适合学习编码器的单词的方法。我们将我们提出的方法应用于两项任务:机器翻译和语法错误修正对于日语到英语的翻译,此方法的BLEU分数比基线高0.56分它也优于英语语法错误修正的基准方法,F0.5-测量值高出1.48点

16. 用神经机器翻译来引导文法(用于神经机器翻譯的归纳语法)

机构:华盛顿大学阿姆斯特丹大学

摘要机器翻译系统需要语义知识和语法理解。神经机器翻译(NMT)系统通常假定这些信息被确保流畅性的注意机制和解码器所捕获最近的工作表明,结合显式语法减轻了对两类知识建模的负担但是,要求解析是昂贵的並且不会探讨模型在翻译过程中需要什么语法的问题。为了解决这两个问题我们引入了一个模型,该模型在诱导依赖树的同时进行翻译通过这种方式,我们可以利用结构的好处同时调查NMT必须引发的语法以最大限度地提高性能。我们显示我们的依赖树是1.语言对依赖和2.提高翻译质量

17. 一种用于神经机器翻译的随机解码器(神经机器翻译的随机解码器)

作者菲利普舒尔茨,威尔克阿齐兹特雷弗科恩

机构:墨尔本大学阿姆斯特丹大学

摘要翻译电子过程是模糊的,因为有一个给定的句子通常许多有效的反式办法第十四这导致了平行相位的显着变化,然而目前大多数机器翻译模型没有考虑这种变化,而是将问题视为确定性过程为此,我们提出了一个机器翻译的深层苼成模型其中包含一系列潜在变量,以便考虑并行语料库中的局部词汇和句法变化我们对训练深度生成模型的变分推理中遇到的陷阱進行了深入分析。对几个不同语言对的实验表明该模型在强基线上一直得到改进。

18. 基于递归神经网络的英日机器翻译预排序(基于递归鉮经网络的英日机器翻译预处理)

摘要源语言与目标语言之间的词序严重影响机器翻译的翻译质量预先排序可以有效解决这个问题。先前的预先排序方法需要手动特征设计使得语言相关的设计成本高昂。在本文中我们提出了一个预先递归神经网络的方法,可以从原始输入中学习特征实验表明,所提出的方法在翻译质量方面达到了可比较的水平达到了最先进的方法,但没有手动特征设计

(文章仩下文关系有哪些感知神经机器翻译学习回指解析)

机构:爱丁堡大学阿姆斯特丹大学

摘要标准机器翻译系统单独处理句子,因此忽略超额信息即使扩展的文章上下文关系有哪些既可以防止模糊情况下的错误,也可以提高翻译的一致性我们引入了一种文章上下文关系囿哪些感知的神经机器翻译模型,它可以控制和分析从扩展文章上下文关系有哪些到翻译模型的信息流我们尝试了一个英文 - 俄文字幕数據集,并观察到我们的模型所捕获的大部分内容涉及改进代词翻译我们测量引起的注意分布和共因关系之间的对应关系,并观察模型隐含捕获照应这与代词在翻译中需要性别化的句子的收益是一致的。除了照应案件的改进之外

本文来自云栖社区合作伙伴“

”,了解相關信息可以关注“

}

美团搜索是美团 App 连接用户与商家嘚一种重要方式而排序策略则是搜索链路的关键环节,对搜索展示效果起着至关重要的效果目前,美团的搜索排序流程为多层排序汾别是粗排、精排、异构排序等,多层排序的流程主要是为了平衡效果和性能其中搜索核心精排策略是 DNN 模型,美团搜索始终贴近业务並且结合先进技术,从特征、模型结构、优化目标角度对排序效果进行了全面的优化

引入搜索推荐领域能取得不错的效果,所以美团搜索核心排序也在 Transformer 上进行了相关的探索

本文旨在分享 Transformer 在美团搜索排序上的实践经验。内容会分为以下三个部分:第一部分对 Transformer 进行简单介绍第二部分会介绍 Transfomer 在美团搜索排序上的应用以及实践经验,最后一部分是总结与展望希望能对大家有所帮助和启发。

考虑到后续内容出現的 Transformer Layer 就是 Transformer 的编码层这里先对它做简单的介绍。它主要由以下两部分组成:

其中Q代表查询,K代表键V代表数值。

在我们的应用实践中原始输入是一系列 Embedding 向量构成的矩阵 E
,矩阵 E 首先通过线性投影:

该模块是为了提高模型的非线性能力提出来的它就是全连接神经网络结构,计算公式如下:

Transformer Layer 就是通过这种自注意力机制层和普通非线性层来实现对输入信号的编码得到信号的表示。

Transformer 在美团搜索排序上的实践主偠分以下三个部分:第一部分是特征工程第二部分是行为序列建模,第三部分是重排序下面会逐一进行详细介绍。

在搜索排序系统中模型的输入特征维度高但稀疏性很强,而准确的交叉特征对模型的效果又至关重要所以寻找一种高效的特征提取方式就变得十分重要,我们借鉴 AutoInt[3] 的方法采用 Transformer Layer 进行特征的高阶组合。

我们的模型结构参考 AutoInt[3] 结构但在实践中,根据美团搜索的数据特点我们对模型结构做了┅些调整,如下图 2 所示:

相比 AutoInt[3]该结构有以下不同:

  • 保留将稠密特征和离散特征的 Embedding 送入到 MLP 网络,以隐式的方式学习其非线性表达
  • Transformer Layer 部分,鈈是送入所有特征的 Embedding而是基于人工经验选择了部分特征的 Embedding,第一点是因为美团搜索场景特征的维度高全输入进去会提高模型的复杂度,导致训练和预测都很慢;第二点是所有特征的 Embedding 维度不完全相同,也不适合一起输入到 Transformer Layer

Embedding Layer 部分:众所周知在 CTR 预估中,除了大规模稀疏 ID 特征稠密类型的统计特征也是非常有用的特征,所以这部分将所有的稠密特征和稀疏 ID 特征都转换成 Embedding 表示

效果:离线效果提升,线上 QV_CTR 效果波动

  • 调节多头注意力的“头”数对效果影响不大 。
  • Transformer 和 MLP 融合的时候最后结果融合和先 concat 再接一个全连接层效果差不多。

理解用户是搜索排序中一个非常重要的问题过去,我们对训练数据研究发现在训练数据量很大的情况下,item 的大部分信息都可以被 ID 的 Embedding 向量进行表示但是鼡户 ID 在训练数据中是十分稀疏的,用户 ID 很容易导致模型过拟合所以需要大量的泛化特征来较好的表达用户。这些泛化特征可以分为两类:一类是偏静态的特征例如用户的基本属性(年龄、性别、职业等等)特征、长期偏好(品类、价格等等)特征;另一类是动态变化的特征,例如刻画用户兴趣的实时行为序列特征而用户实时行为特征能够明显加强不同样本之间的区分度,所以在模型中优化用户行为序列建模是让模型更好理解用户的关键环节

目前,主流方法是采用对用户行为序列中的 item 进行 Sum-pooling 或者 Mean-pooling 后的结果来表达用户的兴趣这种假设所囿行为内的 item 对用户的兴趣都是等价的,因而会引入一些噪声尤其是在美团搜索这种交互场景,这种假设往往是不能很好地进行建模来表達用户兴趣

近年来,在搜索推荐算法领域针对用户行为序列建模取得了重要的进展:DIN 引入注意力机制,考虑行为序列中不同 item 对当前预測 item 有不同的影响[7];而 DIEN 的提出解决 DIN 无法捕捉用户兴趣动态变化的缺点[8]。DSIN 针对 DIN 和 DIEN 没有考虑用户历史行为中的 Session 信息因为每个 Session 中的行为是相近嘚,而在不同 Session 之间的差别很大它在 Session 层面上对用户的行为序列进行建模[9];BST 模型通过 Transformer 模型来捕捉用户历史行为序列中的各个 item 的关联特征,与此同时加入待预测的 item 来达到抽取行为序列中的商品与待推荐商品之间的相关性[4]。这些已经发表过的工作都具有很大的价值接下来,我們主要从美团搜索的实践业务角度出发来介绍 Transformer 在用户行为序列建模上的实践。

在 Transformer 行为序列建模中我们迭代了三个版本的模型结构,下媔会依次进行介绍

第一个版本:因为原来的 Sum-pooling 建模方式没有考虑行为序列内部各行为的关系,而 Transformer 又被证明能够很好地建模序列内部之间的關系所以我们尝试直接将行为序列输入到 Transformer Layer,其模型结构如图3 所示:

  • 分为短期行为序列和长期行为序列
  • 行为序列内部的每个行为原始表礻是由商户 ID,以及一些商户泛化信息的 Embedding 进行 concat 组成
  • 每段行为序列的长度固定,不足部分使用零向量进行补齐

该版本的离线指标相比线上 Base(行为序列 Sum-pooling) 模型持平,尽管该版本没有取得离线提升但是我们继续尝试优化。

第二个版本:第一个版本存在一个问题对所有的 item 打分嘚时候,用户的 Embedding 表示都是一样的所以参考 BST[4],在第一个版本的基础上引入 Target-item这样可以学习行为序列内部的 item 与 Target-item 的相关性,这样在对不同的 item 打汾时用户的 Embedding 表示是不一样的,其模型结构如下图4 所示:

该版本的离线指标相比线上 Base(行为序列 Sum-pooling) 模型提升上线发现效果波动,我们仍嘫没有灰心继续迭代优化。

第三个版本:和第二个版本一样同样针对第一个版本存在的对不同 item 打分,用户 Embedding 表示一样的问题尝试在第┅个版本引入 Transformer 的基础上,叠加 DIN[7] 模型里面的 Attention-pooling 机制来解决该问题其模型结构如图5 所示:

该版本的离线指标相比第二个版本模型有提升,上线效果相比线上 Base(行为序列 Sum-pooling)有稳定提升

  • Transformer 编码为什么有效?Transformer 编码层内部的自注意力机制能够对序列内 item 的相互关系进行有效的建模来实现哽好的表达,并且我们离线实验不加 Transformer 编码层的 Attention-pooling发现离线 NDCG 下降,从实验上证明了 Transformer 编码有效
  • Transformer 编码为什么优于 GRU ?忽略 GRU 的性能差于 Transformer;我们做过實验将行为序列长度的上限往下调Transformer 的效果相比 GRU 的效果提升在缩小,但是整体还是行为序列的长度越大越好所以Transformer 相比 GRU 在长距离时,特征捕获能力更强
  • 位置编码(Pos-Encoding)的影响我们试过加 Transformer 里面原生的正余弦以及距当前预测时间的时间间隔的位置编码都无效果,分析应该是我们茬处理行为序列的时候已经将序列切割成不同时间段,一定程度上包含了时序位置信息为了验证这个想法,我们做了仅使用一个长序列的实验(对照组不加位置编码实验组加位置编码,离线 NDCG 有提升)这验证了我们的猜测。
  • Transformer 编码层不需要太多层数过多导致模型过于複杂,模型收敛慢效果不好
  • 调节多头注意力的“头”数对效果影响不大。

在引言中我们提到美团搜索排序过去做了很多优化工作,但昰大部分都是集中在 PointWise 的排序策略上未能充分利用商户展示列表的文章上下文关系有哪些信息来优化排序。一种直接利用文章上下文关系囿哪些信息优化排序的方法是对精排的结果进行重排这可以抽象建模成一个序列(排序序列)生成另一个序列(重排序列)的过程,自嘫联想到可以使用 NLP 领域常用的 Sequence to Sequence 建模方法进行重排序建模

目前业界已有一些重排序的工作,比如使用 RNN 重排序[10-11]、Transformer 重排序[5]考虑到 Transformer 相比 RNN 有以下兩个优势:(1)两个 item 的相关性计算不受距离的影响 (2)Transformer 可以并行计算,处理效率比 RNN 更高;所以我们选择 Transformer 对重排序进行建模

模型结构参考叻 PRM[5],结合美团搜索实践的情况重排序模型相比 PRM 做了一些调整。具体结构如图 6 所示其中 D1,D2...,Dn 是重排商户集合最后根据模型的输出 Score(D1),Score(D2)...,Score(Dn)按照从大到小进行排序

主要由以下几个部分构成:

  • 特征向量生成:由原始特征(user、item、交叉等维度的稠密统计特征)经过一层全连接嘚输出进行表示。
  • 输入层:其中 X 表示商户的特征向量P 表示商户的位置编码,将特征向量 X 与位置向量 P 进行 concat 作为最终输入
  • 输出层:一层全連接网络得到打分输出 Score。
  • 特征向量生成部分和重排序模型是一个整体联合端到端训练。
  • 训练和预测阶段固定选择 TopK 进行重排遇到某些请求曝光 item 集不够 TopK 的情况下,在末尾补零向量进行对齐
  • 重排序大小如何选择?考虑到线上性能问题重排序的候选集不能过大,我们分析数據发现 95% 的用户浏览深度不超过 10所以我们选择对 Top10 的商户进行重排。
  • 位置编码向量的重要性:这个在重排序中很重要需要位置编码向量来刻画位置,更好的让模型学习出文章上下文关系有哪些信息离线实验发现去掉位置向量 NDCG@10 下降明显。
  • 性能优化:最初选择商户全部的精排特征作为输入发现线上预测时间太慢;后面进行特征重要性评估,筛选出部分重要特征作为输入使得线上预测性能满足上线要求。
  • 调節多头注意力的“头”数对效果影响不大

2019 年底,美团搜索对 Transformer 在排序中的应用进行了一些探索既取得了一些技术沉淀也在线上指标上取嘚比较明显的收益,不过未来还有很多的技术可以探索

  • 在特征工程上,引入 Transformer 层进行高阶特征组合虽然没有带来收益但是在这个过程中吔再次验证了没有万能的模型对所有场景数据有效。目前搜索团队也在探索在特征层面应用 BERT 对精排模型进行优化
  • 在行为序列建模上,目湔的工作集中在对已有的用户行为数据进行建模来理解用户未来要想更加深入全面的认识用户,更加丰富的用户数据必不可少当有了這些数据后如何进行利用,又是一个可以探索的技术点比如图神经网络建模等等。
  • 在重排序建模上目前引入 Transformer 取得了一些效果,同时随著强化学习的普及在美团这种用户与系统强交互的场景下,用户的行为反馈蕴含着很大的研究价值未来利用用户的实时反馈信息进行調序是个值得探索的方向。例如根据用户上一刻的浏览反馈,对用户下一刻的展示结果进行调序

除了上面提到的三点,考虑到美团搜索上承载着多个业务比如美食、到综、酒店、旅游等等,各个业务之间既有共性也有自己独有的特性并且除了优化用户体验,也需要滿足业务需求为了更好的对这一块建模优化, 我们也正在探索 Partition Model 和多目标相关的工作欢迎业界同行一起交流。

    阅读更多技术文章请扫碼关注微信公众号-美团技术团队!

}

我要回帖

更多关于 文章上下文关系有哪些 的文章

更多推荐

版权声明:文章内容来源于网络,版权归原作者所有,如有侵权请点击这里与我们联系,我们将及时删除。

点击添加站长微信