当前位置: 首页 > news >正文

试用网站开发国家企业信用公示系统官方网站

试用网站开发,国家企业信用公示系统官方网站,wordpress 企业模板 免费,做企业的网站都要准备什么东西论文笔记整理#xff1a;刘晓臻#xff0c;东南大学计算机科学与工程学院本科生。来源#xff1a;WSDM ’20链接#xff1a;https://dl.acm.org/doi/abs/10.1145/3336191.3371812动机知识图谱问答(KG-QA)系统大多包含两个步骤#xff1a;链接问题中的topic entity到KG刘晓臻东南大学计算机科学与工程学院本科生。来源WSDM ’20链接https://dl.acm.org/doi/abs/10.1145/3336191.3371812动机知识图谱问答(KG-QA)系统大多包含两个步骤链接问题中的topic entity到KG然后识别问题所指的在KG中的最相关的关系。根据获取答案所需的KG三元组的数量可以将自然语言问题分成单一关系问题和多关系问题两种。现有的KG-QA方法可以分成两个主流的分支。第一种主要致力于学习一个能够将非结构化的问题转换为结构化表示的语义解析器(Semantic Parser, SP)其中传统的基于SP的方法利用诸如SPARQL、λ-DCS和λ-calculus之类的逻辑形式但这就要求用户熟悉这些逻辑形式的语法和后台数据结构而且预测所得的结构和和KG的结构之间存在的不匹配的情况也会限制模型的表现。因此最近的研究使用query graph来表示问题的语义结构这样可以取得较好的结果但以人工标注成本作为代价因此难以用于其它领域且依赖于成熟的NLPpipelines会有错误的叠加。另外一个分支的方法利用以topic entity为中心的子图获取候选答案且将问题和每个候选子图编码为同一个嵌入空间的语义向量利用嵌入相似度排序其中神经网络可以较好地用以表示问题和KG成分。这一类方法可以端到端地训练且有泛化到其他领域的可能但在多关系问题上表现不是很好。因此对于后一类方法最近的研究工作致力于提高多关系问题上的推理能力。然而还有以下几个挑战(1) 时间复杂度过高因为现有的方法对于每个问题都需要用到整个以topic entity为中心的子图使得候选答案个数以指数级上升。(2) 语义信息太复杂因为多关系问题中的每一个部分都对三元组选择有各自的影响故需要在不同步骤里关注问题中的不同部分而许多现有的方法没有对多关系问题作更进一步的分析因此表现很差。(3) 需要使用弱监督来训练因为一步步地分析到底如何回答一个多关系问题是不现实的这需要大量的数据标注。实际的标注只有最终的答案因此是弱监督的。有些工作使用外部知识(如Wikipediafree text)来丰富分布式表示但这种操作不适用于没有外部知识的某些特定领域。针对以上挑战本文提出了一个基于强化学习的神经网络模型“Stepwise Reasoning Network (SRN)”。贡献如下(1) 针对第一个挑战SRN将多关系问题的回答形式化为一个顺序决策问题通过学习一个从topic entity开始在KG中执行路径搜索的策略来得到一个自然语言问题的答案并使用beam search在每一步获取三元组列表因此可以不考虑整个以topic entity为中心的子图进而显著减少对于一个问题的候选答案。(2) 针对第二个挑战SRN使用注意力机制决定当前关注哪一个部分以获取问题中不同部分的独特的信息在每一步使用对应的单层感知机以强调三元组选择的顺序使用GRU网络来编码决策历史。(3) SRN使用REINFORCE算法进行端到端训练。针对第三个挑战特别是在弱监督、多关系问题的情况下存在的一系列问题SRN使用基于potential 的reward shaping方法来为agent提供额外的rewards该方法不会使得agent偏离真正的目标也不需要外部知识。(4) 通过实验证明了方法的有效性在3个benchmark数据集上进行了ablationstudy。方法1.任务定义一个KG由G (E, R)表示E为实体集合R为关系集合KG中每个三元组(es, r, eo)都代表了现实生活中的一个基本事实。对于一个自然语言问题q一个KG-QA模型返回事实性答案答案包含存储在KG中的三元组对于许多复杂问题要求不止一个三元组。2.强化学习形式化强化学习常被形式化为一个马尔可夫决策过程(Markov decision process, MDP)。本文将MDP视为从交互中学习到回答基于KG的自然语言问题。如图1agent是学习者也是决策者在一个离散时间决策步骤序列中的每一步agent和除它之外的一切(环境)交互。图 1具体地一个MDP定义为一个元组(S, A, p, R)S为状态空间A为行动空间为状态转换概率为奖励函数。在每个时间步tagent观察环境的状态St ∈ S然后选择一个行动At ∈ A(St)。作为结果环境转换到一个新的状态St1概率为然后根据奖励函数agent会获得一个数值上的奖励。整个过程如图1。具体到本任务则有以下定义对于状态中q为问题es是topic entityet是从es搜索路径过程中在时间步t时所访问的实体,ht则为agent之前所做的决策的集合。t时的候选行动集合基于St, A(St)由G中所有et的出边构成即。另外由于回答一个问题所需的三元组数量未知故在中A(St)加入一个自环边表示终止行动agent在此进入终止状态。对于状态转换一旦agent选择了行动状态就变换成其中。最后奖励是环境传给agent的特殊信号是agent的目的的形式化表现在episodic RL任务中agent在每个时间步都会获得一个奖励agent的目标就是最大化其所获得的奖励。但由于本文使用的是弱监督agent只有在得到最终的正确的答案节点时才能获得一个正值终止奖励(通常为1)此时可以视之前的每个决策为正确的让它们也获得一个正值奖励。但这样会导致奖励延后且稀疏阻碍训练的收敛。本文利用一个potential 函数来减轻这一问题后面会详细说明。3.策略网络(Policy Network)     本文使用深度神经网络参数化搜索策略以求解上述的有限MDP。一个参数化的策略π以每一步的状态信息为输入输出在候选行动上的概率分布即。本文使用双向GRU网络来将q转换为向量并在每个时间步使用单层感知机转换向量以将问题中的不同部分用不同步骤来区分。使用注意力机制来让表示中能包含关系信息。最终概率分布基于包含了关系嵌入、能够感知到关系的问题表示和所编码的决策历史的语义得分。具体地对于一个长度为n个词的问题使用密集词嵌入初始化每个词并将q中的topicentity的提及用token“ spane”替换并且预先使用一个topic entity linker标注好此提及。之后将这一串词嵌入输入一个双向GRU网络并得到一系列d维输出状态其中每个wi由正向和反向两个GRU分别的的d/2维输出拼接得到。在每个时间步tq通过学习到的单层感知机转换成一个能感知到步骤的表示。进一步地通过将前一步决策所得的关系输入一个GRU网络来编码决策历史具体为其中为Aj­-1中的关系。H0和r0都是零向量。根据状态St获取行动空间A(St)对于所有的计算一个能够感知关系的问题表示计算方法为首先将r*投射到qt的嵌入空间上计算r*与的相似度然后将结果传给一个SoftMax层得到一个在上的注意力分布。通过以下公式得到这些向量的加权和作为关系r*和问题q之间的交互其中为关系r*的嵌入都是学得的参数⊙是Hadamard乘。然后使用用以下公式描述的感知机计算at的语义得分其中两个W都是学得的参数。基于相似度选择at的概率值通过一个SoftMax层计算然后根据概率分布从A(St)中抽样出行动At。注意到KG中存在一对多的关系故关系相同的候选行动将会被以相同度概率抽样。因此以下算法展示了一个agent如何通过该策略网络对给定的问题获取一个决策轨迹预测的回答为节点综上对于一个示例问题“Where was the father of Sylvia Brett’s other half born?”本文的推理框架如下图2图 24.基于Potential的Reward Shaping前面已经提到了弱监督带来的奖励的延后和稀疏问题针对这个问题比较便利的方法是对原始的MDP提供额外的奖励但这样可能会使得agent被困在子目标中无法达成真正的目标。因此有文献提出了基于potential的rewardshaping文献中提到一个shaping reward function 是基于potential的指的是对所有的存在 其中s0指的是像终止状态一样的吸收状态γ是discountfactor。可以证明当F是基于potential的时候中的每个最有策略都是中的一个最优策略反之亦然。本文基于以上定理提出了一个基于potential函数的rewardshaping函数。ϕ*用来衡量给定问题的多少语义信息被agent之前所做出的决策包含。这里正确的决策指含KG中的一个关系该关系能覆盖到问题中的部分语义信息。本文的ϕ*计算如下其中Qt是前一步中的每个词向量的和Ht是所编码的决策历史其关系嵌入是用的与训练的KG嵌入矩阵(TransE方法)。因此该方法不需要除了KG结构信息之外的任何外部先验知识故可以用于其他领域。本文修改了原始的reward 函数对于基于potential的rewardshaping函数 本文的reward函数为5.训练对于所有的参数θ训练目标为在所有问题-答案对上最大化预期reward其中η为discountfactorD为训练集(q, a)是D中的一个问题-答案对。使用经典的策略梯度法(REINFORCE算法)优化。实验本文在三个benchmark数据集上评估SRN的效果分别是通用领域的PathQuestion (含PQ和PQL两种)、足球领域的 WC2014 (其中单一关系问题集为WC-1H2关系问题集为WC-2H前面两个集问题集的混合集为WC-M合取型问题集为WC-C)和电影领域的METAQA (原数据集有纯人工构建集Vanilla也有使用机器翻译得到的其他数据集本文仅使用Vanilla和Vanilla-EUEU指未标注topic-entity。)。数据集的细节如下表1。Baseline有IRN、VRN、MemNN、KV-MemNN和MINERVA其中MINERVA是一个使用RL的知识图谱补全模型。实现细节上首先词嵌入用预训练的嵌入初始化KG嵌入使用基于TransE的预训练结果两种嵌入的维数都是300。用于编码问题的双向GRU有2层隐藏层维数为150。用于编码历史的单向GRU有3个300维的隐藏层。对GRU都使用dropoutdropout率为0.3。对于神经网络种的层使用Xavier初始化。对于基于potential的rewardshapingdiscount factorγ为0.95对于REINFORCE算法本文将discountfactor η调节在(0.9, 1.0)之间。训练时的beam size为1即贪心搜索测试时的beamsize则为32。对于参数优化使用ADAM optimizer初始学习率lr为0.001使用验证集上的表现来确定所有超参。(PQ, PQL, 和WC2014)的训练/验证/测试比为8:1:1衡量在5次不同的划分结果上的平均表现。对于METAQA使用其标准划分但同样做5次平均。METAQA论文种的模型和IRN模型都是给定了回答问题所需的三元组数量的(对应的数据集为PQ、PQL和METAQA)本文认为这是不现实的因此本文混合了这些问题得到了PQ-M、PQL-M、Vanilla-Mix和Vanilla-EU-Mix。实验结果如下表2和表3。根据结果可以看出SRN在来自不同领域的多关系问题上超越了所有baseline。本文认为这种差距是因为baseline都是考虑整个以topic entity为中心的子图而这可能会导致topic entity的T跳之内的其他knowledgeitem会误导训练和测试。注意到同样使用RL的MINERVA在更复杂的问题上表现不好本文认为这也是因为它考虑整个以topic-entity为中心的子图导致了reward的延后和稀疏问题。注意到所有的方法都在Vanilla-EU上表现更差因为该数据集没有标注topic entity而topic entity链接是这一切的基础。本文使用了一个topic-entity linker而VRN使用了一个基于全连接神经网络的topic entity recognizer且将topic entity的处理和多跳推理放在一起同时训练。然而实验结果表明这种方法表现不好尤其是在3跳问题上。本文认为这是由于VRN有reward的延后和稀疏问题导致其设计的topic entity recognizer接收到了更少的正信号因此训练可能不充分。另外注意到IRN-weak在PQL和Vanilla上表现不好本文认为这可能是由于它所用的多任务训练策略即KG嵌入的训练和其他QA参数的训练交替进行而这种策略在更大的KG上既花太多时间又可能会让损失函数误导QA任务。最后本文还做了ablationstudy。首先本文尝试去掉了策略网络中的注意力机制结果如表2和表3。可以看出没有了注意力机制的模型在所要求的三元组数量未知的情况下表现远不如原始SRN。然后本文去掉了感知机计算相似度改用余弦相似度。结果同样见表2和表3可以看见在PQL这样的KG更大的数据集上表现不好。在Vanilla上这样的模型在所要求的三元组数量已知的情况下表现还行但未知的情况下则表现下降许多。另外本文还在6个三跳数据集评估了去掉基于potential的reward shaping的SRN的训练过程如图3图种红线是原始SRN在验证集上的表现蓝线是去掉基于potential的reward shaping的SRN在验证集上的表现。可以看出这一策略的确会加快收敛。图 3总结本文针对多关系的知识图谱问答提出了一个基于深度强化学习的模型SRN主要的特点为将多关系问答视为RL中的顺序决策问题使用beamsearch来显著降低候选答案使用注意力机制和神经网络来决定当前步骤中应该关注问题中的哪个部分最后提出了基于potential的reward shaping策略缓解来弱监督带来的reward的延后和稀疏问题。实验证明了SRN的有效性。最后本文还指出了SRN存在缺陷即不能很好地回答推理路径上含限制的问题如“Which player is the highest in NBA?”。  OpenKG开放知识图谱简称 OpenKG旨在促进中文知识图谱数据的开放与互联促进知识图谱和语义技术的普及和广泛应用。点击阅读原文进入 OpenKG 博客。
http://www.huolong8.cn/news/841/

相关文章: