当前位置: 首页 > news >正文

天津和平做网站哪家好工程建设标准网官方网站

天津和平做网站哪家好,工程建设标准网官方网站,站长之家seo查询官方网站,wordpress 上传功能文 | Sherry 不是小哀编 | 小轶一部问答系统发展史就是一部人工智能发展史。早在1950年的图灵测试就提出#xff1a;如果人类无法通过问答将机器和人区分开#xff0c;那么这个机器就可以被认为具有智能。问答系统和人工智能有着密不可分的关系。从基于规则和结构化数据的自动… 文 | Sherry 不是小哀编 | 小轶一部问答系统发展史就是一部人工智能发展史。早在1950年的图灵测试就提出如果人类无法通过问答将机器和人区分开那么这个机器就可以被认为具有智能。问答系统和人工智能有着密不可分的关系。从基于规则和结构化数据的自动问答到基于精细设计神经网络的文本问答再到T5[1]将一切文本任务都转化为问答我们足以看出自动问答系统在走向机器智能的过程中的重要性。当前主流的问答系统主要分为几类FAQ检索型、闲聊型、任务型、知识图谱型、阅读理解型等等。他们之间互相有些区别但本质上都可以被看作是从庞大的信息中找到想要答案的过程方法上互相之间也有一些借鉴意义。陈丹琦的DrQA[2]可以说是利用深度学习解决开放域问答的开山鼻祖了。我们也暂且将目光聚焦在这类开放域问答任务基于一个巨大的文本库例如维基百科建立自动回答知识型问题的系统。这样的系统通常分为两个部分检索模型负责从庞大的文本库中筛选出与问题最相关的文本阅读模型负责处理检索模型筛选出的文本从中精确地找出问题的答案。今天我们来看一篇开放域问答系统的最新SOTA。Facebook在这篇paper中提出在开放域问答中阅读理解模型的注意力权重可以提供更好的检索模型训练信号该方法刷新了开放域问答系统的SOTA同时在EffcientQA榜单上刷新了6GB量级模型的记录。论文题目: DISTILLING KNOWLEDGE FROM READER TO RETRIEVER FOR QUESTION ANSWERING论文链接: https://openreview.net/pdf?idNTEz-6wysdbGithub: https://github.com/lucidrains/distilled-retriever-pytorchArxiv访问慢的小伙伴也可以在 【夕小瑶的卖萌屋】订阅号后台回复关键词 【0127】 下载论文PDF~“现代”开放域问答最开始DrQA[2]将基于TF-IDF的词频算法用作检索模型与当时的SOTA阅读模型结合得到了开放域问答系统的雏形。基于词频的检索模型的一大优点就是简单有效对于大量文本可以将所有段落的词频都提前统计出来并储存为向量的形式对于给定问题通过向量近邻搜索就可以快速查询到最佳候选段落。但是基于词频的检索模型也有一些很明显的缺点词频不能完全表示文本的含义检索出的文本质量也因此受限从而影响问答系统整体的表现基于词频的检索模型不包含注意力机制很难给关键程度不同的信息以不同的评分为了解决这类检索模型的缺点常见的问答系统先通过基于词频的检索模型初筛出较大量候选段落再应用基于BERT的检索模型将问题和段落拼接在一起进行精细排序。然而这类分阶段检索的模型仍然存在一些问题它始终需要进过基于词频的检索有信息损失每次预测都需要将较大量的文本送入BERT进行精排。能否在一开始就用BERT这类效果更好的模型预先编码好所有段落在检索的时候直接进行向量搜索呢DPR - 加入了BERT的检索模型陈丹琦组在EMNLP 2020提出了Dense Passage RetrievelDPR[3]的方法来解决上述缺陷。由于BERT这类模型太过庞大在预测的时候无法实时对所有段落进行重编码因而问题和段落需要分开编码。文中采用两个不同的BERT模型分别编码问题和段落问题和段落编码向量相似度即为检索模型的打分。DPR的一大创新点在于线下完成所有段落的编码。训练段落编码器时将含有标准答案字串的候选段落作为编码器的正例其他段落作为负例。训练完成后即可在预测前对所有段落进行编码。预测时只需要编码问题即可通过向量搜索得到相关段落。然而DPR在监督信息的获取上是存在一定问题的——这也是基于网络的检索模型训练的一大难点。DPR[3]是利用答案字符串是否出现在段落中的信号来定义编码器的正负例。这个信号中包含了大量的噪声包含答案的段落并不能回答当前问题比如对问题 “中国的首都是哪里”而言并非所有包含“北京”的段落都能用来回答这个问题。不包含答案的段落也可以回答当前问题比如对问题“图灵测试是谁提出的”而言并非只有“阿兰·图灵”才是正确候选由于音译省略等其他字符串同时也可能是答案。那么如何能获得更优质的检索模型训练信号呢向阅读器学习专门为检索模型训练标注数据固然是一种获得更好训练数据的方法但我们能否自动获取更优质的监督信号呢Facebook AI的研究者们提出[4]利用蒸馏阅读模型中的注意力权重可以获得更好的相似度信息。除了训练检索模型外开放域问答的另外一个难点在于如何将检索模型和阅读模型的打分结合选出最终答案。阅读模型的打分往往只基于被送入阅读器的段落。想要获得不同段落之间的交互信息必须将所有候选段落拼接输入阅读器。但由于BERT的复杂度随着序列长度平方级增长拼接输入并不高效。在Fusion-in-Decoder model[5]中作者采用生成式Encoder-Decoder模型作为阅读模型他们将不同段落分别输入Encoder获得段落的的表示然后将这些表示拼接在一起作为Decoder的输入。这样Encoder不需要用平方级的复杂度Decoder在生成答案的时候也获得了所有段落的信息。而本文也采用这种阅读模型。作者提出在生成式阅读模型中Encoder和Decoder的交互注意力权重可看作预测时不同段落信息的重要度。作者通过一个简单的实验证明了这一论点给定一个问题和100个已经由DPR选出的相关段落筛选出最好的10个段落后再通过阅读理解模型得到的端到端准确率下降越少说明筛选方法越好。基于前100个相关段落的问答系统准确率可以达到48.2EM当我们直接选择前10个DPR筛选出的段落时问答系统的准确率下降到了42.9 EM但如果根据阅读模型的注意力权重筛选出前10的段落准确率只下降到46.8 EM。接下来作者又进一步利用知识蒸馏的方法让检索模型学习阅读模型的注意力信号。将注意力转化为相关度我们利用知识蒸馏让检索模型学习阅读模型的知识。将检索模型在不同段落上的预测概率与阅读模型的注意力权重之间的KL-divergence作为蒸馏训练的损失函数。那么如何将注意力权重转化为数值呢将矩阵转化为数值的最直观方法就是池化。公式中表示Decoder第i个token对Encoder第j个token在第k层第h个注意力头head的注意力权重表示的是阅读模型对这个问题段落对的注意力权重打分表示检索模型对问题是检索出段落的打分也就是检索模型的输出。这样我们就可以让检索模型学习阅读模型的注意力信息了。文中试验了不同的设置最终确定Decoder的第0个token对于Encoder同一段落中所有token的注意力权重平均值是最佳设定。实验至此我们已经确定了训练检索模型的损失函数。那么我们如何开始训练呢训练采取迭代的方式进行对于每个问题用检索模型选取前k个相关段落用于训练阅读模型。在相关段落上训练好阅读模型后对于每个问题的候选段落计算池化之后的注意力权重。利用注意力权重作为检索模型的蒸馏训练信号训练检索模型。从随机初始化的检索模型开始训练无疑是效率很低的初始的候选段落便显得尤为重要。作者选取了不同的初始筛选方法BM25BERTDPR来确定第一步的相关段落集合。实验发现从DPR方法选择的初始相关段落可以让模型达到最好的效果。由于BERT的预训练目标和相关度排序相差甚远因而用预训练好的BERT作为检索模型的初始参数并选择最初的相关段落集效果不佳。但作者提出的训练方法可以在4个迭代内让检索模型大幅提升效果。最终如此构建的问答系统在NQ和TriviaQA数据集上都超越了之前的SOTA。这个方法在TriviaQA上达到了更好的效果原因是NQ数据集中的段落是人工标注的并用作了DPR的训练但TriviaQA没有提供段落相似度信息。这正说明了本文方法在没有相似度标注数据的设定下十分有效。总结本文利用生成式阅读器中的注意力权重作为相似度信息训练检索模型刷新了开放域问答系统的SOTA。该方法简单有效地解决了开放域问答系统中训练检索模型缺乏标注数据的问题为研究者们提供了新思路。萌屋作者Sherry 不是小哀。本科毕业于复旦数院转行NLP目前在加拿大滑铁卢大学读CS PhD。经历了从NOIer到学数学再重回CS的转变却坚信AI的未来需要更多来数学和自认知科学的理论指导。主要关注问答信息抽取以及有关深度模型泛化及鲁棒性相关内容。作品推荐无需人工无需训练构建知识图谱 BERT一下就行了Google Cloud TPUs支持Pytorch框架啦后台回复关键词【入群】加入卖萌屋NLP/IR/Rec与求职讨论群后台回复关键词【顶会】获取ACL、CIKM等各大顶会论文集 [1]Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer.(https://arxiv.org/pdf/1910.10683)[2]Reading Wikipedia to Answer Open-Domain Questions.(https://arxiv.org/pdf/1704.00051)[3]Dense Passage Retrieval for Open-Domain Question Answering.(https://arxiv.org/pdf/2004.04906)[4]DISTILLING KNOWLEDGE FROM READER TO RETRIEVER FOR QUESTION ANSWERING.(https://openreview.net/pdf?idNTEz-6wysdb)[5]Leveraging passage retrieval with generative models for open domain question answering.(https://arxiv.org/pdf/2007.01282)
http://www.yutouwan.com/news/74163/

相关文章:

  • 做互联网产品和运营必备的网站电商小程序开发需要多少钱
  • 手机网站做分享到微信小微企业管理软件
  • 曲阜建设公司网站做毕业设计的网站
  • 网站侧边栏设计淘宝网官网首页
  • 中国做的比较好的电商网站有哪些自己服务器做网站服务器备案
  • 做网站怎么添加关键词wordpress 标签拼音
  • 网站logo是指北京ui及网页设计
  • 深圳高端网站建设价格wordpress文章描述
  • 做电影网站有风险吗手机网站开发下载
  • 上海网站制作团队平台型网站制作
  • 如何为网站建设内容微网站建设对微网站进行策划
  • 义乌建设网站制作网站建设公司 广告法被处罚
  • app开发科技网站建设wordpress绑定两个域名
  • 政务网站优化wordpress 本地运行慢
  • 有没有专做推广小说的网站wordpress内页关键词
  • 网站图片如何做水印丽江建设信息网站
  • 做网站能赚多少网站开发专业实习报告
  • 网站 禁止查看源码网站主题怎么写
  • 网站无法访问做盗版网站的
  • 做网站需要那些编程语言中国建设银行贷款网站
  • 南京微网站建设汉中建设工程招标信息网
  • 网站排名按天付费用html制作个人网站
  • 张家港建网站价格wordpress演示
  • 网站建设客户资料收集清单在wordpress注册的博客
  • 济南旅游团购网站建设wordpress如何让一个图片跟随悬浮
  • 网站建设的组织结构浏览器 网络 网站
  • 做外汇著名网站微信公众号网页版登录入口
  • 怎么查看网站是否备案企业大型网站开发网站模板设计
  • 上海哪个网站好用怎样建一个好的网站
  • 南昌汉邦网站建设网站怎么优化推荐