当前位置: 首页 > news >正文

网站建设需要哪些成本费用电商网站建设综述

网站建设需要哪些成本费用,电商网站建设综述,上海抖音seo,一个高端的网站设计来源#xff1a;Deep Tech深科技自然语言是人类独有的智慧结晶。自然语言处理#xff08;Natural Language Processing#xff0c;NLP#xff09;是计算机科学领域与人工智能领域中的一个重要方向#xff0c;旨在研究能实现人与计算机之间用自然语言进行有效通信的各种理… 来源Deep Tech深科技自然语言是人类独有的智慧结晶。自然语言处理Natural  Language ProcessingNLP是计算机科学领域与人工智能领域中的一个重要方向旨在研究能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。用自然语言与计算机进行通信有着十分重要的实际应用意义也有着革命性的理论意义。 由于理解自然语言需要关于外在世界的广泛知识以及运用操作这些知识的能力所以自然语言处理也被视为解决人工智能完备AI-complete的核心问题之一。对自然语言处理的研究也是充满魅力和挑战的。 本文是来自自然语言处理领域从业人员、知名博主 Sebatian Ruder的一篇文章主要从神经网络技术方法的角度讨论自然语言处理领域近 15 年来的重大进展并总结出与当下息息相关的 8 大里程碑事件。文章内容难免会省略了一些其它重要的相关工作同时这份总结偏向于神经网络相关技术这并不意味着在这段时间内其它技术领域就没有重要的进展。值得注意的是文中提及的很多神经网络模型都是建立在同一时期非神经网络技术的里程碑之上的在文章的最后我们强调了这些打下坚实基础的重要成果。 2001年——神经语言模型Neurallanguage models语言模型解决的是在给定已出现词语的文本中预测下一个单词的任务。这可以算是最简单的语言处理任务但却有许多具体的实际应用例如智能键盘、电子邮件回复建议等。当然语言模型的历史由来已久。经典的方法基于 n-grams 模型利用前面 n 个词语预测下一个单词并利用平滑操作处理不可见的 n-grams。 第一个神经语言模型前馈神经网络feed-forward neuralnetwork是 Bengio 等人于 2001 年提出的。如图 1 所示。 图 1 | 前馈神经网络语言模型(Bengio et al., 2001; 2003) 这个模型以某词语之前出现的 n 个词语作为输入向量。今天这样的向量被称为大家熟知的词嵌入word embeddings。这些词嵌入在级联后进入一个隐藏层该层的输出然后通过一个 softmax 层。 近年来用于构建语言模型的前馈神经网络已经被循环神经网络RNNs和长短期记忆神经网络LSTMs取代。虽然后来提出的许多新模型在经典的 LSTM 上进行了扩展但它仍然是强有力的基础模型。甚至 Bengio 等人的经典前馈神经网络在某些设定下也和更复杂的模型效果相当因为这些任务只需要考虑邻近的词语。更好地理解语言模型究竟捕捉了哪些信息也是当今一个活跃的研究领域。 语言模型的建立是一种无监督学习unsupervised learningYann LeCun 也将其称之为预测学习predictive learning是获得世界如何运作常识的先决条件。关于语言模型最引人注目的是尽管它很简单但却与后文许多核心进展息息相关。 反过来这也意味着自然语言处理领域的许多重要进展都可以简化为某种形式的语言模型构建。但要实现对自然语言真正意义上的理解仅仅从原始文本中进行学习是不够的我们需要新的方法和模型。 2008年——多任务学习Multi-tasklearning多任务学习是在多个任务下训练的模型之间共享参数的方法在神经网络中可以通过捆绑不同层的权重轻松实现。多任务学习的思想在 1993 年由 Rich Caruana 首次提出并应用于道路追踪和肺炎预测。多任务学习鼓励模型学习对多个任务有效的表征描述。这对于学习一般的、低级的描述形式、集中模型的注意力或在训练数据有限的环境中特别有用。 多任务学习于 2008 年被Collobert 和 Weston 等人首次在自然语言处理领域应用于神经网络。在他们的模型中词嵌入矩阵被两个在不同任务下训练的模型共享如图 2 所示。 图 2 | 词嵌入矩阵共享(Collobert Weston, 2008; Collobert et al., 2011) 共享的词嵌入矩阵使模型可以相互协作共享矩阵中的低层级信息而词嵌入矩阵往往构成了模型中需要训练的绝大部分参数。Collobert 和 Weston 发表于 2008 年的论文影响远远超过了它在多任务学习中的应用。它开创的诸如预训练词嵌入和使用卷积神经网络处理文本的方法在接下来的几年被广泛应用。他们也因此获得了 2018 年机器学习国际会议ICML的 test-of-time 奖。 如今多任务学习在自然语言处理领域广泛使用而利用现有或“人工”任务已经成为 NLP 指令库中的一个有用工具。虽然参数的共享是预先定义好的但在优化的过程中却可以学习不同的共享模式。当模型越来越多地在多个任务上进行测评以评估其泛化能力时多任务学习就变得愈加重要近年来也涌现出更多针对多任务学习的评估基准。 2013年——词嵌入 通过稀疏向量对文本进行表示的词袋模型在自然语言处理领域已经有很长的历史了。而用稠密的向量对词语进行描述也就是词嵌入则在 2001 年首次出现。2013 年Mikolov 等人工作的主要创新之处在于通过去除隐藏层和近似计算目标使词嵌入模型的训练更为高效。尽管这些改变在本质上是十分简单的但它们与高效的 word2vecword to vector用来产生词向量的相关模型组合在一起使得大规模的词嵌入模型训练成为可能。 Word2vec 有两种不同的实现方法CBOWcontinuous bag-of-words和 skip-gram。它们在预测目标上有所不同一个是根据周围的词语预测中心词语另一个则恰恰相反。如图 3 所示。 图 3 | CBOW 和skip-gram 架构Mikolov et al., 2013a; 2013b 虽然这些嵌入与使用前馈神经网络学习的嵌入在概念上没有区别但是在一个非常大语料库上的训练使它们能够获取诸如性别、动词时态和国际事务等单词之间的特定关系。如下图 4 所示。 图 4 | word2vec 捕获的联系Mikolov et al., 2013a; 2013b 这些关系和它们背后的意义激起了人们对词嵌入的兴趣许多研究都在关注这些线性关系的来源。然而使词嵌入成为目前自然语言处理领域中流砥柱的是将预训练的词嵌入矩阵用于初始化可以提高大量下游任务性能的事实。 虽然 word2vec 捕捉到的关系具有直观且几乎不可思议的特性但后来的研究表明word2vec 本身并没有什么特殊之处词嵌入也可以通过矩阵分解来学习经过适当的调试经典的矩阵分解方法 SVD 和 LSA 都可以获得相似的结果。 从那时起大量的工作开始探索词嵌入的不同方面。尽管有很多发展word2vec 仍然是目前应用最为广泛的选择。Word2vec 的应用范围也超出了词语级别带有负采样的 skip-gram——一个基于上下文学习词嵌入的方便目标已经被用于学习句子的表征。它甚至超越了自然语言处理的范围被应用于网络和生物序列等领域。 一个激动人心的研究方向是在同一空间中构建不同语言的词嵌入模型以达到零样本跨语言转换的目的。通过无监督学习构建这样的映射变得越来越有希望至少对于相似的语言来说这也为语料资源较少的语言和无监督机器翻译的应用程序创造可能。 2013年——用于自然语言处理的神经网络2013年 和 2014 年是自然语言处理领域神经网络时代的开始。其中三种类型的神经网络应用最为广泛循环神经网络recurrent neural networks、卷积神经网络convolutionalneural networks和结构递归神经网络recursive neural networks。 循环神经网络是 NLP 领域处理动态输入序列最自然的选择。Vanilla 循环神经网络很快被经典的长短期记忆网络long-shortterm memory networksLSTM代替该模型能更好地解决梯度消失和梯度爆炸问题。在 2013 年之前人们仍认为循环神经网络很难训练直到 Ilya Sutskever 博士的论文改变了循环神经网络这一名声。双向的长短期记忆记忆网络通常被用于同时处理出现在左侧和右侧的文本内容。LSTM 结构如图 5 所示。 图 5 | LSTM 网络来源ChrisOlah 应用于文本的卷积神经网络只在两个维度上进行操作卷积层只需要在时序维度上移动即可。图6 展示了应用于自然语言处理的卷积神经网络的典型结构。 图 6 | 卷积神经网络Kim,2014 与循环神经网络相比卷积神经网络的一个优点是具有更好的并行性。因为卷积操作中每个时间步的状态只依赖于局部上下文而不是循环神经网络中那样依赖于所有过去的状态。卷积神经网络可以使用更大的卷积层涵盖更广泛的上下文内容。卷积神经网络也可以和长短期记忆网络进行组合和堆叠还可以用来加速长短期记忆网络的训练。 循环神经网络和卷积神经网络都将语言视为一个序列。但从语言学的角度来看语言是具有层级结构的词语组成高阶的短语和小句它们本身可以根据一定的产生规则递归地组合。这激发了利用结构递归神经网络以树形结构取代序列来表示语言的想法如图 7 所示。 图 7 | 结构递归神经网络(Socher et al., 2013) 结构递归神经网络自下而上构建序列的表示与从左至右或从右至左对序列进行处理的循环神经网络形成鲜明的对比。树中的每个节点是通过子节点的表征计算得到的。一个树也可以视为在循环神经网络上施加不同的处理顺序所以长短期记忆网络则可以很容易地被扩展为一棵树。 不只是循环神经网络和长短期记忆网络可以扩展到使用层次结构词嵌入也可以在语法语境中学习语言模型可以基于句法堆栈生成词汇图形卷积神经网络可以树状结构运行。 2014年——序列到序列模型Sequence-to-sequencemodels 2014 年Sutskever 等人提出了序列到序列学习即使用神经网络将一个序列映射到另一个序列的一般化框架。在这个框架中一个作为编码器的神经网络对句子符号进行处理并将其压缩成向量表示然后一个作为解码器的神经网络根据编码器的状态逐个预测输出符号并将前一个预测得到的输出符号作为预测下一个输出符号的输入。如图 8 所示。 图 8 | 序列到序列模型(Sutskever et al., 2014) 机器翻译是这一框架的杀手级应用。2016 年谷歌宣布他们将用神经机器翻译模型取代基于短语的整句机器翻译模型。谷歌大脑负责人 Jeff Dean 表示这意味着用 500 行神经网络模型代码取代 50 万行基于短语的机器翻译代码。 由于其灵活性该框架在自然语言生成任务上被广泛应用其编码器和解码器分别由不同的模型来担任。更重要的是解码器不仅可以适用于序列在任意表示上均可以应用。比如基于图片生成描述如图 9、基于表格生成文本、根据源代码改变生成描述以及众多其他应用。 图 9 | 基于图像生成标题Vinyalset al., 2015 序列到序列的学习甚至可以应用到自然语言处理领域常见的结构化预测任务中也就是输出具有特定的结构。为简单起见输出就像选区解析一样被线性化如图 10。在给定足够多训练数据用于语法解析的情况下神经网络已经被证明具有产生线性输出和识别命名实体的能力。 图 10 | 线性化选区解析树Vinyalset al., 2015 序列的编码器和解码器通常都是基于循环神经网络但也可以使用其他模型。新的结构主要都从机器翻译的工作中诞生它已经成了序列到序列模型的培养基。近期提出的模型有深度长短期记忆网络、卷积编码器、Transformer一个基于自注意力机制的全新神经网络架构以及长短期记忆依赖网络和的 Transformer 结合体等。 2015年——注意力机制注意力机制是神经网络机器翻译 (NMT) 的核心创新之一也是使神经网络机器翻译优于经典的基于短语的机器翻译的关键。序列到序列学习的主要瓶颈是需要将源序列的全部内容压缩为固定大小的向量。注意力机制通过让解码器回顾源序列的隐藏状态以此为解码器提供加权平均值的输入来缓解这一问题如图 11 所示。 图 11 | 注意力机制(Bahdanau et al., 2015) 之后各种形式的注意力机制涌现而出。注意力机制被广泛接受在各种需要根据输入的特定部分做出决策的任务上都有潜在的应用。它已经被应用于句法分析、阅读理解、单样本学习等任务中。它的输入甚至不需要是一个序列而可以包含其他表示比如图像的描述图 12。 注意力机制一个有用的附带作用是它通过注意力权重来检测输入的哪一部分与特定的输出相关从而提供了一种罕见的虽然还是比较浅层次的对模型内部运作机制的窥探。图 12 | 图像描述模型中的视觉注意力机制指示在生成”飞盘”时所关注的内容Xu etal., 2015 注意力机制也不仅仅局限于输入序列。自注意力机制可以用来观察句子或文档中周围的单词获得包含更多上下文信息的词语表示。多层的自注意力机制是神经机器翻译前沿模型 Transformer 的核心。 2015年——基于记忆的神经网络 注意力机制可以视为模糊记忆的一种形式其记忆的内容包括模型之前的隐藏状态由模型选择从记忆中检索哪些内容。与此同时更多具有明确记忆单元的模型被提出。他们有很多不同的变化形式比如神经图灵机Neural Turing Machines、记忆网络Memory Network、端到端的记忆网络End-to-end Memory Newtorks、动态记忆网络DynamicMemory Networks、神经可微计算机Neural Differentiable Computer、循环实体网络RecurrentEntity Network。 记忆的存取通常与注意力机制相似基于与当前状态且可以读取和写入。这些模型之间的差异体现在它们如何实现和利用存储模块。比如说端到端的记忆网络对输入进行多次处理并更新内存以实行多次推理。神经图灵机也有一个基于位置的寻址方式使它们可以学习简单的计算机程序比如排序。基于记忆的模型通常用于需要长时间保留信息的任务中例如语言模型构建和阅读理解。记忆模块的概念非常通用知识库和表格都可以作为记忆模块记忆模块也可以基于输入的全部或部分内容进行填充。 2018——预训练的语言模型 预训练的词嵌入与上下文无关仅用于初始化模型中的第一层。近几个月以来许多有监督的任务被用来预训练神经网络。相比之下语言模型只需要未标记的文本因此其训练可以扩展到数十亿单词的语料、新的领域、新的语言。预训练的语言模型于 2015 年被首次提出但直到最近它才被证明在大量不同类型的任务中均十分有效。语言模型嵌入可以作为目标模型中的特征或者根据具体任务进行调整。如下图所示语言模型嵌入为许多任务的效果带来了巨大的改进。 图 13 | 改进的语言模型嵌入Peterset al., 2018 使用预训练的语言模型可以在数据量十分少的情况下有效学习。由于语言模型的训练只需要无标签的数据因此他们对于数据稀缺的低资源语言特别有利。 其他里程碑 一些其他进展虽不如上面提到的那样流行但仍产生了广泛的影响。 基于字符的描述Character-based representations 在字符层级上使用卷积神经网络和长短期记忆网络以获得一个基于字符的词语描述目前已经相当常见了特别是对于那些语言形态丰富的语种或那些形态信息十分重要、包含许多未知单词的任务。据目前所知基于字符的描述最初用于序列标注现在基于字符的描述方法减轻了必须以增加计算成本为代价建立固定词汇表的问题并使完全基于字符的机器翻译的应用成为可能。 对抗学习Adversarial learning 对抗学习的方法在机器学习领域已经取得了广泛应用在自然语言处理领域也被应用于不同的任务中。对抗样例的应用也日益广泛他们不仅仅是探测模型弱点的工具更能使模型更具鲁棒性robust。虚拟的对抗性训练也就是最坏情况的扰动和域对抗性损失domain-adversariallosses都是可以使模型更具鲁棒性的有效正则化方式。生成对抗网络 (GANs) 目前在自然语言生成任务上还不太有效但在匹配分布上十分有用。 强化学习Reinforcement learning 强化学习已经在具有时间依赖性的任务上证明了它的能力比如在训练期间选择数据和对话建模。在机器翻译和概括任务中强化学习可以有效地直接优化”红色”和”蓝色”这样不可微的度量而不必去优化像交叉熵这样的代理损失函数。同样逆向强化学习inverse reinforcement learning在类似视频故事描述这样的奖励机制非常复杂且难以具体化的任务中也非常有用。编辑维尼 责编王新凯参考http://blog.aylien.com/a-review-of-the-recent-history-of-natural-language-processing/未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能互联网和脑科学交叉研究机构。未来智能实验室的主要工作包括建立AI智能系统智商评测体系开展世界人工智能智商评测开展互联网城市云脑研究计划构建互联网城市云脑技术和企业图谱为提升企业行业与城市的智能水平服务。  如果您对实验室的研究感兴趣欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
http://www.huolong8.cn/news/163782/

相关文章:

  • 江苏中淮建设集团有限公司网站餐饮品牌全案策划
  • 电子信箱注册网站91号卡分销平台
  • 新开传奇网站发布网孞万能浏览器网页版
  • 网站结构优化包括什么网页设计模板图片家乡
  • 英语培训建设网站方案视频网站怎么做
  • 网站开发公司方案报价客户管理crm系统哪家好
  • 手机网站 inputwordpress折叠菜单
  • 网站企业案例建网站一般要多少钱
  • 化工网站建设公司开网店如何找货源和厂家
  • 做网站搭建需要什么人wordpress 图片失效
  • 六安招聘网搜索引擎技术优化
  • 做响应式网站制作wordpress 重置密码
  • 枣庄有做网站的吗网站建设期的网站案例
  • 域名买来可以做网站吗泉州钟南山最新消息
  • wordpress怎么更换站点个人网站需要建站群吗
  • 网站开发流行工具做推广哪个网站好
  • 做网站要学什么知识e4a做网站app
  • 临沂网站关键词排名点击软件怎样
  • 新网站上线茶叶设计网站建设
  • 网站建设 菜鸟教程建行卡如何网上签约
  • 一个空间可以放两个网站吗c 网站开发调试
  • 成都市专业制作网站大地资源影视免费观看
  • 如何很好的进行网站的内部推广江门网站推广优化
  • 常用网站png网站用php与asp哪个好
  • 班级网站页面设计公司建设网站带来什么
  • 东莞网站建设平台电销外包团队在哪找
  • asp网站建设与设计江苏网页定制
  • 网站建设公司出路戴尔网站建设成功的关键
  • 运营企业网站怎么赚钱南通网站公司网站
  • 公司网站如何做二维码怎么使用腾讯云做网站