当前位置: 首页 > news >正文

珠宝网站模板潍坊高端网站建设公司

珠宝网站模板,潍坊高端网站建设公司,可以做本地生活服务的有哪些网站,企业展厅设计装修该任务是用Word2Vec进行预处理#xff0c;然后用TextCNN和TextRNN进行分类。TextCNN是利用卷积神经网络进行文本文类#xff0c;TextCNN是用循环神经网络进行文本分类。 1.Word2Vec 文本是一类非结构化数据#xff0c;文本表示模型有词袋模型#xff08;Bag of Words然后用TextCNN和TextRNN进行分类。TextCNN是利用卷积神经网络进行文本文类TextCNN是用循环神经网络进行文本分类。 1.Word2Vec 文本是一类非结构化数据文本表示模型有词袋模型Bag of Words、主题模型Topic Model、词嵌入模型Word Embedding。 1文本表示 一个文本表现为一个由文字和标点符号组成的字符串由字或字符组成词由词组成词语进而形成句、段、节、章、篇的结构。因此需要找到一种理想的形式化表示方法既能反映文档的内容又要有对不同文档的区分能力。 常用的模型是向量空间模型vector space modelVSM基本概念 文档document文章中具有一定规模的片段。项/特征项term/feature term:特征项是VSM中最小的不可分的语言单元一个文档内容被看成是它含有的特征项所组成的集合。表示为。项的权重term weight:每个特征项都有一个权重即。 定义给定一个文档,D符合以下条件 1one-hot编码杜热编码 词嵌入是一类将词向量化的模型的统称核心思想是将每个词都映射成低维空间上的一个稠密向量Word2Vec是常见的词嵌入模型之一。Word2Vec有两个网络结构CBOW和Skip-gram。 CBOW的目标是根据上下文出现的词语来预测当前词的生成概率Skip-gram是根据当前词来预测上下文中各词的生成概率。 a.CBOW CBOW(Continuous Bag of Words)称为连续词袋模型假如有这样一个句子“The man fell in love with the woman”,我们如果只看到“The man fell in love with the __”,CBOW则是要联系上下文预测这个‘woman’单词。 2.TextCNN 对于文本来说局部特征就是由若干单词组成的滑动窗口类似于N-gram。卷积神经网络的优势在于能够自动对N-gram特征进行组合和筛选获得不同抽象层次的语义信息。由于在每次卷积中采用了共享权重的机制因此它的训练速度较快。 TextCNN是由输入层卷积层池化层输出层组成结构如下 1输入层 输入层是一个N*K的矩阵其中N为文章所对应的单词总数K是每个词对应的表示向量的维度。每个词的K维向量可以是预先在其他语料库训练好的也可以作为未知的参数由网络训练得到。因此该输入层采用了两个通道的形式即有两个N*K的输入矩阵其中一个用预先训练好的词嵌入表达并且在训练过程中不再变化另一个 会随网络的训练过程而变化。 2卷积层 在输入的两个N*K的矩阵上我们定义不同的滑动窗口进行卷积操作。每一次卷积操作相当于一个特诊向量的提取通过定义不同的滑动窗口就可以提取出不同的特征向量。 3池化层 池化层可以采用1-Max池化即为从每个滑动窗口产生的特征向量中筛选出一个最大的特征然后将这些特征拼接起来构成向量表示。也可以选用K-Max池化选出每个向量中最大的K个特征或者平均池化等达到的效果是将不同长度的句子通过池化得到一个定长的向量表示。 4输出层 得到文本的向量表示之后后面的网络结构就和具体任务相关了。文本分类是接入全连接层并使用SoftMax激活函数输出每个类别的概率。 3.TextRNN 传统文本处理任务中丢失了输入的文本序列中每个单词的顺序两个单词之间的长距离依赖关系还是很难学习到。循环神经网络却能很好地处理文本数据变长并且有序的输入序列。常用的循环神经网络有RNN双向RNNLSTMGRU等。 循环神经网络Recurrent Neural Network,RNN是将网络隐藏层的输出重新连接到隐藏层形成闭环。它模拟了人阅读一篇文章的顺序将前面有用的信息编码到状态变量中从而有一定的记忆能力。典型结构为 循环神经网络是采用BPTTBack Propagation Through Time基于时间的反向传播求解的然后使用BPTT学习的循环神经网络不能成功捕捉到长距离的依赖关系由于sigmoid函数具有饱和性在进行大量训练之后就会出现梯度消失问题。如果计算矩阵的最大特征值大于1随着训练每层的梯度大小会呈指数增长导致梯度爆炸反之如特征值小于1则出现梯度消失。因此LSTMGRU是通过加入门控机制来弥补梯度上的损失。 长短期记忆网络Long Short Term Memory,LSTM)是循环神经网络的扩展由于循环神经网络有梯度消失和梯度爆炸的问题学习能力有限LSTM可以对有价值的信息进行长期记忆从而减少循环神经网络的学习难度。LSTM是一组记忆块memory blocks的循环子网构成每一个记忆块包含了一个或多个自连接的记忆细胞及三个乘法控制单元-输入门、输出门、遗忘门提供着读、写、重置的功能。 输入门控制当前计算的新状态以多大程度更新到记忆单元当信息经过输入单元激活后会和输入门进行相乘以确定是否写入当前信息 输出门控制着当前的输出有多大程度上取决于当前的记忆单元其与当前细胞记忆信息进行相乘以确定是否输出信息 遗忘门控制着前一步记忆单元中的信息有多大程度被遗忘掉其与细胞之前的记忆信息进行乘法运算以确定是否保留之前的信息 记忆块的结构 其中σ是sigmoid函数tanh是tanh函数是相乘是相加。 第1个部分通过一个sigmoid函数决定丢弃的信息第2部分在生成候选记忆时使用了双曲线正切函数Tanh作为激活函数确定更新信息第3部分更新了细胞状态第4 部分是将结果进行输出并传递给下一个记忆块。 参考 《百面机器学习》——诸葛越 《深度学习实战》——杨云
http://www.huolong8.cn/news/116789/

相关文章:

  • asp网站后台下载网络专题策划书模板
  • 网站开发商标属于哪一类深圳市城乡住房和建设局网站首页
  • 网站建设公司douyanet手表商城网站建设
  • 唐山快速建站的公司阿里云做网站预装环境
  • 自己做的网站网页错位建设公共资源交易中心网站
  • 大连金普新区规划建设局网站wordpress漂浮插件
  • 做网站用什么编程网站建设需要哪些必备文件
  • 青岛做网站排名wordpress设置个人头像
  • 温州网站建设外包如何做网站么
  • 广东建设工程网站wordpress搭建论坛教程
  • 郑州新一网站建设企信网查询
  • 建站公司还有前途吗网站开发 软件有哪些
  • 百度竞价网站源码中国icp备案网站
  • 怎样给网站增加栏目中铁中基建设集团网站
  • 武清网站建设wordpress友情链接页面插件
  • 志迅东莞网站建设店面门面设计
  • 用h5做简易网站代码网站内部数据搜索怎么做
  • 用ps做租房网站里的图标大小wordpress整合phpwind.
  • 为企网站wordpress调用id数据
  • 网站正在建设中 色行业网站渠道选择和内容运营
  • 佛山网站建设专业网页制作专业个人职业生涯规划书
  • 网建网站重庆网站推广系统
  • 专门做瑜伽的网站网站建设教程小说简介
  • 物流营销型网站案例分析网站打不开怎么处理
  • html 路径 网站根路径建筑网论坛
  • 徐州市建设局交易网站网络营销技巧培训
  • 网站上线过程如何申请企业邮箱流程
  • 网站你应该明白我的意思吗舟山网站建设费用
  • 17网站一起做网店白沟用织梦做网站能练技术吗
  • 学摄影的网站有哪些龙岩网站制作多少钱