当前位置: 首页 > news >正文

手机网站用什么软件做的好处重庆网站开发哪家专业

手机网站用什么软件做的好处,重庆网站开发哪家专业,logo设计在线生成免费图片加文字,贵阳网站建设方案策划转自#xff1a;https://blog.csdn.net/fendouaini/article/details/79821852 1 词向量 在NLP里#xff0c;最细的粒度是词语#xff0c;由词语再组成句子#xff0c;段落#xff0c;文章。所以处理NLP问题时#xff0c;怎么合理的表示词语就成了NLP领域中最先需要解决的…转自https://blog.csdn.net/fendouaini/article/details/79821852 1 词向量 在NLP里最细的粒度是词语由词语再组成句子段落文章。所以处理NLP问题时怎么合理的表示词语就成了NLP领域中最先需要解决的问题。 因为语言模型的输入词语必须是数值化的所以必须想到一种方式将字符串形式的输入词语转变成数值型。由此人们想到了用一个向量来表示词组。在很久以前人们常用one-hot对词组进行编码这种编码的特点是对于用来表示每个词组的向量长度是一定的这个长度就是对应的整个词汇表的大小对应每个具体的词汇表中的词将该词的对应的位置置为1向量其他位置置为0。举个例子假设我们现有5个词组组成的词汇表词’Queen’对应的序号是2那么它的词向量就是01000。其他的词也都是一个长度为5的向量对应位置是1其余位置为0。     One-hot code非常简单但是存在很大的问题当词汇表很大比如数百万个词组成了词汇表时每个词的向量都是数百万维会造成维度灾难。并且one-hot 编码的向量会过于稀疏这样的稀疏向量表达一个词效率并不高。 而dristributed representation通常叫做词向量可以很好的解决one-hot code的问题它是通过训练将每个词都映射到一个较短的词向量上这样就解决了每个词向量的维度过大问题所有的词向量构成了词汇表的每个词。并且更重要的是dristributed representation表示的较短词向量还具有衡量不同词的相似性的作用。比如‘忐’‘忑’两个字如果作为两个词那么在dristributed representation表示下这两个词的向量应该会非常相似。不仅如此dristributed representation表示的词向量还能表示不同词组间组合的关系比如假设现在由训练好的词向量现在拿出King,Queen,Man,Woman四个词的词向量则         2.DNN训练词向量 词向量怎么得到呢这里得先说语言模型 fxy 在NLP中我们把x看作是一个句子里的一个词y是这个词的上下文。这里的f就是语言模型通过它判断xy这个样本是否符合自然语言的逻辑法则。直白的说语言模型判断样本x,y是不是人话。 而词向量正是从这个训练好的语言模型中的副产物模型参数也就是神经网络的权重得来的。这些参数是作为输入x的某种向量化表示这个向量就叫做词向量。 注意我们训练词向量的逻辑我们是为了得到一个语言模型的副产物-词向量去训练这个模型。所以我们的目的不是关注在怎么优化该模型而是为了获取该模型的参数构造词向量。 在Word2vec出现之前已经有用神经网络DNN来训练出词向量了。一般采用三层神经网络结构分为输入层隐藏层和输出层softmax层。     该模型中V代表词汇表的大小N代表隐藏层神经元个数即想要的词向量维度。输入是某个词一般用one-hot表示该词长度为词汇表长度隐藏层有N个神经元代表我们想要的词向量的维度输入层与隐藏层全连接。输出层的神经元个数和输入相同隐藏层再到输出层时最后需要计算每个位置的概率使用softmax计算每个位置代表不同的单词。该模型中我们想要的就是经过训练以后输入层到隐藏层的权重作为词向量。 假设词汇表有10000个词向量维度设定为300。 输入层 为词汇表中某一个词采用one-hot编码 长度为1X10000 隐藏层 从输入层到隐藏层的权重矩阵W_v*n就是10000行300列的矩阵其中每一行就代表一个词向量。这样词汇表中所有的词都会从10000维的one-hot code转变成为300维的词向量。     输出层 经过神经网络隐层的计算这个输入的词就会变为1X300的向量再被输入到输出层。输出层就是一个sotfmax回归分类器。它的每个结点将会输出一个0-1的概率所有结点的值之和为1我们就会取最大概率位置检测是否为输入样本x对应的y。   在此补充一下有没有考虑过一个问题采用one-hot编码时输入维度是10000如果我们将1X10000 向量与10000X300的矩阵相乘它会消耗大量的计算资源。     我们发现one-hot编码时由于只有一个位置是1将该向量与隐藏层权重矩阵相乘会发现one-hot编码向量中对应1的index词向量中这个下标对应的一行词向量正式输出结果。所以在真正的从输入到隐藏层的计算中并不会真正的进行矩阵相乘计算而是通过one-hot向量1的index取直接查找隐藏层的权重矩阵对应的行这样极大的简化了计算。   3.CBOW与Skip-gram模型 该模型更一般情况是使用CBOW(Continuous Bag-of-Words)或Skip-gram两种模型来定义数据的输入和输出。CBOW的训练输入的是某一个特征词的上下文相关的词对应的词向量输出是这个特定词的词向量。而Skip-gram刚好相反输入一个特征词输出是这个特征词。上下文相关的词。     这里我们以CBOW模型为例 假设我们有一句话people make progress every day。输入的是4个词向量’people’ , ‘make‘ , ‘every’ , ‘day’, 输出是词汇表中所有词的softmax概率我们的目标是期望progress词对应的softmax概率最大。     开始时输入层到隐藏层的权重矩阵和隐藏层到输出层的权重矩阵随机初始化然后one-hot编码四个输入的词向量’people’ ‘make’ ‘every’ ‘day’并通过各自向量1的位置查询输入到隐藏层的权重矩阵行数找寻其对应的词向量。将4个词向量与隐藏层到输出层的权重相乘通过激活函数激活后再求平均最后进行softmax计算输出的每个位置的概率。再通过DNN反向传播算法我们就可以更新DNN的隐藏层的权重参数也就得到了更新后词向量。通过不断的训练我们得到的模型参数就会越来越准确词向量也会变得越来越好。   通过这样的训练为什么词向量会具有衡量不同词语义相似性的功能呢 以CBOW模型为例这里我们可以看到通过one-hot编码的输入样本每次只会在隐藏层中输出与它对应的权重矩阵的行。也就是说在本次训练中隐藏层只会调用与输入样本相关的某一行的权重参数然后反向传播后每次都是局部更新隐藏层的权重矩阵。     根据语言学同义词的上下文很相似这样在训练模型中相似输入值都是对应相似的输出值每次就会更偏向于局部更新对应这些词的词向量的参数那么久而久之意思有关联且相近的词就会在词向量上很接近。模型的输出只是每个位置一一对应了词向量本身没有太大的意义。我的理解训练词向量的模型就像在做聚类一样每次把上下文的词与中心词对应的词向量通过训练关联在一起并彼此影响这样意思相近的词对应的词向量也会越来越像近。转载于:https://www.cnblogs.com/coshaho/p/9571000.html
http://www.huolong8.cn/news/412571/

相关文章:

  • 温州哪里有网站济南造价工程信息网
  • 深圳外贸网站公司网页制作素材按钮图标
  • 河南襄县做网站的公司wap医院网站模板 for dedecms v1.0
  • wordpress站怎么优化菏泽网站建设报价
  • 网站排名软件网址网上开店指南
  • 做网站切图的原则是什么国际十大公关公司
  • ftp上传网站后怎么弄wordpress答题跳转
  • 学校网站报价方案网站开发三大流行语言
  • 校园学生网站开发模板网字体库免费
  • wordpress 获取插件数据兰州网站建设优化制作公司
  • 做网站还有搞头吗wordpress 面包屑
  • 广州专业的网站推广工具南通模板网建站
  • 网站销售好做吗宁波网站建设速成
  • 网站备案部门网站 手机网站
  • 网页设计素材背景图片seo文章优化方法
  • 重庆建设工程造价信息总站手机设计图制作软件
  • 做网站发布网络营销策划目的
  • 修改网站首页排序郴州新网手机版招聘
  • 网站制作尺寸苏州 网站 建设 公司
  • 网站建设圣诞素材设计制作一个ppt的完整步骤
  • vps网站管理助手下载长春建站宣传
  • 徐州网站关键词工程交易服务主页
  • 网站敏感关键词线上培训
  • 个人做网站广州个性化网站建设
  • 电子商务网站设计目的及要求新手制作网页的方法
  • 做网站模板的软件建站房的公司
  • 做食物网站应该考虑些什么意思工程公司安全考试
  • 在网站上签失业保险怎样做wordpress centos6
  • 商务网站建设实训外贸淘宝网站建设
  • 注册网站租空间哪里租成都广告投放公司