当前位置: 首页 > news >正文

做网站在经营范围内属于什么搜索排名优化

做网站在经营范围内属于什么,搜索排名优化,网站开发的经费预算,盐城公司网站建设前馈神经网络 在文章《逻辑回归到神经网络》#xff08;以下简写《LR到NN》#xff09;中#xff0c;小夕为大家描述了一个从逻辑回归延伸到神经网络的过程。在《一般化机器学习与神经网络》中#xff0c;小夕阐述了神经网络的一般性。这一篇会完全进入神经网络的状态… 前馈神经网络 在文章《逻辑回归到神经网络》以下简写《LR到NN》中小夕为大家描述了一个从逻辑回归延伸到神经网络的过程。在《一般化机器学习与神经网络》中小夕阐述了神经网络的一般性。这一篇会完全进入神经网络的状态阐述神经网络的特殊性。 其实在《LR到NN》中的这张简单的图就是本文要讲的前馈神经网络feed-forward neural network。     可以看到这种简单粗暴的连法恰恰就是神经网络最经典的模型。即隐含层的每个单元神经元均只接受前一层对于只有一个隐含层的前馈网络前一层即输入层的输出作为输入并输出结果到后一层对于只有一个隐含层的前馈网络后一层即输出层。将这种神经网络看成数据结构中的“图”的话那就是一个“有向无环图”即前馈网络中是不存在反馈的。 这里的边即单元与单元之间连接的强度也即权重。设想一下当两个单元之间的权重为0时一个单元的输出就无法再通过这条边传递给另一个单元了即这两个单元之间断开连接了不存在这条边了因此神经网络模型中的模型参数不仅仅是个数字了由于这张基于生物学中的神经系统的模型可视化图的存在神经网络模型中的参数还代表着两个神经元之间的连接强度。 在《一般化机器学习与神经网络》中小夕讲过了所谓的前向算法就是计算了一下模型的假设函数而已只不过计算的过程可视化出来后就是一个沿着神经网络“向前推进”的样子因此起了个名字而已。这里就不再赘述这个俗俗的假算法啦。 根据机器学习框架假设函数有了我们还需要考虑什么呢当然是如何得到这个假设函数啦~也就是如何训练神经网络这个一般而特殊的机器学习模型即学习模型参数。 石器时代 假设你是一个完全不懂数学的生物学家虽然学生物的数学也很厉害的吧你觉得从生物学的角度来看将模型参数看作神经元之间的连接强度这个神经网络训练好之后应该是什么样子的呢 回想一下高中生物如果两个神经元紧紧相连那么一个神经元的兴奋必然导致与之相连的神经元的兴奋。如果经过无数次实验我们发现对于神经元A和神经元B只要A兴奋那么B一定兴奋那么就说明A与B之间肯定连接非常紧密就像一条绳子的蚂蚱一个跳起来肯定把另一个带起来也就是说A到B的连接强度非常大也就是说A到B这个模型参数的值肯定很大。 将这个生物学思想往数学上靠一下那就是“如果神经元A的激活带来B的激活就代表A与B具有相关性因此A与B之间的连接权重应该被加强即应增大模型参数(下标BA代表从A出发到达B的有向边)”。 这个思想叫什么呢叫“Hebb规则”这个思想是神经网络的学习算法的最本质也是最原始的思想。 那么如何去实现这个思想呢 青铜时代 设想一下我们的网络到达了这么一种状态   显然模型犯错了输出单元输出层在这里只有一个单元应该是1结果预测的是0也就是应该兴奋实际在睡觉而根据Hebb规则我们应该让输出单元加强与那些兴奋的神经元的连接也就是增大与“隐含层输出为1专业说法叫被激活的神经元”的连接减弱与“隐含层输出为0未激活的神经元”的连接 再想一下“隐单元未激活/输出为0”代表着什么 还记得《逻辑回归到神经网络》中放大的这个隐单元的图吗   隐单元的核心就是激活函数比如sigmoid、tanh等。如下sigmoid   因此隐单元输出为0时也就是未激活时就意味着隐单元的输入为负值 所以为了迎合Hebb规则应该让未激活的神经元减小权重激活的神经元增加权重那么我们可以直接让权重加上隐单元的输入啊 即对于全部的隐单元wwa。注a为隐单元的输入未激活的神经元的a为负激活的为正 而对于如下这种情况也就是应该输出0实际输出了1的情况     通过跟前面一样的推理我们发现只要让w的更新方式与前面相反即 对于全部的隐单元ww-a。注a为隐单元的输入未激活的神经元的a为负激活的为正 那么有没有办法将上面两种情况合起来表示呢 机智的你应该想到了那就是 ww(真实值-预测值)*a 对啊用这条通用的规则就可以反复的更新隐藏层到输出层的权重了~这个规则叫什么呢这就是1986年认知心理学家Rumellhart等人提出的δ学习规则也叫广义Hebb规则这是对神经网络学习算法的Hebb思想的直接实现 等等有没有觉得似曾相识呢赶紧翻开书看看BP算法的权重更新公式有没有发现BP中的权重更新公式与这个规则所表达的意思惊人的相似 相似就对了~ 铁器时代 想一想在广义Hebb规则中我们做了一些简化 首先权重更新的方向很明确但是更新的步长我们是直接用了隐单元的输入a而没有证明这个a是最合理的步长。其次我们这里直接用真实值减去预测值也是很启发式的做法。 那么显然这个广义Hebb规则在数学上极有可能是非最优的毕竟这是一个启发式的即拍脑袋的算法。那么如何得到最优的做法呢那就是从这个规则的目的着手去提出更上层的理论 广义Hebb规则的目的是什么呢 这个规则的直接目的是让最终的输出逼近真实输出也就是减小模型输出与真实输出之间的误差。具体做法是让每个隐单元的权重个性化修改来向着使误差减小的方向移动。 等等再重复一遍具体做法是让每个隐单元的权重个性化修改来向着使误差减小的方向移动。 再再重复一遍具体做法是让每个隐单元的权重个性化修改来向着使误差减小的方向移动 所以我们可以怎样做如果有一个函数可以直接描述这个误差这不就是损失函数做的事儿吗那么以权重为误差的自变量使误差减小的方向不就是权重的负梯度方向吗。那让权重沿着这个方向移动不久好了吗这不就是梯度下降法吗   如图自变量x轴是权重因变量y轴是误差显然使误差减小的方向就是权重的负梯度方向啊~ 所以求出此时权重的负梯度即此时每个隐单元的权重的导数然后让权重向这个方向移动一定的步长反复这个移动的过程直到误差最小即训练完成得到最优的权重 所以说这是什么这就是梯度下降法呀~同时这还是BP算法对隐含层与输出层连接权重的更新方式啊 那么如何更新输入层到隐含层的权重呢 一样的呀数学思想都这么清晰了~误差依然是误差只需要将自变量换成输入层到隐含层的权重不就可以啦~其他的完全照旧啊。 只不过损失函数是“间接包含”输入层到隐含层的权重的因此在求此时的负梯度时要进行链式求导~也就是下面这个烂大街的推理过程       这个推理过程摘自http://blog.csdn.net/lu597203933/article/details/46575803有兴趣的可以去看看反正哪里都能找到这个推导过程~ 数学好的一眼就看懂了不太好的就随便找个讲BP算法的书或者帖子啦这是真正的烂大街推理过程。。。因此各层权重的负梯度利用上面的链式求导法则就很轻松的求出来了然后ww-α*负梯度就可以啦~其中α是步长~ 看源于训练神经网络的最naïve的Hebb思想为了实现这个思想而提出了δ算法用数学去描述δ算法的本质目标得出通过引入损失函数并(链式求导)求解负梯度来更新权重的过程即误差反向传播算法(BackPropagation简称BP算法)。 ╮(╯▽╰)╭ 只不过在神经网络中可视化一下看起来就像一个人们定义的误差从模型输出层向输入层传播而已啦然后起了个形象的名字叫所谓的误差反向传播算法。 不过人们抽象出来的这个前向与反向算法的概念还是有更多原因的一是可以帮助人们理解使其可以从生物学模型上得到解释进而以这种思想变形出其他形式的前向与反向传播算法来描述或训练更复杂的神经网络另一方面也是给我们程序猿(喵)们提供了一种简洁无脑的编程模型使得哪怕不懂链式求导等BP算法原理的程序猿也能轻松的写出来这个数学上不算太简单的算法。
http://www.huolong8.cn/news/446546/

相关文章:

  • 深圳网站设计公司怎么样绿色电器公司网站psd模板
  • 网站系统里不能打印wordpress批量删掉文章内的文字
  • 淘宝的网站建设怎么建多商户商城服务态度好
  • 苏州定制网站建设近期发生的新闻
  • 赤峰网站开发公司制作网站比较大的几家公司
  • 怎么用网站做chmwordpress插件会员中心
  • 高要seo整站优化网站建设 展滔科技大厦
  • 做全屏网站设计时容易犯的错app开发需要哪些技术
  • 想要网站推广版学校网站建设策划书模板
  • 常州西站建设规划今天石家庄出什么事了
  • dw做网站链接数据库宁波seo网络推广优化价格
  • 工信部网站icp备案号云服务器上放多个网站
  • 手机网站需要域名吗2345网址大全历史版本
  • 大连企业需要做网站信誉好的网站建设
  • 南昌网站开发建设建筑工人app
  • 宁波建网站需要什么秦皇岛网站开发公司
  • 建设什么网站赚钱淮安网站网站建设
  • 当当网站建设优点怎么在网站上做推广
  • 西安网站设计西安搜推宝做粉丝网站
  • 怎么才能访问自己做的网站天河网站建设专家
  • 深圳市网站开发坂田附近传智播客 网站开发
  • 网站推广方案途径wordpress 上传swf
  • 常用网络营销方法举例东莞seo外包
  • 网站开发成本科技广告公司网站模板
  • 房产销售网站开发文档门户子网站建设申请
  • 唐山网站建设模板怎么查询自己房产信息
  • 驻马店哪家做网站好wordpress安装出错
  • 广东网站建设方案报价邯郸贴吧网站
  • 微网站 杭州网络推广是干嘛的可以做吗
  • 网站备案 互联网信息常德车管所网站