当前位置: 首页 > news >正文

做网站的网站赚钱吗免费看电视的网站

做网站的网站赚钱吗,免费看电视的网站,深圳品牌策划机构,万齐网站建设☁️主页 Nowl #x1f525;专栏《机器学习实战》 《机器学习》 #x1f4d1;君子坐而论道#xff0c;少年起而行之 文章目录 介绍 记忆功能对比展现 任务描述 导入库 处理数据 前馈神经网络 循环神经网络 编译与训练模型 模型预测 可能的问题 梯度消失 梯… ☁️主页 Nowl 专栏《机器学习实战》 《机器学习》 君子坐而论道少年起而行之  文章目录 介绍 记忆功能对比展现 任务描述 导入库  处理数据  前馈神经网络 循环神经网络 编译与训练模型 模型预测 可能的问题 梯度消失 梯度爆炸 其他的循环神经网络 结语 介绍 RNN也叫循环神经网络普通的神经网络层的输入都是上一层的输出而循环神经网络会在RNN层循环指定次数这样的特点使得RNN在处理序列数据上表现得很好因为它可以更好地记住前后文的关系 记忆功能对比展现 任务描述 我们有一段数字序列我们训练一个神经网络使得该模型能通过任意连在一起的两个数判断出第三个数 我们先定义数字序列 data_sequence [1, 3, 5, 2, 4, 9, 7, 6, 8] 导入库  import numpy as np from keras.models import Sequential from keras.layers import SimpleRNN, Dense 处理数据  # 准备训练数据使用前两个数字作为输入预测第三个数字以此类推 X [] y []for i in range(len(data_sequence)-2):X.append([data_sequence[i], data_sequence[i1]])y.append(data_sequence[i2])X np.array(X) y np.array(y)# 转换数据形状以适应RNN X X.reshape((X.shape[0], X.shape[1], 1)) 我们打印X得到下图结果结果竖向排列无法展示完全X的形状为7 2 1两两排列有七组数据每组数据两个特征每个特征单独输入 打印y 为每两个数的第三个数 前馈神经网络 接下来我们定义一个简单的前馈神经网络 model Sequential() model.add(Dense(500, input_dim2)) model.add(Dense(1)) 该模型有三层输入层没有在这里定义我们等下输入的数据就充当这一层一个500个神经元的线性层输入维度为二一个输出维度为1的输出层输入维度为上一层神经元的个数即500 循环神经网络 定义一个循环神经网络 # 创建RNN模型 model Sequential() model.add(SimpleRNN(500, input_shape(2, 1))) model.add(Dense(1)) 该模型有三层输入层没有在这里定义我们等下输入的数据就充当这一层一个500个神经元的RNN层input_shape21的意思是时间步为2每个时间步有一个数据可以理解时间步为网络记忆的长度一个输出维度为1的输出层输入维度为上一层神经元的个数即500 编译与训练模型 # 编译模型 model.compile(optimizeradam, lossmse)# 训练模型 model.fit(X, y, epochs200, batch_size1, verbose2) 编译阶段设置模型的优化器为adam损失函数为mse训练部分设置模型训练数据Xy设置训练回合为200次批次为1即一次输入一组数据verbose决定了是否打印训练过程中的信息。verbose2 表示打印每个 epoch 的信息包括损失值和其他指标。verbose0表示不打印任何信息verbose1表示打印进度条。 模型预测 接下来看看在相同神经元数量和相同训练批次上谁的效果更好吧 # 使用模型进行预测 input_data np.array([[data_sequence[2], data_sequence[3]]]) predicted_value model.predict(input_data)[0, 0]# 打印预测结果 print(f输入序列: {data_sequence[2:4]}预测下一个数字: {predicted_value}) 我们训练后使用5 2进行预测查看原始数据我们知道下一个数字应该是4让我们看看两个模型运行的结果吧 前馈神经网络 循环神经网络 可以看到循环神经网络的效果更优 可能的问题 梯度消失 当在网络的反向传播过程中梯度逐渐减小到几乎为零时就会出现梯度消失问题。这使得网络难以学习到远距离时间步的依赖关系因为在反向传播时较早时间步的信息无法有效传递给较晚时间步。 梯度爆炸 相反梯度爆炸是指在反向传播中梯度变得非常大这可能导致权重更新变得非常大模型不稳定。这可能导致数值溢出和无法收敛。 这两个问题在神经网络中都会出现只是由于RNN的结构梯度消失与梯度爆炸问题会更加显著 其他的循环神经网络 LSTMLSTM引入了三个门门是一种控制信息流动的机制来控制信息的输入、输出和遗忘。GRUGRU是对LSTM的一种简化版本它只包含两个门更新门Update Gate和重置门Reset Gate。 这两种循环神经网络能有效地应对梯度消失和梯度爆炸的问题这里先做了解之后会具体介绍 结语 循环神经网络是深度学习中一种重要的结构一般用来处理文本语音的序列数据我们通过一个比较直观地感受到了RNN的记忆功能梯度消失与梯度爆炸问题在RNN中更加显著 感谢阅读觉得有用的话就订阅下本专栏吧
http://www.huolong8.cn/news/464609/

相关文章:

  • 南京做网站找哪家南京的网站建设公司哪家好
  • 南宁网站运营优化平台网站怎么做移动端的
  • 分宜网站建设建设网站上传代码
  • intellij idea做网站做网站找哪家公司好
  • 网站dw建设网站开发商
  • 深圳做营销网站网站开发设计制作合同
  • 润滑油东莞网站建设dedecms+wordpress
  • 毕业设计做网站做不出手工制作教程视频教程
  • 网站接入变更怎样上网站建设
  • 河南互助网站建设保定最大的网络公司
  • 网站建设扬州全球速卖通规则
  • 做网站哪家wordpress go.php
  • 网站域名备案密码网站外链应该怎么做
  • 建设一个旅游网站毕业设计网站后台管理系统权限
  • 电商网站开发要多少钱wordpress全站背景
  • 怎样在国外网站购买新鲜橙花做纯露网站建设需要学什么证
  • 网站维护费进入哪个科目网站公司排行榜
  • 商城网站怎么做深圳建网站哪个好
  • 自己做图片上传网站南宁网站公司
  • 宁波发布最新通报seo工具箱
  • 凡客网站规划与建设ppt培训机构网页设计模板
  • 兰州网站制作公司怎么样个人网页的代码
  • 常州教育建设装备中心网站国外设计网站
  • 做外汇看哪些网站wordpress author=1
  • 东莞海天网站建设wordpress主题怎么安装教程
  • 腾讯云网站搭建流程沈阳网站关键词优化多少钱
  • 普宁市做网站网站设计制作电影
  • 哪里建设网站不会被封商丘网站公司
  • 网站换域名图片这么设置北京房山网站建设产品更新培训
  • 温州市网站建设公司展示型网站多少钱