外网有趣的网站,网站更改建设方案模板,怎么做谷歌这样的网站吗,今天新闻最新消息目录
一、构建神经网络
二、数据准备
三、损失函数和优化器
四、训练模型
五、保存模型 一、构建神经网络
首先#xff0c;需要构建一个神经网络模型。在示例代码中#xff0c;构建了一个名为Tudui的卷积神经网络#xff08;CNN#xff09;模型。这个模型包括卷积层、…目录
一、构建神经网络
二、数据准备
三、损失函数和优化器
四、训练模型
五、保存模型 一、构建神经网络
首先需要构建一个神经网络模型。在示例代码中构建了一个名为Tudui的卷积神经网络CNN模型。这个模型包括卷积层、池化层和全连接层用于处理图像分类任务。
class Tudui(nn.Module):def __init__(self):super(Tudui, self).__init()self.mode1 nn.Sequential(nn.Conv2d(3, 32, 5, 1, 2),nn.MaxPool2d(2),nn.Conv2d(32, 32, 5, 1, 2),nn.MaxPool2d(2),nn.Conv2d(32, 64, 5, 1, 2),nn.MaxPool2d(2),nn.Flatten(),nn.Linear(64*4*4, 64),nn.Linear(64, 10))def forward(self, x):x self.mode1(x)return x二、数据准备
训练深度学习模型需要数据集。在示例中使用CIFAR-10数据集作为示例数据。数据集的准备包括下载、预处理和分割成训练集和测试集。
import torch
import torchvision
from torch.utils.data import DataLoader# 准备数据集
train_data torchvision.datasets.CIFAR10(rootD:\\Python_Project\\pytorch\\dataset2, trainTrue, transformtorchvision.transforms.ToTensor(), downloadTrue)
test_data torchvision.datasets.CIFAR10(rootD:\\Python_Project\\pytorch\\dataset2, trainFalse, transformtorchvision.transforms.ToTensor(), downloadTrue)# 创建数据加载器
train_dataloader DataLoader(train_data, batch_size64)
test_dataloader DataLoader(test_data, batch_size64)train_data_size len(train_data)
test_data_size len(test_data)三、损失函数和优化器
在训练中需要定义损失函数和优化器。损失函数用于度量模型的输出与真实标签之间的差距而优化器用于更新模型的参数以减小损失。
loss_fn nn.CrossEntropyLoss()
learning_rate 1e-2
optimizer torch.optim.SGD(tudui.parameters(), lrlearning_rate)四、训练模型
模型训练分为多轮迭代每轮包括训练和测试步骤。在训练步骤中通过反向传播算法更新模型参数以最小化损失函数。在测试步骤中用测试集验证模型性能。
for epoch in range(10): # 训练的轮数tudui.train()for data in train_dataloader:imgs, targets dataoutputs tudui(imgs)loss loss_fn(outputs, targets)optimizer.zero_grad()loss.backward()optimizer.step()tudui.eval()total_test_loss 0total_accuracy 0with torch.no_grad():for data in test_dataloader:imgs, targets dataoutputs tudui(imgs)loss loss_fn(outputs, targets)total_test_loss loss.item()accuracy (outputs.argmax(1) targets).sum()total_accuracy accuracyprint(整体测试集上的Loss{}.format(total_test_loss))print(整体测试集上的正确率{}.format(total_accuracy / test_data_size))五、保存模型
最后可以保存训练好的模型以备后续使用。示例代码展示了两种保存模型的方式包括保存整个模型和仅保存模型参数。
# 保存方式一
torch.save(tudui, tudui_{}.pth.format(epoch))
# 保存方式二官方推荐
# torch.save(tudui.state_dict(), tudui_{}.pth.format(epoch))完整代码如下
import torch
from torch import nn# 搭建神经网络
class Tudui(nn.Module):def __init__(self):super(Tudui,self).__init__()self.mode1 nn.Sequential(nn.Conv2d(3,32,5,1,2),nn.MaxPool2d(2),nn.Conv2d(32,32,5,1,2),nn.MaxPool2d(2),nn.Conv2d(32,64,5,1,2),nn.MaxPool2d(2),nn.Flatten(),nn.Linear(64*4*4,64),nn.Linear(64,10))def forward(self, x):x self.mode1(x)return xif __name__ __main__:tudui Tudui()input torch.ones((64,3,32,32))output tudui(input)print(output.shape)
import torch
import torchvision
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
from P27_model import *
import time# 准备数据集
train_data torchvision.datasets.CIFAR10(rootD:\\Python_Project\\pytorch\\dataset2,trainTrue,transformtorchvision.transforms.ToTensor(),downloadTrue)
test_data torchvision.datasets.CIFAR10(rootD:\\Python_Project\\pytorch\\dataset2,trainFalse,transformtorchvision.transforms.ToTensor(),downloadTrue)# length 长度
train_data_size len(train_data)
test_data_size len(test_data)# 如果train_data_size10,训练数据集的长度为:10
print(训练数据集的长度为{}.format(train_data_size))
print(测试数据集的长度为{}.format(test_data_size))# 利用DataLoader 来加载数据集
train_dataloader DataLoader(train_data,batch_size64)
test_dataloader DataLoader(test_data,batch_size64)# 创建网络模型
tudui Tudui()# 损失函数
loss_fn nn.CrossEntropyLoss()# 优化器
learning_rate 1e-2
optimizer torch.optim.SGD(tudui.parameters(),lrlearning_rate)# 记录训练的次数
total_train_step 0
# 记录测试的次数
total_test_step 0# 训练的轮数
epoch 10# 添加tensorboard
writer SummaryWriter(logs_train)
# 添加开始时间
strat_time time.time()for i in range(epoch):print(----------第{}轮训练开始----------.format(i1))# 训练步骤开始tudui.train() # 这两个层只对一部分层起作用比如 dropout层如果有这些特殊的层才需要调用这个语句for data in train_dataloader:imgs, targets dataoutputs tudui(imgs)loss loss_fn(outputs, targets)# 优化器优化模型optimizer.zero_grad() # 优化器梯度清零loss.backward()optimizer.step()total_train_step total_train_step 1if total_train_step % 100 0:end_time time.time() # 结束时间print(end_time - strat_time)print(训练次数{}, Loss:{}.format(total_train_step, loss.item())) # 这里用到的 item()方法有说法的其实加不加都行就是输出的形式不一样而已writer.add_scalar(train_loss, loss.item(),total_train_step)# 每训练完一轮进行测试在测试集上测试以测试集的损失或者正确率来评估有没有训练好测试时就不要调优了就是以当前的模型进行测试所以不用再使用梯度with no_grad 那句# 测试步骤开始tudui.eval() # 这两个层只对一部分层起作用比如 dropout层如果有这些特殊的层才需要调用这个语句total_test_loss 0total_accuracy 0with torch.no_grad(): # 这样后面就没有梯度了 测试的过程中不需要更新参数所以不需要梯度for data in test_dataloader: # 在测试集中选取数据imgs, targets dataoutputs tudui(imgs) # 分类的问题是可以这样的用一个output进行绘制loss loss_fn(outputs, targets)total_test_loss total_test_loss loss.item() # 为了查看总体数据上的 loss创建的 total_test_loss初始值是0accuracy (outputs.argmax(1) targets).sum() # 正确率这是分类问题中特有的一种评价指标语义分割之类的不一定非要有这个东西这里是存疑的再看。total_accuracy total_accuracy accuracyprint(整体测试集上的Loss{}.format(total_test_loss))print(整体测试集上的正确率{}.format(total_accuracy / test_data_size)) # 即便是输出了上一行的 loss也不能很好的表现出效果。# 在分类问题上比较特有通常使用正确率来表示优劣。因为其他问题可以可视化地显示在tensorboard中。writer.add_scalar(test_loss, total_test_loss, total_test_step)writer.add_scalar(test_accuracy, total_accuracy / test_data_size, total_test_step)total_test_step total_test_step 1# print(total_test_step)# 保存方式一其实后缀都可以自己取习惯用 .pth。torch.save(tudui, tudui_{}.pth.format(i))# 保存方式2官方推荐# torch.save(model.state_dict(), pth_dir /model_{}.pth.format(i)print(模型已保存)writer.close()
参考资料
视频教程PyTorch深度学习快速入门教程绝对通俗易懂【小土堆】