当前位置: 首页 > news >正文

postgresql做网站用什么环境什么网站做adsense好

postgresql做网站用什么环境,什么网站做adsense好,人人建站,营商环境建设监督局网站英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]#xff08;1#xff09;——使用方法 Apex是Nvdia维护的pytorch工具库#xff0c;包括混合精度训练和分布式训练#xff0c;Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASP#xff0…英伟达结构化剪枝工具Nvidia Apex Automatic Sparsity [ASP]1——使用方法 Apex是Nvdia维护的pytorch工具库包括混合精度训练和分布式训练Apex的目的是为了让用户能够更早的使用上这些“新鲜出炉”的训练工具。ASPAutomatic Sparsity是Nvidia Apex模块中用于模型稀疏剪枝的算法 项目地址NVIDIA/apex: A PyTorch Extension: Tools for easy mixed precision and distributed training in Pytorch (github.com) 本文主要介绍的是ASP中的一个用于模型剪枝的模块ASP(Automatic sparsity)该模块仅仅向python模型训练文件中添加两行代码来实现模型的24稀疏剪枝同时还可以通过开启通道置换算法将绝对值较大的参数进行保留以求对模型精度的影响最小化。 项目地址项目 论文链接论文 Installation 从github clone源码安装需要checkout到23.05的tag git clone https://github.com/NVIDIA/apex.git cd apex git checkout 23.05 pip install -v --disable-pip-version-check --no-cache-dir --global-option--cpp_ext --global-option--cuda_ext --global-option--permutation_search ./Usage 使用ASP对模型进行稀疏化只需要两步 # 1. 导入sparsity模块 from apex.contrib.sparsity import ASP # 2. 使用ASP来模型和优化器进行稀疏化 ASP.prune_trained_model(model, optimizer)prune_trained_model函数会计算出稀疏mask并将其施加在模型的权重上。 整体而言通常需要在对模型稀疏化后重新进行训练整个过程可以表示为 ASP.prune_trained_model(model, optimizer)x, y DataLoader(args) for epoch in range(epochs):y_pred model(x)loss loss_function(y_pred, y)loss.backward()optimizer.step()torch.save(...)非标准用法 ASP还可以用来为模型生成稀疏的随机化参数从而进行更加复杂高级的实验如果在两个step之间重新计算权重的稀疏矩阵可以通过在训练的step之间调用ASP.recompute_sparse_masks函数来为模型重新生成稀疏mask。 Channel Permutation 该项目还可以通过开启通道置换算法来为结构化稀疏后的模型保留最大的精度值。 通道置换算法顾名思义就是通过沿着权重矩阵的通道维度进行置换并对其周围的模型层进行适当调整。 如果开启通道置换算法那么最终的模型精度与置换算法的质量之间存在很大关系置换的过程可以通过Apex CUDA拓展来进行加速否则时间会非常的久。 在Installation步骤中参数--global-option--permutation_search即是用于安装permutation search CUDA extension 。 如果不希望开启通道置换算法可以在ASP.init_model_for_pruning方法中将参数allow_permutation的值设置为False即可这一点在后续的源代码分析中也会提到。 需要注意的是当使用多个GPU时需要为所有的GPU设置相同的随机种子通过permutation_lib.py中的 set_identical_seed来进行设置。 import torch import numpy import randomtorch.manual_seed(identical_seed) torch.cuda.manual_seed_all(identical_seed) numpy.random.seed(identical_seed) random.seed(identical_seed) torch.backends.cudnn.deterministic True torch.backends.cudnn.benchmark FalseTips 在使用ASP对一个新的未经过稀疏的推理模型启用结构化稀疏时需要同时调用init_model_for_pruning和compute_sparse_masks方法。init_model_for_pruning会为模型层添加新的mask buffer用于保存compute_sparse_masks生成的mask因此调用了compute_sparse_masks后的模型的state_dict会比之前多出一些数据这些数据均以_mma_mask结尾的名字进行命名。对于已经使用ASP enable了结构化稀疏的模型在保存后重新加载时需要先创建一个新的模型并调用init_model_for_pruning方法为模型添加mask buffer后再load模型的state_dict否则因为新模型的state_dict和之前保存的state_dict不同而报错。 Example: 写了一个简单的Conv-FC网络训练后使用ASP进行剪枝随后再次进行训练 import torch import torch.nn as nn import torch.optim as optim import torchvision import torchvision.transforms as transforms from apex.contrib.sparsity import ASP# 定义卷积神经网络模型 class ConvNet(nn.Module):def __init__(self):super(ConvNet, self).__init__()self.conv1 nn.Conv2d(1, 16, 3, padding1)self.relu1 nn.ReLU()self.pool1 nn.MaxPool2d(2, 2)self.conv2 nn.Conv2d(16, 32, 3, padding1)self.relu2 nn.ReLU()self.pool2 nn.MaxPool2d(2, 2)self.fc1 nn.Linear(32 * 7 * 7, 128)self.relu3 nn.ReLU()self.fc2 nn.Linear(128, 10)self.sig nn.Sigmoid()def forward(self, x):x self.pool1(self.relu1(self.conv1(x)))x self.pool2(self.relu2(self.conv2(x)))x x.view(-1, 32 * 7 * 7)x self.relu3(self.fc1(x))x self.fc2(x)x self.sig(x)return xdef train_loop(model, optimizer, criterion):num_epochs 1for epoch in range(num_epochs):running_loss 0.0for i, data in enumerate(trainloader, 0):inputs, labels data[0].to(device), data[1].to(device)optimizer.zero_grad()outputs model(inputs)loss criterion(outputs, labels)loss.backward()optimizer.step()running_loss loss.item()if i % 100 99:print(fEpoch [{epoch1}/{num_epochs}], Batch [{i1}/{len(trainloader)}], Loss: {running_loss/100:.4f})running_loss 0.0def val(model):correct 0total 0model.eval()with torch.no_grad():for images, labels in testloader:images, labels images.to(device), labels.to(device)outputs model(images)_, predicted torch.max(outputs.data, 1)total labels.size(0)correct (predicted labels).sum().item()accuracy correct / total * 100print(Test Accuracy :{}%.format(accuracy))return accuracydef main():# 训练网络print(Begin to train the dense network!)train_loop(model, optimizer, criterion)print(Finish training the dense network!)accuracy_dense val(model)print(The accuracy of the trained dense network is : {}.format(accuracy_dense))torch.save(model.state_dict(), model_weights.pth)ASP.prune_trained_model(model, optimizer)accuracy_sparse val(model)print(The accuracy of the truned network is : {}.format(accuracy_sparse))print(Begin to train the sparse network!)train_loop(model, optimizer, criterion)print(Finish training the sparse network!)accuracy_sparse val(model)print(The accuracy of the trained sparse network is : {}.format(accuracy_sparse))torch.save(model.state_dict(), model_weights_sparse.pth)print(Training finished!)if __name__ __main__:transform transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5,), (0.5,))])trainset torchvision.datasets.MNIST(root./data, trainTrue, downloadTrue, transformtransform)trainloader torch.utils.data.DataLoader(trainset, batch_size64, shuffleTrue)testset torchvision.datasets.MNIST(root./data, trainFalse, downloadTrue, transformtransform)testloader torch.utils.data.DataLoader(testset, batch_size64, shuffleFalse)device torch.device(cuda if torch.cuda.is_available() else cpu)model ConvNet().to(device)print(original weights has been saved!)criterion nn.CrossEntropyLoss()optimizer optim.SGD(model.parameters(), lr0.001, momentum0.9)main()运行结果 root:/home/shanlin/cnn_demo# python train.py Found permutation search CUDA kernels [ASP][Info] permutation_search_kernels can be imported. original weights has been saved! Begin to train the dense network! The accuracy of the trained dense network is : 94.77...The accuracy of the truned network is : 94.15...The accuracy of the trained sparse network is : 96.6 Training finished! root:/home/shanlin/cnn_demo# 可以看出第一次训练后accuracy达到了94.77剪枝后下降到了94.15再次训练后重新上升到了96.6比第一次训练还高应该是因为模型是随便写的且数据集太简单的原因
http://www.yutouwan.com/news/186203/

相关文章:

  • 整个网站都在下雪特效怎么做Wordpress动图主题
  • 祁阳做网站哈尔滨网站制作公司
  • 招聘网站套餐视频号推广方法
  • 网站制作进度表营销推广型网站价格
  • 深圳网站建设开发哪家好怎么用网网站模板做网站
  • 网站搜索引擎优化案例茂名网站建设
  • 网站服务器指的是什么wordpress 乱版
  • 做网站怎么备份数据一个新的网站开发语言
  • 网站建设需要版块重庆门户网站开发报价
  • 网站没有做伪静态是什么样子设计公司网站设计
  • jsp网站怎么做邮箱验证码学做文案的网站
  • 网站后台可以做两个管理系统么怎么更改网站关键词
  • 网站关键字怎么做中小学网站建设
  • 福建省建设执业资格注册管理中心网站服务器做php网站
  • 淄博市 网站建设报价网站优化工作室
  • 手机网站怎么优化开公众号
  • wordpress主题会员功能网站建设和网站优化哪个更重要
  • 技术支持 洛阳网站建设演讲介绍自己做的网页
  • 如何做网站关键字优化做网站用什么后台
  • 百度怎么自己做网站安徽互联网前十名公司
  • 如何用dede做带下单的网站合肥做网站行吗
  • 外地人网站备案直播网站制作
  • 网页设计作业视频网站合适做服装的国际网站
  • 香洲区建设局网站宁夏建设厅网站首页
  • 网站改版的方式大致有做网站的协议
  • 制作网站多少钱十大暗网搜索引擎
  • 服装公司网站规划建设制作一个app软件
  • 网站排名降级的原因有哪些天门网站建设设计
  • 沧州网站建设专业定制可以做免费推广的网站吗
  • 做网站容易学吗WordPress是静态么