WordPress站点地图html代码,建设部门电工证查询网站,企业注册很多网站的好处,网站备案的网站名称到2023年图像分类backbone模型已经拓展到了几十个系列#xff0c;而有的新算法还在采样vgg、resnet做backbone#xff0c;比如2022年提出的GDIP-YOLO还在用VGG16做IA参数预测#xff0c;那是在浪费计算资源并限制了模型性能的提升#xff0c;应该将目光放到现在的最新模型中…到2023年图像分类backbone模型已经拓展到了几十个系列而有的新算法还在采样vgg、resnet做backbone比如2022年提出的GDIP-YOLO还在用VGG16做IA参数预测那是在浪费计算资源并限制了模型性能的提升应该将目光放到现在的最新模型中。为此博主对现行的各种模型的性能进行一个摸底统计具体范围包括 PP-HGNet 系列、ResNet 系列、ResNeXt 系列、Res2Net 系列、SENet 系列、DPN 系列、DenseNet 系列、HRNet 系列、Inception 系列、EfficientNet 系列、ResNeXt101_wsl 系列、ResNeSt 系列、RegNet 系列、RepVGG 系列、MixNet 系列、ReXNet 系列、HarDNet 系列、DLA 系列、RedNet 系列、ConvNeXt 系列、VAN 系列、PeleeNet 系列、CSPNet 系列、PP-LCNet PP-LCNetV2 系列、ViT 系列、DeiT 系列、SwinTransformer 系列、Twins 系列、CSWinTransformer 系列、PVTV2 系列 、LeViT 系列、TNT 系列、MobileViT 系列模型。具体信息参考mageNet1k/model_list.md
以PaddleClas所支持的模型为基准对现行图像分类模型进行进行一个摸底具体分为移动端模型、桌面端模型、服务器级模型。以在imagenet数据集上的精度为准精度在80%附近的只考虑移动端模型精度在85%附近考虑服务器级模型精度超过85%的都归纳为大型模型。这里不区分是否知识蒸馏、是否在外部数据集上进行预训练。
通过以下分析发现中低端flop训练与部署环境应该考虑ReXNet与EfficientNet等系列模型高flop训练与部署环境应该考虑CSWinTransformer、SwinTransformer等模型。同时通过分析也发现了经典的移动端模型在逐步被一些新结构所颠覆如ReXNet。
1、移动端模型
移动端在模型这里特指flop个mem都比较小的模型也就是针对移动端部署对conv架构进行了局部修改的轻量化结构。常见的模型结构有mobilenet系列v1、v2、v3,Vit、GhostNet系列、ShuffleNet系列、PP-LCNet系列。具体的入选标准为flop低于2G模型参数量低于40M。ImageNet acc大于75%的模型故此将一些性能强悍的特殊模型纳入范围如EfficientNet系列等模型。 调研结果表示ReXNet_2_0、EfficientNetB2属于最具性价比的移动端模型。同时通过对比发现对原有模型进行知识蒸馏相比与其原来的模型基本上都有2~4个点的精度提升例如GhostNet_x1_3_ssld提升4个点。以上信息还表明轻量化模型还有ReXNet、LeViT、EfficientNet系列。此外以上表格没有统计到MobilerVit系列模型MobilerVit系列模型在与ReXNet系列相比MobilerVit系列模型还是不够强
PP-LCNet系列模型是paddle团队提出的模型其认为推理速度也是极为重要的一环故将其与其他轻量级网络的性能进行对比。同时也告诉我们低flop的模型推理速度未必快。
ModelParams(M)FLOPs(M)Top-1 Acc(%)Top-5 Acc(%)Latency(ms)MobileNetV2_x0_251.53453.2176.522.47MobileNetV3_small_x0_351.71553.0376.373.02ShuffleNetV2_x0_330.62453.7377.054.30PPLCNet_x0_251.51851.8675.651.74MobileNetV2_x0_52.09965.0385.722.85MobileNetV3_large_x0_352.14164.3285.463.68ShuffleNetV2_x0_51.44360.3282.264.65PPLCNet_x0_51.94763.1484.662.05MobileNetV1_x1_04.357870.9989.683.38MobileNetV2_x1_03.532772.1590.654.26MobileNetV3_small_x1_253.610070.6789.513.95PPLCNet_x1_0 3.016171.3290.032.46PPLCNetV2_base6.660477.0493.274.32PPLCNetV2_base_ssld6.660480.0794.874.32
此外还有VAN、PeleeNet、CSPNet模型在设计上也算是轻量化模型但是效果不如以上的好。
2、桌面级模型
桌面级模型在这里特指flop大于1g且低于4g参数量低于60M的模型也就是可以在普通的消费级GPU上进行自由训练的模型。同时同类型的模型只列出最高精度的模型。 在上表中EfficientNet没有模型入选这是因为其模型的siez跨度刚好不在范围内。在上表中最佳模型任然是ReXNet
3、服务器级模型
这里为flop高与参数量正常的模型只统计在ImageNet精度高于80%如vgg、resnet等模型精度不达标不在此表中Flop大于4的模型。同类型的模型除非top1 精度大于85%否则每类模型只保留最高精度模型。 从下图中可以看出最具性价比的模型是CSWinTransformer_large_224与PVT_V2_B5其中LeViT_384为乱入的模型。使用这类模型进行训练batchsize和image size都不能设置的太大。 在PaddleClas中没有EfficientNetV2在与上表中相比EfficientNetV2-M在acc 85%的档次也是非常具备性价比的模型。 针对一些模型PaddleClas提供了蒸馏后的权重这里给出其精度信息可以发现这类模型虽然精度高于80%但是并不比前面未蒸馏过的模型占据优势。
4、常见模型
在上述统计中如vgg、resnet、densenet、inception、cspdarknet、repvgg等经典模型没有上榜这里进行一个补充。从以上统计中也可以发现经典的模型范式已经跟不上新技术的发展了。